Firmy nieustannie próbują nadążyć za zmianą, aby być lepsze niż konkurencja i osiągać coraz lepsze wyniki finansowe. Nie jest to łatwe zadanie, zwłaszcza w perspektywie nowych potrzeb, które rodzą się w procesie zmiany. Świadomość firmy, jej pozycji na rynku i otoczenia, jest jednym z wielu czynników, które mają realny wpływ na to, czy firma odnajdzie się w nowej, zmienionej rzeczywistości. Wiarygodne dane, umiejętne ich wykorzystanie, analiza i prezentacja są niezbędne przy podejmowaniu właściwych decyzji biznesowych. W obliczu ilości gromadzonych informacji, tempa ich przetwarzania oraz różnorodności danych perspektywa dostarczenia rzetelnej analizy nie jest oczywista i wiąże się z wieloma wyzwaniami. Jakie trudności niesie ze sobą proces przygotowania danych do analizy oraz jak sobie z nimi poradzić?

Wyzwania

Wyzwań związanych z przygotowaniem danych do analizy może być wiele i mogą być one różnie kategoryzowane. Podstawową kwestią jest wielkość zbioru, na którym pracujemy. Jaka jest jednak definicja dużego zbioru? Dla jednej osoby praca z arkuszem kalkulacyjnym i milionem rekordów będzie już dużym zbiorem, dla innego użytkownika ta sama próbka będzie jedynie „przystawką”. Czym jest zatem Big Data? Termin ten jest trudny do określenia. Przyjmuje się, że jeśli ogólnodostępne narzędzia są niewystarczające, aby przetworzyć duży zbiór danych, a dodatkowo towarzyszy temu stała potrzeba zdobywania nowych informacji lub wiedzy, to mamy wówczas do czynienia z Big Data. Dobrym przykładem, gdzie ewidentnie mamy z nimi do czynienia, jest rynek telekomunikacyjny. Ciągła potrzeba rejestrowania połączeń abonentów definiuje wielkość bazy danych. Analityk, który chce pracować na tak dużej bazie, musi mieć odpowiednie narzędzia i kompetencje. Rynek telekomunikacyjny jest dynamiczny, szybko się zmienia i towarzyszy temu stała i silna potrzeba zdobywania nowych informacji o kliencie, np. badania jego preferencji.

Aby analiza danych była przeprowadzona w sposób efektywny i dostarczała rzetelnych informacji, dobrze jest wcześniej odpowiednio przygotować się do prac analitycznych.

Punktem wyjścia jest źródło danych. Niezależnie od tego, czy będziemy pracować na dużym, czy małym zbiorze, należy dołożyć wszelkich starań, aby doprowadzić źródło danych do stanu idealnego. Jakość danych jest punktem krytycznym w całym procesie, a praca nad nią sprowadza się do mniej lub bardziej zaawansowanych działań. Dane niekompletne, zdublowane, nieaktualne bądź w jakikolwiek inny sposób naznaczone błędem będą wypaczać obraz rzeczywistości i wpływać na właściwe podejmowanie decyzji biznesowych. Dlatego też ważne jest, aby prace nad jakością danych zacząć już od najwcześniejszego etapu – zbierania danych. Specyfika i skala gromadzonych danych będzie w dużym stopniu definiować rodzaj bazy danych. Dla przykładu, osoba, która prowadzi sklep z pieczywem, prawdopodobnie będzie w stanie określić listę produktów, wielkość sprzedaży i koszty w prostej tabeli i na podstawie tylko jednego źródła danych będzie w stanie określić większość wskaźników biznesowych. Inaczej sytuacja będzie się kształtować w przypadku dużej firmy, która aby określić te same parametry, prawdopodobnie będzie już musiała zastosować bardziej zaawansowany model np. relacyjnej bazy danych, gdzie dane przechowywane są w wielu tabelach. W przypadku zastosowania takiego rozwiązania istotne jest to, aby w każdej tabeli był identyfikator, który umożliwi połączenie ze sobą konkretnych tabel i pracę na zbiorze tylko z danymi, które będą istotne z punktu widzenia realizowanej analizy. Rejestrowanie danych powinno odbywać się w sposób skrupulatny, ustrukturyzowany i sformatowany. Stopień naszego zaangażowania w prace związane z dostosowaniem tabel zaprocentuje na późniejszym etapie prac raportowo-analitycznych.

Duże firmy dysponują wielkimi wewnętrznymi zbiorami danych (hurtowniami danych), ale aby zaspokoić w pełni swoje potrzeby analityczne, często posiłkują się dodatkowymi, zewnętrznymi bazami danych. Niezależnie od pochodzenia źródła danych, im większa liczba źródeł (zwłaszcza tych zewnętrznych), tym trudniej wyciągnąć istotne informacje i przygotować analizę.

 

Dostęp możliwy dla zalogowanych użytkowników serwisu. Jeśli posiadasz aktywną prenumeratę przejdź do LOGOWANIA. Jeśli nie jesteś jeszcze naszym Czytelnikiem wybierz najkorzystniejszy WARIANT PRENUMERATY.

Zaloguj Zamów prenumeratę

Zobacz również

Rewitalizacja efektywności zarządzania kapitałem ludzkim w organizacji a ryzyko personalne

MC_66_88.jpg

Kapitał ludzki to najważniejszy zasób przedsiębiorstwa, to zbiór właściwości tkwiący w ludziach, to umiejętności, talenty, zachowania, kompetencje – to wartość. Charakteryzuje go nietransferowalność praw własności, co oznacza, że kapitał ludzki jest jedynie w czasowej dyspozycji przedsiębiorstwa. Tym ważnym zasobem należy racjonalnie gospodarować, czyli wykorzystywać potencjał pracy dla wzrostu efektywności funkcjonowania i wartości przedsiębiorstwa. Proces ten wiąże się bezpośrednio z ryzykiem, a sposób zarządzania kapitałem ludzkim determinuje poziom ryzyka personalnego. Ryzyko personalne można modelować, stosując rewitalizację efektywności zarządzania kapitałem ludzkim.

Czytaj więcej

Proces realizacji zamówienia zdolny do generowania zysku, czyli ciąg dalszy o KPI

MC_66_38.jpg

W poprzednim, 65., wydaniu magazynu „Finanse + Controlling” rozpoczęliśmy cykl artykułów na temat KPI, których zadaniem jest zapewnienie zdolności przedsiębiorstwa do generowania zysku. Skupiliśmy się wówczas na wskaźnikach dla procesów sprzedaży i zakupów. Tym razem przyjrzymy się opomiarowaniu procesu realizacji zamówienia, zwanego inaczej strumieniem wartości.

Czytaj więcej

Teoria ograniczeń

Teoria ograniczeń (TOC, Theory of Constraints) to metoda zarządzania, sformułowana przez dr. Eliyahu M. Gold- ratta w latach 70. XX w. U jej podstaw leży założenie, że osiągnięcie długotrwałych zysków jest możliwe, jeśli przedsiębiorstwo właściwie zarządza ograniczeniami, czyli tak zwanymi wąskimi gardłami.

Czytaj więcej

Numer bieżący

Polecamy

Przejdź do

Partnerzy

Reklama