Wartość i znaczenie automatycznej analizy danych w XXI wieku

Zautomatyzowana analityka danych składa obietnicę usprawniania działalności firm na wielu poziomach. Stąd inwestowanie w tzw. potocznie Big Data stało się wyraźną rzeczywistością rynkową. Globalny rynek na rozwiązania pozwalające na gromadzenie i analizowanie wielkich zbiorów danych rośnie dynamicznie a w roku 2016 osiągnął wartość 23,8 miliarda dolarów. Istnieje już wiele przykładów pokazujących, że inwestycje w programy Big Data przynoszą zyski w postaci, czy to lepszego dotarcia do klienta, czy to optymalizacji kosztowej. Co ważne firmy eksperymentują także na wielu innych poziomach wykorzystania danych, jak: poprawa zarządzania ryzykiem, poprawa bezpieczeństwa, poprawa zgodności z regulacjami prawnymi.

Pobież nasz raport: „Ekonomika eksploracji tekstu i danych – analiza aktualnych trendów i przyszłych zastosowań” 

Wykres 1. Do czego wykorzystujesz analizę wielkich zbiorów danych? (Gartner 2016)

Za konkretny przykład lepszego marketingu może posłużyć amerykański Target. Ten potentat handlu detalicznego – poprzez analizę nawyków zakupowych klientów – nauczył się rozpoznawać, kiedy kobiety regularnie korzystające ze sklepów firmy, są we wczesnych miesiącach ciąży. Dzięki temu trafiał do nich z ofertą w momencie, kiedy były najbardziej podatne na sugestie reklamowe. Przypadek ten został dobrze opisany przez Charles’a Duhigga w Magazynie New York Times’a a następnie rozwinięty w jego książce pt. „Siła nawyku”. Praktyki tego typu wzbudziły kontrowersje i pytania natury etycznej. Wydaje się jednak, że problem ten nie został odpowiednio zaadresowany w debacie publicznej i dzisiaj działania tego typu są na porządku dziennym firm – szczególnie tych zajmujących się handlem w internecie.

O wiele mniej kontrowersyjne wydaje się drugie najbardziej popularne zastosowanie analityki wielkich zbiorów danych – niezależnie od tego, jaką formę ono przyjmuje – a zatem nie to, które „szpieguje” konsumentów ucząc się ich zachowań po to, by lepiej wpływać na ich decyzje, a to w wyniku którego optymalizowane są koszty prowadzenia biznesu – także koszty środowiskowe. Jedno z wdrożeń firmy Cloudera (globalnego gracza w dziedzinie Big Data, Data Miningu i zautomatyzowanej analityki) zostało zrealizowane z dużą amerykańską firmą transportową. Zainstalowano odpowiednie czujniki w ciężarówkach, które zbierają dane dotyczące ich „zdrowia”. System zabiera dane w czasie rzeczywistym na temat ponad 150 tys. pojazdów. Dzięki automatyzowanej analizie tych informacji stało się możliwe przewidywanie awaryjności ciężarówek. Innymi słowy, dany pojazd można skierować do serwisowania zanim ulegnie awarii na trasie. Oszczędności są znaczące – dotyczą nie tylko kosztów związanych z transportem ciężarówki z miejsca, w którym uległ on usterce do warsztatu naprawczego, ale także kar wynikających z opóźnień w realizacji kontraktu transportowego w odpowiednim czasie. Należy także wspomnieć o tym, iż firma ta zyskuje konkretną przewagę konkurencyjną – można na niej polegać w większym stopniu, ponieważ w trasę wysyłane są tylko te ciężarówki, które ją z pewnością pokonają. Zyskuje także środowisko, jako że oszczędzony zostaje tzw. carbon footprint związany z awarią na trasie.

Big picture

Korzyści jednostkowe z wykorzystania wielkich zbiorów danych i ich analizy są oczywiste a przykładów pojawia się coraz więcej. Jednak zautomatyzowana analityka danych składa również obietnicę bardziej dalekosiężną. Popularne stają się stwierdzenia, że dane to nowa ropa – zasadne staje się zatem pytanie, czy eksploracja i analityka danych zmieni nasze gospodarki równie radykalnie co silnik spalinowy, otwierając przy tym nowe możliwości rozwoju. Pytanie to jest szczególnie ważne dla gospodarek europejskich, które – wydaje się – przywykły do swojej stagnacji i do kilku dobrych lat nie mogą znaleźć nowych stabilnych ścieżek dalszego rozwoju.

Analitycy związani z Warszawskim Instytutem Studiów Ekonomicznych (WISE) stworzyli model, na podstawie którego wyliczyli, że wykorzystanie fenomenu Big Data przyniesie dodatkowe 1,9% PKB europejskiemu PKB już w roku 2020. Oznacza to, że odpowiednie algorytmy analityczne stosowane na poziomie mikro przyniosą ponad 200 mld Euro w skali makro. Dodatkowo, łącząc analizy WISE i firmy konsultingowej IDC można wyciągnąć wniosek, iż zautomatyzowana analityka ma potencjał konwersji jednego zainwestowanego w nią Euro, w 10 Euro korzyści makrogospodarczych. Ten potencjał wpływu na gospodarkę jest ponad dwukrotnie większy, niż w przypadku tradycyjnej – liniowej – analityki danych.

Rysunek 1. Analityka tradycyjna vs. analityka wielkich zbiorów

Jednak analizując dane z roku 2016 okazuje się, iż wartość całego rynku Big Data dla Europy wyniosła ok. 8,5 mld EUR, podczas gdy zyski makrogospodarcze zostały oszacowane na ok. 50 mld EUR. Oznacza to, że za poprzedni rok siła konwersji inwestycji w rozwiązania zautomatyzowanej analityki była na poziomie 1:6 – czyli ok. 20% jej całkowitego potencjału. Można identyfikować wiele przyczyn takiego stanu rzeczy. Regularne badania firmy Gartner identyfikują główne bariery dla wykorzystania potencjału Big Data przez firmy, z czego rosnącą luką wydają się umiejętności i kompetencje analityczne.

Wykres 2. Co stoi na przeszkodzie generowania wartości biznesowej z projektów typu Big Data? (Gartner 2016)

Jednak kluczowym wyzwaniem, które firmy odczuwają coraz bardziej, jest kultura organizacyjna dominująca w przedsiębiorstwach usiłujących skorzystać z technologii pozwalającej na zautomatyzowaną analitykę wielkich zbiorów danych. Jak wskazuje Forbes Insights „częścią problemu jest to, że modele biznesowe napędzane przez dane są tak odmienne od modeli biznesowych przeszłości, że ich wprowadzanie może spowodować prawdziwy wstrząs w organizacji. W zasadzie z dnia na dzień pracownicy muszą uczynić dane swoim priorytetem i muszą być gotowi dzielić się otwarcie informacjami z innymi departamentami, a także przyjąć wspólną odpowiedzialność za zbieranie danych, ich jakość i analizę. Taka reforma może spowodować, że pracownicy będą – delikatnie mówiąc – powściągliwi”.

Aż 43% firm przebadanych przez Forbesa wskazuje na znaczące trudności w rozwijaniu kultury, „która docenia użycie danych” lub „docenia kreatywność i eksperymenty związane z analizą danych”. Z kolei 41% liderów biznesowych twierdzi, iż napotyka trudności, kiedy próbują sprawić, aby ich pracownicy postrzegali dane „jako wartościowy zasób”.

Wykres 3. Bariery kulturowe dla pełnego wykorzystania potencjału zautomatyzowanej analityki danych (Forbes Insight 2016)

Wydaje się, zatem, iż doprowadzenie do sytuacji, w której firmy zaczną odczuwać realne korzyści z implementacji zautomatyzowanej analityki wymaga zmian niezwiązanych bezpośrednio z technologią, a raczej z postawami i umiejętnościami analitycznymi pracowników. Innymi słowy, wprowadzanie technologii musi iść w parze z implementowaniem programów rozwoju kompetencyjnego nie tylko dla wąskich kadr IT, ale we wszystkich kluczowych departamentach firmy. Tylko wówczas, zasób w postaci danych będzie mógł być zamieniany na aktywa biznesowe w sposób ciągły; co, z kolei zagwarantuje optymalizację zwrotów pozyskiwanych z inwestycji w projekty typu Big Data. Bez takich zmian – a są to zmiany głębokie – automatyka analityczna może się okazać nie tak przełomowa dla gospodarek, jak jest reklamowana.

Przygotowując ten wpis korzystałem z następujących publikacji:
  • Buchholtz, Sonia, Maciej Bukowski, Aleksander Śniegocki. 2014. Big and open data in Europe. A growth engine or a missed opportunity?, Warszawa: demosEUROPA, Warsaw Institute for Economic Studies.
  • Forbes Insights. 2015. Betting on Big Data. How the right culture, strategy and investments can help you leapfrog the competition. Washington.
  • Ransbotham, Sam, David Kiron, Pamela Kirk Prentice. 2015. The talent dividend. Analytics talent is driving competitive advantage at data-oriented companies. MIT Sloan Management Review.
  • Vesset, Dan et al. 2015. IDC FutureScape: Worldwide Big Data and Analytics 2016 Predictions, Framingham: IDC Analyze the Future.

Raport „Ekonomika eksploracji tekstu i danych – analiza aktualnych trendów i przyszłych zastosowań” powstał w ramach projektu FutureTDM, którego Centrum Cyfrowe jest partnerem.