5 głównych trendów w analityce Big Data
2017-01-04 10:10
Big Data © Jakub Jirsák - Fotolia.com
Analityka Big Data ma za sobą bardzo dobry rok. Według IDC odsetek danych realnie wykorzystywanych przez firmy sięgnął 30 proc. Wzrosty zanotował również globalny rynek danych i analityki biznesowej, który podskoczył o 18 mld dolarów, osiągając pułap 130 mld. Do 2020 roku wartość ta przekroczy najprawdopodobniej 203 mld. Bieżący rok także ma należeć do udanych. Upłynie on pod znakiem 5 dominujących trendów. Będzie to m.in. migracja w stronę chmury oraz rosnące znaczenie Internetu Rzeczy. Co jeszcze? O tym poniżej.
Przeczytaj także: Big Data i MŚP. Czy to ma sens?
Big Data w 2016 roku
Można śmiało założyć, że jeszcze nigdy Big Data i analiza nie zdobyły tak dużego rozgłosu medialnego jak w minionym roku. To jednak nie powinno być dużym zaskoczeniem - to właśnie na przestrzeni ostatnich 12 miesięcy liczba danych w sieci pierwszy raz w historii zdołała przekroczyć zawrotny pułap 10 Zettabajtów. Każdego roku w Internecie pojawia się około 40 proc. zupełnie świeżych danych. Firmy szukają dróg, aby je rozszyfrować, zrozumieć, a w końcu spieniężyć. Chodzi im już nie tylko o wykorzystanie własnych cyfrowych zasobów, ale również o znalezienie sposobu na monetyzację swoich danych. W ten właśnie sposób Big Data powoli staje się biznesową walutą, na którą firmy chcą wymieniać swój kapitał.
Badania IDG Enterprise 2016 Data & Analytics Research wskazują, że w ubiegłoroczne inwestycje w narzędzia do analityki danych miały przede wszystkim dwa cele biznesowe:
- poprawę jakości systemów CRM, a więc zasadniczo usprawnienie zarządzania relacjami z klientem (55 proc.) oraz
- zwiększenie koncentracji biznesu na danych i możliwościach ich wykorzystania w przedsiębiorstwie (tzw. data-driven business).
Co ciekawe: aż 78 proc. firm stwierdziło, że Big Data ma największy potencjał do przeobrażenia ich modelu biznesowego w ciągu najbliższego roku do 3 lat.
Jak z kolei wynika z badań przeprowadzonych przez Forrester, do końca 2016 roku firmy wykorzystujące analitykę danych w swoich procesach biznesowych zarobią dzięki temu ponad 400 mld dolarów. Do 2020 roku ich zysk sięgnie już ponad 1,2 bln dolarów. Ten globalny trend wpływa również na sytuację polskich firm. Papierkiem lakmusowym w tym obszarze jest choćby rozwój i kurs giełdowy warszawskiej spółki Cloud Technologies, która zaopatruje w dane firmy z branży marketingu internetowego jak również coraz więcej podmiotów z innych segmentów rynku. W 2016 roku warszawska spółka wyrosła na największą hurtownię danych w Europie. Przetwarza już blisko 4 mld profili internautów. Taki wolumen analizowanych informacji sytuuje ją również w gronie największych hurtowni Big Data na świecie. Warto odnotować, że to właśnie firma zajmująca się analityką danych kolejny rok z rzędu zaliczana jest do bluechipów giełdy NewConnect: w ciągu 3 kwartałów 2016 roku wypracowała 32,42 mln zł przychodów ze sprzedaży oraz 12,95 mln zł zysku netto. Oznacza to wzrost odpowiednio o 39,92% i 22,98% w ujęciu rocznym.
fot. Jakub Jirsák - Fotolia.com
Big Data
W 2016 roku wiele firm odkryło potencjał drzemiący w analityce Big Data i zaczęło postrzegać dane jako strategiczny zasób przedsiębiorstwa. Coraz większą uwagę biznes zaczął przywiązywać do monetyzacji danych, którą firma Deloitte określiła jako kluczowy trend w 2016 roku oraz w najbliższych latach. Monetyzacja nie należy jednak do łatwych procesów. Głównym problemem z nią związanym jest ocena przydatności i wiarygodności zasobów danych, także tych pochodzących ze źródeł zewnętrznych, których do tej pory przedsiębiorstwa w ogóle nie brały pod uwagę. Problemy z monetyzacją danych zgłaszało w 2016 roku aż 58 proc. przedsiębiorstw, przebadanych przez firmę doradczą KPMG. Jednocześnie blisko połowa respondentów zwracała uwagę na problemy z dostępnością odpowiednich danych. Innymi słowy: firmom coraz trudniej jest odnaleźć się w cyfrowym potopie danych. Tymczasem w kolejnych latach liczba danych będzie jeszcze narastać.
Trend 1: 2017 – rok w chmurze?
Produkcja danych w 2017 roku nie zwolni tempa. Firma analityczna Oracle szacuje, że wolumen Big Data wzrośnie w tym roku o kolejne 5 Zettabajtów danych, a liczba danych w Sieci osiągnie pułap 15 ZB. Tymczasem już teraz firmy mają trudności z samodzielnym zarządzaniem cyfrowymi strumieniami Big Data. Ich systemy BI, ERP czy CRM nie posiadają tak wielkiej mocy obliczeniowej, by móc samemu przeanalizować tak wielkie zbiory danych. Dlatego przedsiębiorstwa będą zmierzać w kierunku chmury. Jak twierdzi firma IDC w swoich prognozach zawartych w FutureScape, do 2020 roku wydatki firm na analitykę Big Data i technologie związane z analityką danych będą rosły w tempie 4,5-krotnie szybszym, niż na stacjonarne rozwiązania typu on-premise.
– Firmy będą analizować jeszcze więcej danych. I będą to robić jeszcze szybciej, niż miało to miejsce dotychczas. Coraz częściej przedsiębiorcy będą też sięgać po analitykę danych w formie usługi, czyli Big Data as-a-Service. IDC podaje, że aktualnie już około 70 proc. dużych firm korzysta z danych o użytkownikach gromadzonych i przetwarzanych w modelu cloud computing. To właśnie ten trend IDC wymieniało jako najważniejszy w mijającym roku. I podtrzymuje prognozę na kolejne lata twierdząc, że do końca 2019 roku już wszystkie duże organizacje będą korzystać z danych z zewnętrznych hurtowni Big Data – mówi Piotr Prajsnar, CEO Cloud Technologies.
Przetwarzanie i przechowywanie danych w chmurze, a nie serwerach firmowych, jest dla firmy bardziej opłacalne i bezpieczniejsze. Przedsiębiorstwa mają niekiedy poważne trudności z przeniesieniem swoich danych do zewnętrznych centrów. Są one związane z obawami natury prawnej (kwestie prywatności), ale też – czysto finansowej. Czasami wolumen zgromadzonych przez firmy danych jest też na tyle duży, że ich relokacja na zewnętrzne, nie-firmowe serwery, spowodowałaby dysproporcję pomiędzy kosztami takiego przesunięcia, a jego benefitami. W przypadku korzystania z danych w chmurze przedsiębiorcy takich trudności po prostu nie mają.
Firma analityczna Gartner określa tę przemianę modelu biznesowego z dotychczasowych rozwiązań stacjonarnych (on-premise) jako „cloud shift”, czyli zwrot przedsiębiorstw w kierunku chmury. Wedle Gartnera globalne wydatki przedsiębiorstw na cloud computing w 2016 roku sięgnęły 111 mld dolarów. W ciągu najbliższych 4 lat niemalże się podwoją, by w 2020 roku sięgnąć 216 mld dolarów.
Trend 2: Internet Rzeczy – Internet danych
W nadchodzących latach ważną rolę odegra Internet Rzeczy (IoT). Według szacunków IDC w 2016 roku na globalnym rynku było ponad 13 mld smart-przedmiotów, dysponujących autonomicznym dostępem do sieci, czyli posiadających własny adres IP. W 2020 roku takich urządzeń będzie już blisko 30 mld. To niemal cztery razy więcej, niż wyniesie populacja ówczesnego świata. Jednak nie tyle liczba samych urządzeń jest tu istotna, co wielkość generowanych przez nie danych.
– Istota Internet of Things, który już teraz opisuje się jako „internet przyszłości”, tkwi nie tyle w samych urządzeniach, ile w drzemiącym w nich potencjale, jakimi są gromadzone i wysyłane przez nie dane. Jeśli w najbliższych latach firmom uda się okiełznać wielkie zbiory danych generowane przez smart-urządzenia, to IoT stanie się jedną z głównych sił napędowych naszej cyfrowej epoki. O jak wielkich danych mówimy? Firma Cisco w raporcie Global Cloud Index Study twierdzi, że inteligentne przedmioty podpięte do Sieci w 2018 roku mają wytwarzać już ponad 400 Zettabajtów danych rocznie. Dlatego nie mam wątpliwości, że to właśnie Internet Rzeczy postawi ostateczną pieczątkę na „datyzacji” czy „cyfryzacji biznesu” – mówi Piotr Prajsnar, CEO Cloud Technologies.
Imponująco przedstawiają się również wzrosty IoT na w Polsce. W raporcie „Worldwide IoT Spending Guide by Vertical” czytamy, że wartość polskiego rynku IoT, która w 2015 roku wyniosła 1,5 mld USD, ale już w 2018 roku podwoi się, sięgając 3,1 mld USD.
Trend 3: dark data i orphaned data – dwa wyzwania na 2017 rok
W 2017 roku biznes będzie zmuszony stawić czoła danym, które do tej pory nie były wykorzystywane przez firmy albo ze względu na trudności z oszacowaniem ich potencjału (to tzw. dark data), albo były one tak pofragmentowane, że nie dawały pełnego obrazu sytuacji (to z kolei tzw. „orphaned data”, czyli „dane osierocone”). Ten przymus wynika z faktu przepełnienia firmowych serwerów danymi, których przedsiębiorstwo nie wykorzystuje, a za których utrzymanie płaci. Według Data Geonomics Index aż 41 proc. danych globalnych przedsiębiorstw nie było modyfikowanych od ostatnich trzech lat. Z kolei 12 proc. danych w ciągu siedmiu minionych lat nigdy nie zostało nawet otwartych. 33 proc. zbieranych przez firmy danych klasyfikuje się jako ROT, czyli Redundant, Obsolete or Trivial: zbędne, przestarzałe lub nieistotne.
– W efekcie wiele takich danych jest po prostu sztucznie utrzymywanych, zajmując tylko miejsce na firmowych serwerach. W nadchodzącym roku biznes będzie musiał się z nimi zmierzyć i będzie miał dwa wyjścia: albo wyrzuci je do kosza, albo sprawdzi ich realną wartość poprzez integrację z danymi z zewnętrznych platform DMP (Data Management Platforms). Tylko w ten sposób biznes będzie mógł stwierdzić: czy ma pod ręką dane wartościowe i użyteczne, czy też są to tylko cyfrowe przeżytki, których firma bez żalu może się pozbyć. Myślę, że 2017 rok pod tym względem przyniesie już konkretne rozstrzygnięcia i firmy podejmą trud zbadania zawartości i przydatności dark data oraz orphaned data – mówi Piotr Prajsnar, CEO Cloud Technologies.
Dark Data można określić trojako. Po pierwsze – są to dane, z których istnienia przedsiębiorstwo w ogóle nie zdaje sobie sprawy, więc ani ich nie gromadzi, ani nie przetwarza. Po drugie – mogą to być dane, o których przedsiębiorstwo wie i je gromadzi, lecz nie ma pojęcia, jak je przetworzyć. Po trzecie – to również dane, o których istnieniu przedsiębiorstwo wie i nawet dysponuje narzędziami do ich analizy, lecz jej nie podejmuje, ponieważ uznaje ją za zbyt kosztowną lub obawia się, że jej rezultaty będą niewspółmierne z nakładem pracy, jaki trzeba było w nią włożyć. Problem jest poważny, ponieważ według szacunków IDC około 80-90 proc. wszystkich danych w Internecie to obecnie dark data.
Orphaned data to z kolei pojedyncze, wyrwane z kontekstu informacje, które nie zostały umieszczone w szerszym ekosystemie cyfrowym, wskutek czego trudno jest ocenić ich biznesową przydatność. Takie dane zajmują miejsce na firmowych serwerach i są mniej cenne niż dane występujące w jakimś łańcuchu powiązań. Według Vanity Technologies „osierocone dane” zajmują na serwerach firmy o około 222 proc. więcej przestrzeni niż pozostałe dane. Managerowie IT zatrzymują takie dane na firmowych serwerach, wierząc, że im większą wagę ma taki plik, tym więcej kryje się za nim cennych informacji, która uda się kiedyś połączyć z innymi.
Trend 4: data enrichment
Kolejnym trendem AD 2017 ma być zasilanie systemów firmowych danymi zewnętrznymi typu third party. Takie działanie określa się jako „data enrichment”. Dzięki niemu firma zyskuje możliwość przetestowania skuteczności zebranych przez siebie informacji, które zostały uznane za tzw. „hot data”, czyli dane najważniejsze dla firmy, po które sięga ona z największą częstotliwością) oraz oceny ich przydatności w najbliższym czasie.
– Data enrichment to wzbogacanie zasobu danych zgromadzonych przez firmę, czyli tzw. 1st party data, danymi pochodzącymi z zewnętrznych źródeł, czyli danymi typu 3rd party, które przetwarzają zewnętrzne hurtownie Big Data. Dzięki nim firmy mogą zweryfikować aktualność i przydatność swoich informacji. Dane typu 3rd party dostarczają przedsiębiorstwom często unikalnych informacji biznesowych, pozwalających na rozbudowanie wiedzy o kliencie i jego zachowaniach, preferencjach i intencjach zakupowych, a także na uzyskanie wartościowych insightów. Umożliwiają także zdiagnozowanie bolączek w wewnętrznym rytmie pracy firmy, które dzięki temu można szybko naprawić. Integracja systemów CRM czy ERP firm z danymi z zewnętrznych źródeł umożliwia firmom nie tylko lepsze rozpoznanie profilu klienta i uzyskanie jego 360-stopniowej oceny. Daje również możliwość dotarcia do nowych klientów, zwłaszcza tych, którzy będą najbliżsi cyfrowemu portretowi najlepszego klienta przedsiębiorstwa – tłumaczy Piotr Prajsnar, CEO Cloud Technologies.
Wzbogacanie danymi wewnętrznych systemów BI w firmach wiąże się z jeszcze jedną kwestią, a mianowicie: jakością danych. W kolejnych latach biznes będzie przywiązywał do niej znacznie większą uwagę niż obecnie. Firmy stopniowo wyrastają już z przekonania, że liczy się tylko ilość zgromadzonych przez nie danych. Kluczowa staje się ich aktualność. Lepiej jest dysponować mniejszą ilością danych, ale za to mieć pewność, że są to dane najświeższe, odzwierciedlające aktualne potrzeby rynkowe. Dlatego też firmy, wzbogacając swoje systemy w dane typu 3rd party, będą pytać dostawców Big Data o wiek danych oraz ich jakość, czyli tzw. data quality. Dane muszą bowiem być regularnie odświeżane i aktualizowane, ponieważ obecne w nich parametry, jak np. „intencja zakupowej” użytkownika, często mają charakter tymczasowy, nie zaś trwały. W cenie będą zatem te dane, które hurtownie Big Data dostarczają w modelu real-time.
Trend 5: Analityka predyktywna i preskryptwna
Biznes musi dziś zrozumieć nie tylko to, „co się dzieje” oraz „jak się dzieje”, lecz również to, „co będzie się działo” w najbliższych miesiącach, a także „jak sprawić, by coś się wydarzyło”. W tym zaś pomocne okażą się odpowiednio: analityka predyktywna oraz analityka preskryptywna. Ta pierwsza służy przewidywaniu przyszłych scenariuszy rozwoju rynku i zachowań konsumentów oraz firm. Ta druga natomiast dostarcza wiedzy, jak te zachowania modelować oraz wpływać na kształtowanie pożądanych przez firmę postaw. Według badań firmy analitycznej Gartner zawartych w raporcie „100 Data and Analytics Predictions Through 2020”, aż 40 proc. firm zdecyduje się zainwestować w najbliższych latach w analitykę predyktywną i preskryptywną.
Big Data w 2017: ewolucja zamiast rewolucji
Rok 2017 w analityce Big Data nie przyniesie zatem ze sobą wielkiej rewolucji. Będziemy raczej obserwować ewolucję obecnych trendów technologicznych. Z jednej strony firmy będą musiały zmierzyć się z cyfrowymi problemami, w które część z nich popadła wskutek nieefektywnej polityki zarządzania danymi. Z drugiej strony – wzrośnie znaczenie danych typu 3rd party, gromadzonych i przetwarzanych przez wyspecjalizowane w tym firmy. Według badań Gartnera w 2017 roku około 30 proc. danych, jakimi będą dysponowały przedsiębiorstwa, będzie pochodziło z zewnętrznych hurtowni Big Data. Do głosu dojdą również technologie kognitywne, np. uczenie maszynowe, dzięki którym część procesów analitycznych, wykonywanych dotychczas odręcznie, zostanie zautomatyzowana dzięki zastosowaniu algorytmów. Zasadniczo jednak nie należy oczekiwać, że rynek analityki danych w 2017 roku przejdzie jakąś diametralną przemianę. Ta przemiana bowiem już się dokonała. Analityka Big Data przestała być dla firm technologiczną egzotyką i przejściową modą. Teraz przyszedł czas na to, by wycisnąć z niej wszystkie biznesowe soki i wprowadzić firmę na cyfrowe tory.
Przeczytaj także:
Big Data nad Wisłą, czyli dane zbierane nie wiadomo po co
oprac. : eGospodarka.pl
Przeczytaj także
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)