Podsumowujemy największe zmiany, wyzwania i trendy, które zdefiniowały analitykę w 2024 r. Przyglądamy się także temu, co nas czeka w 2025 w tym obszarze.
Analitykę podsumowują i prognozują: Kazik Surała z Insightland, Julia Moszka z GoldenSubmarine, Weronika Simane z Harbingers, Krzysztof Radzikowski z SeoFly, Daniil Khaustov z ONE House.
Tu przeczytasz pozostałe części podsumowania roku 2024.
Kazik Surała
head of data & analytics w Insightland
Największe zmiany, wyzwania i trendy w 2024 r.
Od końca 2023 roku nastąpił znaczący wzrost zastosowań generatywnej AI, napędzany przez modele językowe takie jak ChatGPT i ciągle powstające alternatywy. Główne firmy technologiczne, w tym Microsoft, Google i Meta, zintegrowały możliwości generatywnej AI ze swoimi produktami, co wskazuje, że nie jest to przemijający trend. W rezultacie przedsiębiorstwa bardzo szybko zaczęły opracowywać strategie dotyczące wykorzystania generatywnej AI, aby nie pozostać w tyle za konkurencją. W obecnym momencie średnio dwa razy w tygodniu pojawia się na rynku nowe rozwiązanie z klasy Gen AI. Słabo lub w ogóle niekontrolowany rynek tych rozwiązań sprawia, że wdrażanie tej technologii wymaga przemyślenia sposobów wykorzystania danych, polityk etycznych oraz szkolenia pracowników w zakresie odpowiedzialnego korzystania z AI.
Data Mesh staje się kluczowym z trendów w zarządzaniu danymi. W 2024 roku znacząca ilość dużych organizacji zaczęła lub zdążyła skończyć proces jego adaptacji, rewolucjonizując podejście organizacji do struktury danych. W tej zdecentralizowanej architekturze zespoły biznesowe przejmują odpowiedzialność za swoje „domeny danych”, traktując je jako niezależne produkty. Przykładowo, w handlu detalicznym dane o zapasach są organizowane na poziomie magazynów i udostępniane zespołom logistycznym, podczas gdy w sektorze finansowym różne jednostki biznesowe, takie jak kredyty czy konta oszczędnościowe, zarządzają swoimi danymi zgodnie z określonymi standardami.
Z kolei wdrożenia Data Mesh w firmach produkcyjnych wreszcie pozwalają zmonetyzować dane z czujników IoT i dają nowe możliwości na lokalne monitorowanie wydajności maszynów. Dzięki Data Mesh firmy eliminują silosy danych, co umożliwia szybszy dostęp do informacji, poprawę ich jakości, zwiększenie autonomii zespołów, a także obniżenie kosztów operacyjnych. Jak okazują doświadczenia mijającego roku, wdrożenie Data Mesh staje się kluczowym krokiem dla organizacji pragnących skalować swoje działania i szybko reagować na zmieniające się potrzeby rynku.
Czego możemy się spodziewać w 2025 r.
Dynamiczny rozwój sztucznej inteligencji, w szczególności modeli językowych wielkiej skali (LLM), niesie za sobą szereg wyzwań, które organizacje muszą brać pod uwagę. W obszarze etyki kluczowym problemem jest zapewnienie przejrzystości działania modeli oraz zapobieganie ich potencjalnemu wykorzystaniu do celów dezinformacji, dyskryminacji czy naruszania prywatności. Jednocześnie, rozwój takich modeli wymaga ogromnych zasobów obliczeniowych, co przekłada się na znaczne zużycie energii, przyczyniając się do wzrostu emisji dwutlenku węgla i wywierając presję na środowisko naturalne.
Ponadto, koszty trenowania i utrzymywania zaawansowanych modeli AI są bardzo wysokie, co ogranicza ich dostępność dla mniejszych firm i organizacji, tworząc barierę wejścia i potencjalnie zwiększając nierówności w dostępie do nowoczesnych technologii. Te wyzwania wymagają globalnej współpracy na rzecz bardziej zrównoważonego i etycznego wykorzystania AI oraz opracowania rozwiązań, które zmniejszą negatywny wpływ na środowisko i zapewnią szerszy dostęp do technologii.
Aby sprostać wyzwaniom związanym z wysokimi kosztami modeli LLM, organizacje będą podejmować różnorodne działania, które pozwolą na efektywne wykorzystanie tych technologii przy jednoczesnym ograniczeniu wydatków. Jednym z głównych kierunków będzie optymalizacja infrastruktury, na przykład poprzez migrację do chmurowych rozwiązań obliczeniowych, które oferują skalowalność i elastyczność kosztową. Firmy mogą także korzystać z przetrenowanych modeli dostarczanych przez liderów branży, takich jak OpenAI czy Google, zamiast inwestować w budowę własnych systemów od podstaw.
W kontekście redukcji kosztów energii i sprzętu kluczowe będzie wdrażanie technologii bardziej energooszczędnych, takich jak dedykowane procesory do AI oraz rozwój algorytmów wymagających mniejszej mocy obliczeniowej. Ponadto organizacje mogą współpracować w ramach konsorcjów branżowych, dzieląc się wynikami badań i zasobami w celu zmniejszenia kosztów. Wreszcie, adaptacja hybrydowych modeli operacyjnych, łączących lokalne obliczenia z usługami chmurowymi, pozwoli firmom na lepsze zarządzanie wydatkami i zwiększy dostępność AI także dla mniejszych graczy na rynku.
Julia Moszka
digital analyst w GoldenSubmarine
Największe zmiany, wyzwania i trendy w 2024 r.
Sektor analityki danych przeżywa coraz większy rozkwit. Trendy w zakresie analityki szybko ewoluują, oferując nowe możliwości, aby usprawnić podejmowanie decyzji. Analiza McKinsey Global Institute sugeruje, że do 2026 roku może nastąpić zaskakujący 200% wzrost zapotrzebowania na analityków danych. Wzrost ten jest napędzany przez wykładniczy wzrost ilości danych w połączeniu z postępem technologicznym.
W 2024 roku w analityce danych sporo się zmieniło, zwłaszcza od strony technologicznej. Jedną z większych nowości było wprowadzenie Consent Mode v2. To rozwiązanie pozwala firmom lepiej zarządzać danymi użytkowników, zwłaszcza w kontekście zgód na ich przetwarzanie. Dzięki tej aktualizacji narzędzia, takie jak Google Analytics, mogą wypełniać luki w danych, gdy użytkownicy nie wyrażają zgody na pełne śledzenie. To duży krok naprzód, bo pozwala firmom działać zgodnie z przepisami takimi jak RODO, a jednocześnie mieć dostęp do bardziej precyzyjnych analiz.
A skoro mowa o Google Analytics – GA4 stało się w tym roku obowiązkowe. To było spore wyzwanie dla wielu firm, bo migracja z Universal Analytics wymagała dostosowania procesów i danych. Nowa wersja opiera się na zdarzeniach, a nie sesjach, co zmienia sposób mierzenia aktywności użytkowników. Jest to jednak bardziej zaawansowane i dostosowane do dzisiejszego świata, gdzie użytkownicy korzystają z wielu urządzeń i platform jednocześnie. Dodatkowo GA4 lepiej integruje się z narzędziami chmurowymi, jak BigQuery, co pozwala na naprawdę zaawansowane analizy.
Kolejną dużą zmianą jest rozwój śledzenia po stronie serwera, tzw. server-side tracking. To odpowiedź na zmiany w przeglądarkach, które coraz bardziej blokują ciasteczka. Dzięki temu firmy mogą dokładniej zbierać dane, mając nad nimi większą kontrolę i zapewniając lepsze bezpieczeństwo. Jednocześnie obserwujemy odejście od cookies stron trzecich – pojawiają się nowe rozwiązania, takie jak Privacy Sandbox od Google czy technologie oparte na identyfikatorach użytkowników, np. Unified ID 2.0. To oznacza, że firmy muszą przystosować swoje narzędzia analityczne do tych nowych realiów.
Nie można też zapomnieć o analityce w e-commerce. Narzędzia, takie jak GA4, wprowadziły bardziej szczegółowe śledzenie zachowań zakupowych, co pozwala lepiej rozumieć, jak użytkownicy przeglądają produkty czy rezygnują z zakupów. Wszystko to idzie w parze z rozwijającą się analityką omnikanałową – czyli możliwością łączenia danych z online i offline, co jest kluczowe dla sklepów, które działają na obu polach.
Ostatecznie technologia poszła w stronę większej integracji – na przykład Customer Data Platforms stały się narzędziem, które firmy chętnie wdrażają, by zbierać dane klientów z różnych źródeł w jednym miejscu. Wszystkie te zmiany pokazują, że analityka staje się coraz bardziej złożona, ale jednocześnie bardziej precyzyjna. Wyzwaniem pozostaje jednak nadążanie za tym wszystkim – zarówno od strony technicznej, jak i organizacyjnej.
Czego możemy się spodziewać w 2025 r.
Rok 2025 w analityce danych zapowiada się jako kolejny okres dynamicznych zmian i nowych wyzwań, zwłaszcza że wiele trendów, które zaczęły się rozwijać w 2024 roku, nabierze jeszcze większego znaczenia. Przede wszystkim będziemy świadkami rosnącej roli sztucznej inteligencji w codziennej pracy analityków. AI nie tylko pomoże w przewidywaniu trendów czy analizie danych, ale stanie się bardziej intuicyjna i łatwiejsza w obsłudze. Coraz więcej narzędzi analitycznych zacznie wykorzystywać AI w taki sposób, by wystarczyło zapytać w prosty sposób o dane, a system wygeneruje raport czy podpowie konkretne rozwiązania.
Technologia wciąż będzie się rozwijać w kierunku świata „bez ciasteczek”. Nowe rozwiązania, takie jak Google Topics czy inne technologie skupione na ochronie prywatności, będą się upowszechniać. Jednocześnie firmy zaczną wykorzystywać więcej danych własnych (first-party data), bo to one stają się najcenniejsze w erze ograniczonego śledzenia. Kluczowym trendem będzie więc rozwój platform CDP, które pomogą integrować dane klientów z różnych źródeł, jednocześnie zapewniając zgodność z przepisami.
Nastąpi jeszcze większy nacisk na personalizację. Dane klientów będą wykorzystywane do budowania bardziej spersonalizowanych doświadczeń w czasie rzeczywistym. Narzędzia analityczne będą łączyć informacje z różnych źródeł, takich jak media społecznościowe, dane transakcyjne i historia zakupów, by lepiej dopasować oferty do odbiorców. Wzrost znaczenia machine learningu w personalizacji pozwoli firmom reagować błyskawicznie na zmieniające się potrzeby użytkowników.
Wreszcie, największym wyzwaniem będzie brak odpowiednich osób na stanowiskach analitycznych. Analityka staje się coraz bardziej skomplikowana i zaawansowana, co oznacza, że organizacje będą potrzebowały specjalistów z umiejętnościami w obszarze AI, uczenia maszynowego czy zaawansowanej analizy danych. Inwestycje w szkolenia i rozwój pracowników będą koniecznością, jeśli firmy chcą nadążyć za zmianami.
Weronika Simane
digital analyst specialist w Harbingers
Największe zmiany, wyzwania i trendy w 2024 r.
Nie będzie niczym zadziwiającym, jeśli powiemy, że 2024 rok zdominowały zmiany dotyczące polityki prywatności i dostosowanie do nich działania wszelkich usług dotyczących analityki i marketingu. W marcu 2024 roku weszły w życie nowe przepisy Digital Markets Act, w związku z którymi Google wprowadził obowiązkowy Consent Mode w rozszerzonej wersji 2 (Tryb uzyskiwania zgody) dla wszystkich użytkowników Google Marketing Platform.
Wdrożenie CMv2 spowodowało niemałe zamieszanie w dotychczasowo skonfigurowanej i prawidłowo działającej analityce. Powstało bowiem wyzwanie, by mimo odrzucanych przez użytkownika zgód na zbieranie danych, zminimalizować ryzyko utraty danych np. w GA4. W związku z tym coraz większą popularność zaczęło zyskiwać BigQuery i eksport danych z GA4. Dzięki temu rozwiązaniu dane z GA4 nie są podatne na wszelkie awarie oraz, co najważniejsze, w BQ nie obowiązuje żaden zakres przechowywania danych, co oznacza, że można dowolnie weryfikować ogromną ilość danych z wielu źródeł i z dużego przedziału czasowego. Będzie to również odpowiedź na piętrzące się sytuacje z rozbieżnością danych między poszczególnymi systemami — dzięki jednemu, kompleksowemu systemowi analitycznemu, wszystkie kluczowe dane znajdą się w jednym miejscu.
Czego możemy się spodziewać w 2025 r.
Głównym wyzwaniem w 2025 roku będzie tak naprawdę szukanie rozwiązań dla następstw po wdrożeniach z roku 2024, by m.in. za pomocą Big Query czy Looker studio móc dalej zbierać i jak najdłużej przechowywać możliwie jak najpełniejszą i najrzetelniejszą liczbę danych.
Dodatkowo wyzwania analityczne będą dotyczyły opracowania jednego i pełnego źródła danych. Posłuży ono do oceny biznesowej prowadzonych działań marketingowych, także efektywności kanałów i działań podejmowanych do skalowania widoczności i przychodów w sieci.
To samo źródło danych np. w BigQuery posłuży do stosowania zaawansowanych algorytmów oceny lub przetwarzania danych, chociażby takie technologie jak Vertex AI umożliwią predykcję w oparciu o zbierane dane — to może być prawdziwy #gamechanger działań w marketingu.
Krzysztof Radzikowski
specjalista R&D SEM (SEO/PPC) w agencji SeoFly
Największe zmiany, wyzwania i trendy w 2024 r.
Sztuczna inteligencja i automatyzacja
Integracja sztucznej inteligencji (AI) i uczenia maszynowego staje się standardem w analizie danych. Firmy coraz częściej wykorzystują algorytmy AI do:
- automatyzacji procesów analitycznych,
- prognozowania trendów,
- personalizacji ofert dla klientów,
- analizy danych w czasie rzeczywistym.
AI umożliwia również tworzenie bardziej zaawansowanych modeli predykcyjnych, co pozwala firmom lepiej przewidywać przyszłe wydarzenia i przygotowywać się na różne scenariusze.
Prywatność danych i etyka AI
Wzrasta nacisk na ochronę prywatności danych użytkowników. Firmy muszą dostosować swoje strategie analityczne do nowych regulacji, takich jak RODO. Jednocześnie rozwija się trend „marketingu etycznego”, opartego na transparentności i pozytywnych wartościach.
W odpowiedzi na te wyzwania firmy będą musiały:
- wdrażać zaawansowane techniki modelowania danych (np. consent mode),
- rozwijać bardziej sformalizowane zasady etyki AI,
- skupiać się na zdobywaniu danych poprzez kampanie leadowe i śledzenie zakupów w e-commerce.
Analityka predykcyjna
Narzędzia do analizy predykcyjnej zyskują na popularności. Umożliwiają one:
- przewidywanie zachowań klientów,
- prognozowanie zmian rynkowych,
- symulowanie różnych scenariuszy biznesowych.
Firmy będą inwestować w rozwój własnych kompetencji w zakresie analityki predykcyjnej oraz poszukiwać współpracy z zewnętrznymi ekspertami.
Demokratyzacja analizy danych
Coraz więcej pracowników, niezwiązanych bezpośrednio z działem IT, zyskuje dostęp do narzędzi analitycznych. Trend ten zwiększa zaangażowanie pracowników w podejmowanie decyzji opartych na danych.
Wizualizacja danych
Rośnie znaczenie efektywnej wizualizacji danych. Interaktywne dashboardy i raporty wizualne stają się standardem, ułatwiając interpretację skomplikowanych zestawień analitycznych.
Czego możemy się spodziewać w 2025 r.
Główne wyzwania dla analityków w 2025 roku to:
- dostosowanie się do dynamicznie zmieniających się technologii i narzędzi,
- balansowanie między potrzebą analizy danych a ochroną prywatności użytkowników,
- rozwój umiejętności w zakresie AI i uczenia maszynowego,
- efektywne wykorzystanie coraz większych ilości danych przy jednoczesnym ograniczeniu dostępu do niektórych źródeł informacji,
- w 2024 roku każdy z nas produkował około 4 GB danych dziennie – większość z nich to dane zbierane przez serwisy, które odwiedzamy. Szacunkowo ta ilość podwaja się rok do roku.
Daniil Khaustov
SEM & paid social manager w ONE House
Największe zmiany, wyzwania i trendy w 2024 r.
Google Analytics 4 jako nowy standard
Wprowadzenie Google Analytics 4 w miejsce Universal Analytics kilka lat temu było punktem zwrotnym w analityce internetowej. W 2024 roku możemy już ostatecznie stwierdzić, że Universal Analytics to przeszłość, bo od 1 lipca 2024 roku przestał przechowywać dane archiwalne. Osoby odpowiedzialne za wdrażanie i opracowywanie danych w swoich firmach miały wystarczająco dużo czasu na przeniesienie danych chociażby do Excela, a od połowy roku stare rozwiązanie od Google przestaje być jakkolwiek aktualne.
Analizując GA4, nie możemy nie zauważyć ciągłego rozwoju tego rozwiązania w ubiegłym roku. Między innymi dostępne są nowe raporty (np. analiza porównawcza), a te stare zostały wzbogacone o nowe funkcjonalności (wizualizacja poszczególnych wierszy raportu). Oprócz tego Google widocznie zwiększa presję na wdrażanie rozwiązań chmurowych, takich jak BigQuery, rozszerzając możliwości eksportu danych z GA4 o dodatkowe pola dotyczące źródeł wizyt na poziomie sesji, a także dodając sortowanie danych i kolejne tagi UTM.
Tak, znów o AI
W takim podsumowaniu nie możemy nie powiedzieć o rozwiązaniach AI i ML. Temat wydaje się bardzo głośny, i trudno w takim przypadku nie zabrzmieć banalnie, więc zaznaczę tylko, że sztuczna inteligencja staje się coraz bardziej inteligentną, choć w niektórych obszarach wciąż widoczne są spore luki. Mimo wszystko firmy coraz częściej sięgają po automatyzację czyszczenia i porządkowania danych za pomocą różnych modeli AI, co powoduje niższy próg wejścia w deep-diving analitykę dla mniejszych firm lub początkujących specjalistów. Niemniej jednak, wśród różnorodnych obszarów stosowania modeli AI warto wyróżnić jeden, moim zdaniem najważniejszy. Jest to predykcja danych, która od lat budzi umysły wielu marketingowców, pracowników logistyki i dyrektorów sprzedaży. Nowe modele ML (np. Arima+ od Google) pozwalają na łatwe stosowanie modeli regresyjnych i predykcję danych z dokładnością do 20-30%. Czy taka wielkość błędu jest duża czy mała – każdy biznes zadecyduje sam, natomiast możliwość stosowania podobnych rozwiązań teraz jest łatwiejsza niż kiedykolwiek.
First-party jako kluczowy zasób
Trzecim bardzo ważnym tematem pozostaje polityka prywatności, nad którą firmy technologiczne pracują od kilku lat. Google zdecydował o utrzymaniu dotychczasowych warunków korzystania z plików cookies, ale obiecuje dalej pracować nad zwiększeniem bezpieczeństwa danych personalnych. Na tle niepewności stosowania third-party cookies firmy zaczęły więcej inwestować w dane first-party, czyli dane zebrane bezpośrednio od klientów. W 2024 roku mogliśmy obserwować szybkie poszerzenie ofert programów lojalnościowych, interaktywnych formularzy i różnorodnych quizów, angażujących użytkowników oraz dostarczających wartościowe dane „z pierwszej ręki”. Logiczną kontynuacją tego wątku jest też stosowanie server-side rozwiązań, szersze integracje źródeł danych między sobą i tworzenie podstawowych magazynów danych na dalsze potrzeby analityczne lub marketingowe.
Czego możemy się spodziewać w 2025 r.
W dynamicznie rozwijającym się środowisku technologicznym robienie prognoz na kolejny rok staje się niemal wróżeniem z fusów, ale są tematy, których możemy być pewni. Dotyczy to ogólnie rozwoju już obecnych narzędzi i technologii, ale nie obejdzie się też bez nowinek. W 2025 możemy oczekiwać:
Rozwoju narzędzi AI
To najprostsza prognoza, szczególnie pod kątem zapowiedzi gigantów technologicznych. Nowe modele AI będą lepiej pracować z liczbami, co otworzy kolejne możliwości w analizowaniu danych. Niemniej jednak – takie modele wymagają dużego wolumenu danych i czasu na naukę, więc sprawdzonych rozwiązań możemy oczekiwać dopiero pod koniec 2025 roku.
Rozwoju wizualizacji danych
To trend, który tak naprawdę powinien się pojawić już w 2024 roku. I tu mam na myśli nie tyle drobne poprawki w wizualizacji danych Google Analytics 4, co pełnowymiarowe rozwiązania od dostawców technologicznych. Niestety, Looker Studio pozostawia wiele do życzenia, Power BI i Tableau wciąż mają stosunkowo wysoki próg wejścia, a innych narzędzi po prostu nie ma lub nie są one z różnych powodów popularne. Tu dużym potencjałem może wykazywać się Meta, która jeszcze nie przedstawiła własnych rozwiązań, a też inni niezależni wydawcy. Kto wie, być może Open AI też ma plany na rewolucyjne narzędzie?
Szerszej i łatwiejszej integracji źródeł danych
To kontynuacja trendu z 2024 oku. Obecnie tworzenie magazynu danych nie jest tak dużym wyzwaniem jak 5 lat temu, a rozwój rozwiązań chmurowych powinien pomóc firmom w szybszym podjęciu decyzji. Niemniej jednak na rynku wciąż brakuje specjalistów do takiej integracji i ich rozwój można by było wyróżnić jako kolejny trend nadchodzącego roku.
Większe zastosowanie holistycznego podejścia do analityki i marketingu
Omnichannel analytics to temat rozwijany od niemal 10 lat, ale dopiero teraz stał się kluczowy. Rozwój aplikacji mobilnych, coraz bardziej skomplikowana ścieżka zakupowa użytkowników, zmiany w polityce prywatności – to wszystko komplikuje proces analizowania danych, a dodatkowe inwestycje w narzędzia umożliwiające analizę danych z różnych punktów kontaktu to raczej niezbędność.