Rok 2025, podobnie jak dwa poprzednie, stał pod znakiem zafascynowania generatywną AI. Nastąpiła jednak zmiana – rośnie liczba sceptyków, niewierzących, że genAI zastąpi człowieka. Jak na każdą nową technologię przystało, na rynku hype najpierw rośnie, a potem spada.
Najciekawsze w tym kontekście są koncepcje, jakie rodzą się w firmach planujących budżety na rok 2026. W obszarze danych możemy zauważyć trzy trendy.
W kontekście samej genAI pojawiają się wreszcie pytania o konkretne zastosowania i płynące z nich ROI. To znaczy, że zauważyliśmy już, że udostępnienie wszystkim pracownikom „copilota” to nie adaptacja AI oraz że takie modele mają szansę osiągnąć zdolności operacyjne tylko we współpracy z człowiekiem. Pytanie nie brzmi już, jak możemy adaptować w organizacji modele genAI, ale jak możemy na nich zarobić.
Powyższa zmiana jest o tyle kluczowa, że z historii innych „modnych” w przeszłości technologii możemy wyczytać, że to najlepszy moment, by się takową zainteresować. Dotychczasowe doświadczenia rynkowe pozwalają już obedrzeć genAI z miliardowego marketingu i przyjrzeć się, gdzie realnie może mieć zastosowanie w procesach biznesowych.
Machine learning
Drugi trend, który obserwuję w rozmowach z klientami, to powszechny powrót do klasycznych modeli uczenia maszynowego. Tutaj sytuacja przez ostatnie lata była o tyle trudna, że firmy skuszone obietnicą łatwej „transformacji AI” przekierowały środki na modele generatywne, pomijając zupełnie predykcje, segmentację czy optymalizację. Mimo że z tych narzędzi pozytywne zwroty z inwestycji są łatwiejsze do oszacowania i późniejszego uzyskania.
W konsekwencji rozczarowania genAI wiele firm planuje w 2026 projekty związane z bardziej dojrzałymi obszarami machine learning, jak choćby przewidywanie churnów, predykcja i optymalizacja popytu czy finansów firmy.
Zarządzanie danymi
Trzeci i najbardziej cieszący mnie trend w kontekście wdrażania AI w firmach to pojawiające się na każdym obecnie spotkaniu pytanie: „Jak możemy zrobić wstępną analizę danych, zanim wejdziemy w projekt AI?”. I to jest niesamowicie ważne w dwóch aspektach. Pierwszy bardziej oczywisty to ocena jakości danych, czyli czy dane, które posiadamy, są na tyle poprawne, że modele machine learning mogą uzyskać akceptowalną biznesowo precyzję.
Drugie, wielokrotnie pomijane pytanie to kwestia, czy mamy dostatecznie dużo różnych danych, żeby algorytm mógł nauczyć się udzielania poprawnych odpowiedzi. I nie chodzi tu najczęściej o liczbę rekordów, ale o liczbę atrybutów. Jeśli chcemy oceniać ryzyko odejścia klienta, to fakt, że mamy z nim jedną interakcję w roku (gdy odnawia polisę), prawdopodobnie uniemożliwi zbudowanie takiego modelu. Pytanie, jakie inne dane możemy zbierać, żeby taki model mógł powstać. Co więcej, jak długo musielibyśmy je zbierać, żeby zaczęły dla modelu mieć znaczenie.
W mojej ocenie rok 2026 będzie rokiem powrotu do korzeni. Wiele organizacji na nowo odkrywa potencjał ukryty w klasycznych modelach machine learning oraz zaczyna rozumieć, że bez odpowiedniego zarządzania jakością i zakresem zbieranych danych nie będzie z AI żadnego pożytku. Jeśli chodzi o genAI, to wchodzimy w fazę przemyślanych i zaplanowanych wdrożeń, czyli coś, na co wielu z nas tak długo czekało.
Łukasz Nienartowicz
Data by Example







