Powrót do wykonywania oględzin jako konsekwencja pojawienia się AI

0
947

Sztuczna inteligencja stała się w ostatnich miesiącach jednym z najważniejszych tematów w sektorze ubezpieczeniowym. Większość dyskusji koncentruje się na tym, jak automatyzacja przyspiesza procesy, obniża koszty i zwiększa efektywność. Sprzedawana jest jako „eliksir szybkości” dla procesów likwidacji.

Jest również druga strona medalu, którą musimy nazwać po imieniu: AI nie tylko automatyzuje procesy. Automatyzuje również kreatywność i skalę operacji po stronie tych, którzy chcą system oszukać.

To cyfrowe tsunami, które radykalnie zmienia geografię ryzyka. I to właśnie ta niekontrolowana skalowalność oszustwa może doprowadzić do zjawiska, które jest logiczną konsekwencją cyfrowej rewolucji: do ponownego wzrostu liczby oględzin na miejscu szkody.

Automatyzacja tworzy nowe ryzyka: Od złotego strzału do przemysłowej skali oszustwa

W historii technologii zawsze działał ten sam mechanizm niczym nieubłagane prawo akcji i reakcji:

  1. Pojawia się nowe, potężne narzędzie (np. internet, kryptowaluty, AI).
  2. Ludzie uczą się wykorzystywać je do swoich celów – również nieuczciwych. Przestępcy widzą w nim „anioła stróża” dla swoich schematów.
  3. Biznes i państwo reagują, tworząc zabezpieczenia i regulacje.

Ale reakcja ZAWSZE przychodzi z opóźnieniem. Sztuczna inteligencja przyspiesza ten cykl do granic możliwości, zamykając go w tygodniach, a nie w latach.

Fabryka Fraudu: Automatyzacja procesu wyłudzeń

Przestępca nie jest już osamotnionym, drobnym rzemieślnikiem, który mozolnie fabrykuje jedną szkodę. Dziś stoi na czele cyfrowego syndykatu, którego siłą jest skalowalność i eliminacja błędu ludzkiego.

  1. Prefabrykowanie roszczeń i cyfrowe skrypty: Modele językowe (LLMs) to mistrzowie narracji. Przestępcy wykorzystują je do generowania tysięcy roszczeń o wysokiej spójności, logice i, co najważniejsze, wiarygodności emocjonalnej.
  2. Generowanie fotorealistycznych dowodów (Deepfake Claims): Narzędzia Generative AI (np. na wzór Midjourney czy DALL-E) są używane do tworzenia zdjęć szkód, które przechodzą test ludzkiego oka i wczesnych algorytmów.
  3. Syntetyczne tożsamości i ghost profiles: AI potrafi wygenerować całe cyfrowe ghost profiles – zestaw danych osobowych, teleadresowych, a nawet wygenerowanych profili społecznościowych, które tworzą weryfikowalną tożsamość, przechodzącą podstawowe procedury KYC (Know Your Customer).
  4. Omijanie metadanych i geolokalizacji: Oprogramowanie automatycznie modyfikuje metadane (EXIF) zdjęć, wstrzykując fałszywe, lecz spójne dane geolokalizacyjne i czasowe, uniemożliwiając podstawową weryfikację.
  5. Przemysłowa skala roszczeń: W rezultacie koszt wygenerowania jednej fałszywej szkody spadł do kilku minut pracy i centów kosztów. Można to robić masowo, na zasadzie „przemysłowej linii produkcyjnej fałszu”.

TU stoi przed wyborem strategicznym: Oględziny jako kotwica rzeczywistości

W obliczu tej lawiny cyfrowych oszustw ubezpieczyciel stoi dziś przed strategicznym dylematem, który jest de facto punktem przełomu:

  1. Przyjmować podwyższone ryzyko fraudu. Zakładając naiwnie, że „system to wyłapie”. Problem w tym, że jeśli tempo wzrostu fraudu jest wykładnicze, to straty mogą rosnąć w tempie niekontrolowanej kaskady.
  2. Wrócić do oględzin jako narzędzia weryfikacji wysokiego ryzyka.

I wbrew pozorom ten drugi wybór nie jest cofnięciem się w rozwoju. To jest korekta modelu operacyjnego pod wpływem technologii, która zmieniła zasady gry.

Oględziny – punktowe, celowane, wspierane precyzyjną analizą ryzyka dostarczaną przez AI i dane (a nie wykonywane masowo, jak dziesięć lat temu) – stają się dziś:

  • Kotwicą rzeczywistości: Najpewniejszym sposobem weryfikacji fizycznego istnienia szkody w świecie materialnym.
  • Elementem kontroli jakości deklaracji: Weryfikacją spójności wirtualnej narracji (wygenerowanej przez AI) z rzeczywistym stanem rzeczy.
  • Barierą psychologiczną: Samo ryzyko spotkania z człowiekiem – uprawnionym i przeszkolonym do wykrywania niespójności – jest potężnym zimnym prysznicem dla oszusta.

AI paradoksalnie zwiększa wartość pracy w terenie

Automatyzacja sprawnie obsługuje „masówkę” – setki prostych, nieskomplikowanych szkód, które stanowią szum informacyjny w systemie. To uwalnia zasoby ludzkie, ale wcale ich nie unieważnia. Przeciwnie –podnosi ich wartość rynkową.

W procesach likwidacji pozostają:

  • przypadki nietypowe, które nie mieszczą się w algorytmicznych ramach,
  • nieliniowe, trudne dowodowo,
  • podatne na nadużycia, te, które zostały oznaczone przez AI jako wysokie ryzyko fraudowe,
  • wymagające kontaktu z rzeczywistością.

Sztuczna inteligencja robi masówkę. Człowiek weryfikuje to, co ryzykowne. Staje się Sherlockiem Holmesem cyfrowej ery – jej celem jest nie likwidować szkodę, lecz wskazywać śledczemu, gdzie dokładnie szukać. Oględziny mogą być rzadsze, ale będą bardziej precyzyjne i lepiej uzasadnionew procesie decyzyjnym TU.

Międzynarodowy ląd i tektoniczne przesunięcie

Od lat widać ten sam schemat, zarówno na rynkach zachodnich, jak i w Polsce:

  • automatyzacja wypłat = automatyzacja fraudu,
  • automatyzacja obsługi = automatyzacja obejścia obsługi,
  • automatyzacja weryfikacji = automatyzacja omijania weryfikacji.

AI nie zmienia tego mechanizmu. Potęguje go, nadając mu prędkość światła. Nie jest zagrożeniem. Zagrożeniem jest myślenie, że AI jest „lekarstwem na wszystko” i coś za nas załatwi. Może tylko szybciej wskazywać nieprawidłowości, wspierać w analizie danych i automatyzować procesy masowe.

Adaptacja, a nie cofnięcie

AI zmienia sposób działania wszystkich uczestników procesu likwidacji. Jednocześnie podnosi poprzeczkę dla całego rynku, bo daje narzędzia zarówno uczciwym, jak i nieuczciwym klientom (lub „digitalnym syndykatom”).

To nie jest krok w tył. To jest strategiczny manewr flankujący, mający na celu zabezpieczenie fundamentu działalności ubezpieczeniowej. To sposób, by nadążyć za światem, który przyspieszył bardziej, niż ktokolwiek z nas mógł przewidzieć.

Radosław Bartosik
członek zarządu ds. rozwoju
Mentax SA