Agent ubezpieczeniowy w erze AI – gdy algorytm spotyka artykuł 14

0
515

Branża ubezpieczeniowa, przez wieki kojarzona z konserwatywną stabilnością, przeżywa dziś rewolucję technologiczną o skali porównywalnej z wynalezieniem komputera.

Sztuczna inteligencja wkracza do biur agentów ubezpieczeniowych nie jak dyskretny asystent, lecz jak cyfrowa nawałnica, obiecując jednocześnie zwiększenie efektywności i niosąc ryzyko utraty kontroli nad procesem decyzyjnym.

W tym kontekście artykuł 14 Aktu w sprawie sztucznej inteligencji zyskuje znaczenie fundamentalne dla przyszłości zawodu agenta ubezpieczeniowego. Przepis obowiązujący od sierpnia 2024 r. wprowadza jasny wymóg: systemy AI muszą być zaprojektowane w sposób umożliwiający skuteczny nadzór ze strony człowieka podczas ich użytkowania. To nie jest jedynie prawnicza formuła – to mapa drogowa dla agentów, którzy muszą nauczyć się być dyrygentami cyfrowej orkiestry, nie zaś jej biernymi słuchaczami.

Możliwości i pułapka

Współczesny agent ubezpieczeniowy może posiłkować się arsenałem narzędzi AI, które jeszcze dekadę temu brzmiałyby jak science fiction. Algorytmy uczenia maszynowego analizują ogromne zbiory danych historycznych, identyfikują wzorce i przewidują prawdopodobieństwo przyszłych zdarzeń, umożliwiając precyzyjne określanie ryzyka i dostosowywanie składek.

Chatboty prowadzą pierwsze rozmowy z klientami, systemy OCR digitalizują dokumenty w błyskawicznym tempie, a algorytmy predykcyjne personalizują oferty z dokładnością, której pozazdrościłby najlepszy psycholog.

Te możliwości brzmią imponująco, ale kryją w sobie pułapkę, przed którą ostrzega właśnie artykuł 14 „AI Act”. Europejski ustawodawca nie bez powodu wprowadził wymóg meaningful human oversight – znaczącego nadzoru człowieka. Czym jednak jest ów „meaningful human oversight”?

Jak zauważają eksperci, nie ma jasnych wytycznych dotyczących standardu znaczącego nadzoru człowieka w polityce UE, a AI Act nie dostarcza precyzyjnej definicji tego pojęcia. W praktyce jednak przyjmuje się, że „znaczący” to taki nadzór, który nie jest jedynie mechanicznym zatwierdzaniem decyzji, ale pogłębioną refleksją nad słusznością przedstawionych wyników.

Co to oznacza dla agenta?

Artykuł 14 nakazuje, aby osoby odpowiedzialne za nadzór nad systemami AI były w stanie właściwie rozumieć możliwości i ograniczenia systemu AI, monitorować jego działanie, wykrywać i rozwiązywać anomalie oraz pozostawać świadomymi tendencji do automatycznego polegania na wynikach systemu. Tego rodzaju nadzór przede wszystkim ma zapobiegać ryzyku dla bezpieczeństwa i praw klientów poprzez korektę wyników, jednocześnie dążąc do szerszych celów zachowania sprawczości człowieka i budowania zaufania do systemów AI. Dla agenta ubezpieczeniowego oznacza to aktywną kontrolę, gdzie człowiek ma realny wpływ na proces decyzyjny, nie zaś pozorną obecność przy w pełni automatycznych procesach.

Wydaje się zatem, że współcześni agenci będą zmuszeni do opanowania sztuki bycia „człowiekiem w pętli produkcji” – kimś, kto nie tylko obsługuje system, ale aktywnie go kontroluje. To wymaga zmiany mentalności: od bezrefleksyjnego czerpania z AI do krytycznej współpracy z maszyną.

W codziennej praktyce nadzór człowieka nad AI w pracy agenta może przybierać różne formy. Przykładem może być proces przygotowywania polisy – AI może błyskawicznie przeanalizować dokumentację i zaproponować wysokość składki, ale to agent podejmuje ostateczną decyzję, uwzględniając kontekst, którego maszyna może nie dostrzec, i weryfikując sposób analizy danych. Artykuł 14 expressis verbis stanowi, że człowiek musi mieć możliwość zdecydowania w konkretnej sytuacji o nieużywaniu systemu AI lub zignorowaniu, nadpisaniu czy odwróceniu jego wyników.

Konieczne są nieustanne szkolenia

Skuteczna kontrola może przejawiać się we wprowadzeniu także innych mechanizmów: obowiązkowych punktów kontrolnych w każdym etapie procesu ubezpieczeniowego, gdzie agent weryfikuje rekomendacje AI, systemów alarmowych ostrzegających przed nietypowymi wynikami algorytmów, regularnych audytów porównujących decyzje AI z oceną eksperta czy dokumentowania wszystkich przypadków odrzucenia lub znacznych modyfikacji propozycji AI. Niezbędne jednak we wszystkich scenariuszach jest ciągłe prowadzenie szkoleń agentów, aby byli w stanie rozpoznawać ograniczenia i potencjalne błędy systemów sztucznej inteligencji.

Największym dziś wyzwaniem jest więc znalezienie właściwej równowagi między wykorzystaniem możliwości AI a zachowaniem kontroli człowieka. Przesadna automatyzacja może mieć negatywny wpływ na zadowolenie klientów, bezpieczeństwo danych i wiarygodność ubezpieczyciela. Z drugiej strony całkowite odrzucenie AI oznaczałoby dobrowolne wycofanie się z wyścigu konkurencyjnego.

A co, jeśli AI się pomyli?

Odpowiedzialność za ewentualne błędy czy nieprawidłowości w działaniu algorytmów AI może ponieść korzystający z niej. To oznacza, że agent ubezpieczeniowy, który ślepo zaufał rekomendacji AI, a w dalszej kolejności ubezpieczyciel może zostać pociągnięty do odpowiedzialności za jej konsekwencje.

Artykuł 14 AI Act nie jest więc jedynie technicznym wymogiem – to pewnego rodzaju tarcza, która chroni agenta przed odpowiedzialnością za decyzje, nad którymi nie zachował rzeczywistej kontroli. Wbrew sceptycyzmowi, nadzór człowieka nad AI okazuje się czymś więcej niż wymogiem biurokracji – kwestią prawnego zdrowego rozsądku.

Jak się okazuje, artykuł 14 AI Act nie hamuje rozwoju sztucznej inteligencji w ubezpieczeniach – wręcz przeciwnie, tworzy ramy dla jej odpowiedzialnego wykorzystania. Agent ubezpieczeniowy, który nauczy się być skutecznym nadzorcą AI, nie straci pracy na rzecz maszyn. Wzmocni swoją pozycję, stając się nie tylko sprzedawcą polis, ale również cyfrowym strategiem zarządzającym zaawansowanymi narzędziami w służbie klienta.

Najskuteczniejsi agenci będą tymi, którzy potrafią harmonijnie łączyć technologiczne innowacje z głębokim zrozumieniem ludzkich potrzeb i emocji. AI ma wspierać, nie zastępować człowieka w podejmowaniu kluczowych decyzji ubezpieczeniowych. Przyszłość należy zatem do tych, którzy zrozumieją, że w erze AI prawdziwą przewagą konkurencyjną nie jest posiadanie najnowszego algorytmu, lecz umiejętność jego mądrego wykorzystania pod czujnym okiem człowieka.

Kamil Wojciechowski
członek zespołu ds. nowych technologii
Kancelaria Strażeccy, Jaliński i Wspólnicy