Sztuczna inteligencja miała zrewolucjonizować underwriting w ubezpieczeniach na życie. Klient wypełnia wniosek, algorytm analizuje dane, model przelicza karty scoringowe, decyzja zapada bez udziału człowieka. Jedni widzieli w tym naturalny kierunek rozwoju, inni ostrzegali, że wdrożenia AI zatrzymają się na barierach regulacyjnych.
Dziś widać, że AI w ubezpieczeniach na życie nie jest już koncepcją z konferencyjnych slajdów, ale zaczyna tworzyć część infrastruktury decyzyjnej zakładów.
Modele uczone na danych medycznych, finansowych i behawioralnych potrafią w kilka sekund wesprzeć decyzję underwritingową i zasugerować składkę. Jednocześnie europejski regulator traktuje AI w underwritingu życia jako system wysokiego ryzyka, co przekłada się na szczegółowe wymogi dotyczące danych, nadzoru człowieka i zarządzania modelem.
Pytanie, przed którym stoi polski rynek, dotyczy przede wszystkim dojrzałości organizacyjnej i regulacyjnej: czy procesy i governance są gotowe na takie rozwiązania.
Życiówka pod presją
Ubezpieczenia na życie w Polsce mierzą się z wyzwaniami strukturalnymi: składka przypisana brutto w dziale I w ostatnich latach nie rosła tak dynamicznie jak w innych segmentach, a część portfela pozostaje pod presją marż i zmian preferencji klientów. Produkty bywają skomplikowane, a proces od pierwszego kontaktu po wydanie polisy jest dla wielu klientów zbyt długi. AI pojawia się jako odpowiedź na stagnację sprzedaży, wysokie koszty operacyjne i oczekiwanie prostszego doświadczenia, ale nie zastąpi jakości produktu ani nie zbuduje za zakład relacji zaufania.
Rzeczywistość wielu zakładów to złożone systemy polisowe, dane medyczne przechowywane w formie opisowej i underwriting oparty na historycznych regułach. W takim środowisku wdrożenie AI nie jest „dokupieniem algorytmu”, lecz projektem transformacyjnym, który zaczyna się od uporządkowania danych, procesów i odpowiedzialności za decyzje.
Gdzie AI realnie działa
Straight‑through processing, czyli automatyczna akceptacja części wniosków klientów o niskim ryzyku – jest już stosowany przez wiele europejskich zakładów. Analizy rynku i doświadczenia reasekuratorów wskazują, że przy odpowiedniej kalibracji modeli istotna część nowych wniosków może być przetwarzana w trybie STP, co przekłada się na oszczędności kosztowe i skrócenie czasu obsługi klienta. Kluczowe jest zdefiniowanie kryteriów ryzyka, dla których decyzja może być podejmowana automatycznie, oraz zapewnienie nadzoru człowieka nad przypadkami wymagającymi bardziej złożonej oceny.
Narzędzia oparte na dużych modelach językowych pomagają przetwarzać obszerną dokumentację kliniczną, wyodrębniać kluczowe informacje i mapować je na kategorie ryzyka underwritingowego. Pilotaże prowadzone na rynku międzynarodowym wskazują możliwość istotnej redukcji czasu analizy dokumentacji przy zachowaniu wymaganej jakości klasyfikacji, o ile proces jest odpowiednio zaprojektowany i nadzorowany.
Nie każda automatyzacja jest jednak systemem AI w rozumieniu regulacji, a jakość modeli wymaga ciągłego monitorowania. Badania instytucji nadzorczych pokazują, że modele uczenia maszynowego narażone są na zjawisko dryfu – zmianę jakości predykcji w czasie wskutek zmian danych wejściowych, co wymaga procedur okresowej walidacji i korekty.
W ubezpieczeniach na życie, gdzie horyzont ryzyka liczony jest w dekadach, znaczenie ma nie tylko początkowa skuteczność modelu, ale również sposób jego monitorowania w całym cyklu życia.
AI Act i rola nadzoru
AI Act, przyjęta w 2024 r., wprost wskazuje systemy do oceny i wyceny ryzyka w ubezpieczeniach na życie jako systemy wysokiego ryzyka. Dla zakładów oznacza to konieczność wdrożenia systemu zarządzania modelami, dokumentowania całego cyklu życia systemu od projektowania, przez trening i walidację, po monitorowanie i wycofanie oraz konieczność zarządzania danymi treningowymi, nadzoru człowieka i obsługi incydentów.
EIOPA doprecyzowuje te wymagania, proponując podejście oparte na ryzyku, włączenie AI do systemu zarządzania ryzykiem, zasady etyczne, governance danych, wymogi przejrzystości i wyjaśnialności oraz nadzór człowieka. Zakład ubezpieczeń nie może ograniczyć się do ogólnego zrozumienia modelu, odpowiada za skutki jego użycia, także gdy korzysta z rozwiązań zewnętrznych dostawców.
W Polsce, zgodnie ze stanowiskiem KNF, odpowiedzialność za decyzje podejmowane z użyciem algorytmów spoczywa na podmiotach nadzorowanych, a oczekiwania nadzoru obejmują właściwą identyfikację, ocenę i monitorowanie ryzyka związanego z tymi systemami.
Nowa mapa ryzyka i AI‑ORSA
Wprowadzenie AI do underwritingu zmienia układ całej mapy ryzyk. DPIA wymagana przez RODO przestaje być jednorazową formalnością w środowisku, w którym model ewoluuje, staje się narzędziem ciągłego zarządzania. Na poziomie ryzyka operacyjnego kluczowe jest pytanie o dryf modelu, zmianę populacji klientów, profilu epidemiologicznego czy struktury danych.
Coraz częściej mówi się o potrzebie włączenia ryzyka AI do oceny własnego ryzyka i wypłacalności (ORSA). W części zakładów scenariusze dotyczące błędów modeli, serii błędnych decyzji, ryzyka reputacyjnego czy zmian regulacyjnych dopiero zaczynają być formalnie opisywane w ramach ORSA. Koncepcja AI‑ORSA oznacza uporządkowane podejście do oceny wpływu systemów AI na profil ryzyka i odporność finansową zakładu, nawet jeśli nie jest jeszcze standardem nadzorczym, może stać się źródłem przewagi dla instytucji, które zaczną takie analizy wcześniej.
Spotykają się tu trzy wektory: dojrzewająca technologia, coraz bardziej konkretne ramy regulacyjne oraz rynek pod presją kosztową i konkurencyjną. W ubezpieczeniach na życie przewagę mogą uzyskać nie ci, którzy najszybciej wdrożą pojedynczy model, ale ci, którzy zbudują dojrzałe, wyjaśnialne i dobrze zarządzane środowisko AI oparte na jakości danych, jasnym podziale odpowiedzialności i dialogu z regulatorem.
Na końcu każdego procesu decyzyjnego pozostaje konkretny człowiek, który składa wniosek, by zabezpieczyć przyszłość swoją i bliskich, i to wobec niego branża ma zobowiązanie zapewnienia możliwie uczciwej, zrozumiałej i sprawiedliwej decyzji.
Marlena Sieńska
underwriterka medyczna







