Algorytmy życia i śmierci. Dlaczego AI w ubezpieczeniach wymaga etycznego podejścia

0
310

W grudniu 2024 r. Luigi Mangione, 26-letni absolwent prestiżowych uczelni, zastrzelił Briana Thompsona, CEO UnitedHealthcare. Na łuskach znaleziono wyryte słowa: deny, defend, depose – terminy kojarzone z praktykami odmów wypłat świadczeń.

To tragiczne wydarzenie pokazuje, jak głęboka może być frustracja spowodowana systemem, w którym algorytmy coraz częściej decydują o dostępie do leczenia.

Ciemna strona automatyzacji decyzji

UnitedHealthcare wykorzystywała algorytm nH Predict do oceny wniosków o świadczenia medyczne. System ten, według pozwu zbiorowego, błędnie odrzucał nawet 90% zasadnych roszczeń. Firma wiedziała o wadach algorytmu, ale kontynuowała jego stosowanie, maksymalizując zyski kosztem pacjentów.

Polski rynek ubezpieczeniowy, choć mniejszy i bardziej regulowany, nie jest wolny od podobnych zagrożeń. Pokusa wykorzystania AI do automatyzacji odmów może być silna, a jak wiemy z przeszłości, polskim ubezpieczycielom nieobca jest idea „optymalizacji” kosztów likwidacji szkód i roszczeń. Według danych KNF, w 2023 r. polskie towarzystwa ubezpieczeniowe obsłużyły ponad 2,5 mln szkód z ubezpieczeń zdrowotnych.

Problem polega na tym, że algorytmy uczą się na danych historycznych, które często zawierają systemowe uprzedzenia. Jeśli w przeszłości odmawiano świadczeń określonym grupom pacjentów, AI będzie powielać te wzorce. W polskich realiach może to oznaczać dyskryminację osób starszych, mieszkańców mniejszych miejscowości czy pacjentów z chorobami przewlekłymi.

Transparentność jako fundament zaufania

Kluczowym problemem jest nieprzejrzystość algorytmicznych decyzji. Pacjent otrzymujący odmowę często nie wie, dlaczego system podjął taką decyzję. W USA prowadzi to do sytuacji, gdzie chorzy muszą zatrudniać prawników, by walczyć z maszyną.

Polski ustawodawca częściowo dostrzegł to zagrożenie. RODO gwarantuje prawo do wyjaśnienia decyzji podejmowanych automatycznie, a ustawa o działalności ubezpieczeniowej nakłada obowiązek uzasadnienia odmowy wypłaty. Jednak przepisy te powstały przed erą zaawansowanych systemów AI i wymagają pilnej aktualizacji.

Etyczne wdrożenie AI w ubezpieczeniach wymaga wprowadzenia zasady explainable AI – każda decyzja algorytmu musi być możliwa do wytłumaczenia w sposób zrozumiały dla przeciętnego ubezpieczonego. To nie tylko wymóg prawny, ale też kwestia budowania zaufania społecznego.

Człowiek w pętli decyzyjnej

Najbardziej kontrowersyjne decyzje – dotyczące życia i zdrowia – nie mogą być podejmowane wyłącznie przez algorytmy. Model human-in-the-loop zakłada, że AI wspiera, ale nie zastępuje ludzkiego decydenta.

W praktyce oznacza to, że algorytm może wstępnie analizować dokumentację medyczną, identyfikować nietypowe przypadki czy sugerować rozwiązania, ale ostateczna decyzja o odmowie kosztownego leczenia powinna należeć do człowieka – nie tylko likwidatora, ale także lekarza konsultanta.

Polskie firmy ubezpieczeniowe mogą czerpać z doświadczeń skandynawskich, gdzie systemy AI w ubezpieczeniach podlegają regularnym audytom etycznym. W Szwecji funkcjonuje niezależna komisja ds. etyki AI w usługach finansowych, która bada przypadki dyskryminacji algorytmicznej.

Jak zatem zapewnić przejrzystość decyzji?

Priorytetyzować transparentność – każdy ubezpieczony ma prawo wiedzieć, jak algorytm ocenił jego sprawę. Firmy powinny publikować raporty o wskaźnikach odmów w podziale na kategorie demograficzne.

Wdrożyć niezależne audyty – algorytmy decyzyjne powinny być regularnie testowane przez zewnętrznych ekspertów pod kątem uprzedzeń i błędów systematycznych.

Stworzyć kodeks etyczny AI – branża powinna wypracować wspólne standardy, wykraczające poza minimalne wymogi prawne. Przykładem może być niemiecki kodeks etyki AI w finansach, przyjęty przez tamtejsze towarzystwa ubezpieczeniowe.

Inwestować w edukację – zarówno pracownicy, jak i klienci muszą rozumieć, jak działają systemy AI. Tylko świadome społeczeństwo może skutecznie kontrolować technologię.

Technologia dla ludzi, nie odwrotnie

Sztuczna inteligencja w ubezpieczeniach nie jest złem samym w sobie. Może przyspieszyć wypłaty, wykrywać oszustwa, personalizować oferty. Jednak bez ram etycznych i społecznej kontroli staje się narzędziem systemowej niesprawiedliwości.

Polski rynek ma szansę uniknąć błędów amerykańskiego systemu, budując model, w którym technologia służy ludziom, a nie odwrotnie. To nie tylko kwestia regulacji, ale także wyboru: czy chcemy społeczeństwa, w którym o naszym zdrowiu i życiu decydują nieprzejrzyste algorytmy, czy takiego, gdzie AI jest narzędziem wsparcia ludzkiej empatii i mądrości.

Zbigniew Rzepkowski
Project Manager / Product Owner / AI Manager