Sztuczna inteligencja w ubezpieczeniach według EIOPA

0
809

Niedawno Europejski Urząd Nadzoru Ubezpieczeń i Pracowniczych Programów Emerytalnych (EIOPA) opublikował wyjątkowo interesujący raport zatytułowany Artificial Intelligence Governance Principles: Towards Ethical and Trustworthy Artificial Intelligence in the European Insurance Sector. Zaprezentował w nim – jak łatwo się domyślić – rekomendowane zasady wykorzystania sztucznej inteligencji w sektorze ubezpieczeń.

Wspomniany dokument jest pierwszym tego typu przeznaczonym ściśle dla branży ubezpieczeń. Oczywiście, można natknąć się na wytyczne niektórych krajowych organów nadzoru dotyczące problematyki wykorzystania AI (np. niemieckiego BaFin lub brytyjskiego Financial Conduct Authority), są one jednak dla całego sektora finansowego. Tym samym wspomniany raport należy uznać za prekursorski.

EIOPA zaproponowała w nim sześć podstawowych zasad, na których powinno być oparte wykorzystanie AI w sektorze ubezpieczeń. Można się w nich dopatrzeć echa niektórych innych unijnych dokumentów i regulacji dotyczących sztucznej inteligencji (w szczególności Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji sporządzonych przez Niezależną Grupę Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji). Nie ma tutaj jednak mowy o bezrefleksyjnym kopiowaniu. Z tego względu warto wspomnianym zasadom przyjrzeć się nieco bliżej.

  1. Zasada proporcjonalności

Zasada proporcjonalności jest dobrze ugruntowana w europejskim ustawodawstwie ubezpieczeniowym. Zgodnie z nią zakład ubezpieczeń powinien wprowadzić system zarządzania, który jest proporcjonalny do charakteru, skali i złożoności jego działalności (art. 41 ust. 2 dyrektywy Parlamentu Europejskiego i Rady 2009/138/WE z 25 listopada 2009 r. w sprawie podejmowania i prowadzenia działalności ubezpieczeniowej i reasekuracyjnej).

Krok ten należy poprzedzić indywidualną oceną wpływu zastosowania AI, dokonaną w celu dostosowania adekwatnych środków służących zarządzaniu do konkretnego przypadku wdrożenia rozwiązania opartego na sztucznej inteligencji. Docelowo zastosowanie AI i powzięte w tym celu środki powinny mieć charakter proporcjonalny do wpływu ich wykorzystania na sytuację konsumentów i zakładu ubezpieczeń.

Następnie towarzystwo ubezpieczeń powinno dokonać weryfikacji w/w środków w kontekście docelowego spełnienia efektu etycznego i godnego zaufania posłużenia się sztuczną inteligencją. Ocena ta stanowi wstępny etap zarządzania systemem AI i dopiero w ramach kolejnego kroku należy dostosować i wprowadzić dalsze środki zarządzania, adekwatne do sytuacji (np. nadzór ludzki).

  1. Zasada uczciwości i niedyskryminacji

EIOPA w raporcie podkreśla, że wykorzystywanie AI przez zakłady ubezpieczeń powinno być nacechowane uczciwością oraz całkowitym brakiem dyskryminacji wszystkich zainteresowanych stron.

Powyższe reguły wyrażone zostały w nawiązaniu do szeroko pojętej społecznej odpowiedzialności biznesu towarzystw ubezpieczeniowych. W efekcie powinny one unikać zachowań powodujących wystąpienie nierówności społecznych, szczególnie w kontekście oceny ratingu klientów i oferowania zoptymalizowanych cenowo produktów.

Zasada uczciwego wykorzystania danych przejawia się przede wszystkim w poszanowaniu dla autonomii konsumenta i takim opracowaniu systemów AI, aby zapewnić mu pełne wsparcie w procesach decyzyjnych. Zasadne jest więc, by zakłady ubezpieczeń na bieżąco analizowały stosowane algorytmy, by zapewnić właściwy poziom uczciwości i niedyskryminacji względem klientów w ramach świadczonych usług.

Powyższe w pełni koresponduje z odpowiednimi przepisami dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/97 z 20 stycznia 2016 r. w sprawie dystrybucji ubezpieczeń. Artykuł 17 ust. 1 dyrektywy wskazuje bowiem, że dystrybutorzy ubezpieczeń, świadcząc dystrybucję ubezpieczeń, zawsze powinni postępować uczciwie, rzetelnie i profesjonalnie oraz zgodnie z najlepiej pojętym interesem swoich klientów, a art. 20 ust. 1 stanowi, że każdy produkt proponowany klientowi powinien być zgodny z jego wymaganiami i potrzebami.

Wśród kluczowych zagadnień sygnalizowanych przez autorów raportu warto wspomnieć o rzetelnym i przejrzystym zarządzaniu procesami AI, uczciwym prowadzeniu działalności oraz racjonalnym podejmowaniu działalności uwzględniającej wyniki działania systemów AI, jak również minimalizacji wykorzystania danych osobowych.

W dokumencie podkreśla się również, że zakłady ubezpieczeń muszą szczególnie pieczołowicie przestrzegać przepisów antydyskryminacyjnych. W efekcie zaprezentowano przykładowy katalog parametrów, którymi posłużenie się dla celów oceny ryzyka, określenia ceny produktu i świadczeń jest niedopuszczalne (np. rasa, pochodzenie etniczne i płeć).

Kamil Szpyt
  1. Zasada wyjaśniania i przejrzystości

Wykorzystanie AI wiąże się z koniecznością przygotowania kompleksowego i zrozumiałego wyjaśnienia sposobu działania modelu sztucznej inteligencji. Efektem zastosowania powyższych środków powinno być wsparcie konsumenta we właściwym zrozumieniu działania algorytmu oraz świadomym podejmowaniu przez niego decyzji.

Nie budzi wątpliwości, że cały proces musi się odbywać przy pełnej świadomości konsumenta, iż ma on do czynienia z algorytmem sztucznej inteligencji, a nie żywym człowiekiem.

4. Zasada nadzoru człowieka

Kwestią zasadniczą pozostaje zapewnienie przez zakłady ubezpieczeń odpowiedniego poziomu nadzoru człowieka nad systemami AI przez cały cykl ich funkcjonowania. Zadaniem towarzystw jest przypisanie oraz podział odpowiednich funkcji i zadań osobom zaangażowanym we wdrożenie i wykorzystywanie systemów AI.

Wybór wyższego lub niższego poziomu nadzoru ze strony człowieka powinien być proporcjonalny do charakteru, skali i złożoności ryzyka związanego z konkretnym zastosowaniem AI oraz uwzględniać kombinację środków zarządzania stosowanych w odniesieniu do danego przypadku jej zastosowania.

5. Zasada zarządzania danymi

W celu zapewnienia odpowiednich standardów ochrony danych osobowych zakłady ubezpieczeń wykorzystujące AI powinny przestrzegać właściwych przepisów krajowych oraz unijnych w całym cyklu działania systemu.

Kluczowe pozostaje podjęcie odpowiednich działań zmierzających do dokładnego, kompletnego i właściwego wykorzystania danych w systemach AI, bez względu na źródła ich pozyskania. Koreluje z tym także reguła zapewnienia bezpieczeństwa przechowywania danych w ramach odpowiednio zabezpieczonego środowiska, przy wdrożeniu właściwych i skutecznych procesów zarządzania danymi i ich kontroli operacyjnej.

Stosując zasadę proporcjonalności, towarzystwa ubezpieczeniowe powinny wdrożyć odpowiednie środki i procedury w zakresie zarządzania danymi i prowadzenia związanej z tym dokumentacji.

Grzegorz Dybała
  1. Zasada odporności i stabilności/jakości rozwiązań

Podmioty rynku ubezpieczeń powinny korzystać ze sprawdzonych i rzetelnych systemów AI (zarówno gdy powstały one w ramach wewnętrznych struktur ubezpieczyciela, jak i gdy ich stworzenie zostało zlecone podmiotowi trzeciemu). Każdorazowo należy brać pod uwagę ich przeznaczenie i potencjał wyrządzenia szkody.

Działanie systemu powinno być oceniane i monitorowane na bieżąco, przy opracowaniu odpowiednich mierników skuteczności ich działania. Dodatkowo należy je wdrażać w ramach odpowiednio zabezpieczonych infrastruktur informatycznych.

Powstanie raportu i jego lektura nasuwają wniosek, że problematyka wykorzystania sztucznej inteligencji w sektorze ubezpieczeń zaczyna być powoli dostrzegana przez organy nadzoru, które podchodzą do niej z właściwą rozwagą i zrozumieniem. I bardzo dobrze.

Oczywiście, nie mamy tutaj do czynienia z „twardymi regulacjami”, aczkolwiek należy założyć, że ich też się doczekamy. Wydaje się także, że prędzej czy później na podobne wytyczne pokusi się również polska KNF.

dr Kamil Szpyt
kamil.szpyt@legaladvisors.pl

dr Grzegorz Dybała
grzegorz.dybala@legaladvisors.pl