6 grudnia Rada Europesjka przedstawiła swoje stanowisko w sprawie rozporządzenia dotyczącego sztucznej inteligencji (AI Act). RE chce, aby systemy sztucznej inteligencji w ubezpieczeniach klasyfikować jako systemy wysokiego ryzyka. Ubezpieczyciele nie mogą być zadowoleni z propozycji Rady – wskazuje Bartosz Bigaj, szef przedstawicielstwa Polskiej Izby Ubezpieczeń w Brukseli.
Ekspert zwraca uwagę, że RE zdecydowała się dodać do listy systemów wysokiego ryzyka (tzw. high risk) także systemy AI przeznaczone do oceny ryzyka i wyceny składki dla osób fizycznych w ubezpieczeniach na życie i ubezpieczeniach zdrowotnych. „Klasyfikacja ta nie będzie dotyczyć mikro- i małych przedsiębiorstw. Pozostałe obszary działalności ubezpieczeniowej, takie jak likwidacja szkód, nie będą klasyfikowane jako działalność high risk” – dodaje. Bartosz Bigaj zastrzega, że nie oznacza to jeszcze, iż systemy AI stosowane przez ubezpieczycieli zostaną ostatecznie zakwalifikowane jako high risk. Komisja Europejska nie dostrzegła bowiem zwiększonego ryzyka w korzystaniu ze AI przez zakłady ubezpieczeń. Ostateczne rozstrzygnięcie jest w rękach Parlamentu Europejskiego, który jest podzielony w tej kwestii.
Decyzja RE spotkała się krytyką Insurance Europe. „Nie sposób nie zgodzić się z argumentami Insurance Europe. Rada umieściła działalność ubezpieczeniową na liście wysokiego ryzyka bez przeprowadzenia jakiejkolwiek analizy lub oceny wpływu. Co, jak słusznie wskazuje Insurance Europe, jest sprzeczne z celami unijnego programu lepszego stanowienia prawa. Rada nie wykazała także, że obecne regulacje sektora ubezpieczeniowego (zarówno na poziomie unijnym, jak i krajowym) są niewystarczające dla regulowania sztucznej inteligencji. Nie wskazała też na konkretne dowody, że wykorzystanie AI w działalności ubezpieczeniowej narusza prawa ubezpieczonych” – wskazuje ekspert.
Bartosz Bigaj zwraca uwagę, że według RE systemy AI w ubezpieczeniach na życie i ubezpieczeniach zdrowotnych, jeśli nie zostaną należycie zaprojektowane, opracowane i wykorzystane, mogą prowadzić do poważnych konsekwencji dla życia i zdrowia ludzi, w tym do wykluczenia finansowego i dyskryminacji. Z drugiej strony organ zapomniał o korzyściach z AI w ubezpieczeniach, np. lepszej analizie ryzyka i możliwości ubezpieczania chorób dotychczas trudno ubezpieczalnych.
„Stanowisko Rady rozczarowuje nie tylko dlatego, że nie uwzględnia analizy wpływu (impact assesment) Komisji Europejskiej, ale jest też sprzeczne z postulatami EIOPA (Letter to co-legislators on the Artificial Intelligence Act), której zdaniem wykorzystania AI w działalności ubezpieczeniowej nie generuje wysokiego ryzyka w rozumieniu AI Act. EIOPA wskazała, że kwestia ta wymaga dalszej analizy i wpisała ją do planu swoich prac na lata 2023–2025. Wydaje się zatem, że prace nad AI są kolejnym dobrym przykładem złej regulacji. Rada wyprzedza unijnego nadzorcę, który dopiero będzie analizował potrzebę regulacji zasad wykorzystania sztucznej inteligencji na rynku. Dodatkowe wymogi mogą zniechęcić zakłady ubezpieczeń do korzystania ze sztucznej inteligencji i tym samym zmniejszą potencjał nowych technologii. Szczególnie w krajach takich jak Polska, gdzie innowacja stanowi jeden z istotnych elementów konkurencji z globalnymi graczami w UE. Zniechęcać będą także wysokie kary przewidziane w projekcie rozporządzenia – kary administracyjne w wysokości do 30 mln euro lub 6% rocznego światowego obrotu z poprzedniego roku obrotowego” – zaznacza ekspert PIU.
Zdaniem Bartosza Bigaja uznanie, że systemy AI przeznaczone do oceny ryzyka i wyceny składki osób fizycznych w ubezpieczeniach na życie i ubezpieczeniach zdrowotnych mają wykorzystywać restrykcyjne wymogi, niesie za sobą poważne konsekwencje, m.in.:
- Ustanowienie, wdrożenie dokumentacji i utrzymania systemu zarządzania ryzykiem.
- Opracowanie zbiorów danych treningowych.
- Stworzenie dokumentacji technicznej dla systemu sztucznej inteligencji wysokiego ryzyka.
- Zapewnienie, aby systemy AI zawierały funkcję automatycznego rejestrowania zdarzeń i ewidencjonowania tych zdarzeń.
- Zapewnienie przejrzystości działania systemów sztucznej inteligencji umożliwiających interpretacje wyników działania sytemu i ich właściwe wykorzystanie.
- Zapewnienie, że system sztucznej inteligencji uwzględnia odpowiednie narzędzia interfejsu człowiek-maszyna, aby w okresie wykorzystywania systemu sztucznej inteligencji wysokiego ryzyka mogły je skutecznie nadzorować osoby fizyczne.
- Zapewnienie, że system sztucznej inteligencji ma odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa oraz konsekwentnego działania pod tymi względami w całym cyklu życia produktu.
„Piłka jest nadal w grze. Ubezpieczyciele są jednak w defensywie i muszą bronić pierwotnego projektu rozporządzenia ws. sztucznej inteligencji przygotowanego przez Komisję. Czekamy na ostateczne stanowisko Parlamentu Europejskiego, które pojawi się prawdopodobnie jeszcze w tym roku lub na początku przyszłego. Po opublikowaniu wersji parlamentu rozpocznie się okres tzw. trilogów, czyli trójstronnych negocjacji pomiędzy Komisją, Parlamentem i Radą (w tym wypadku już pewnie pod szwedzkim przewodnictwem). Szkoda, że na tym etapie Rada nie wykorzystała szansy i nie opowiedziała się za budowaniem konkurencyjnej unijnej gospodarki w zakresie usług ubezpieczeniowych w oparciu o rozwój nowych technologii” – podsumowuje Bartosz Bigaj.
Cały wpis znajduje się na blogu PIU.
(AM, źródło: PIU)