Mariusz Kuna, ekspert Polskiej Izby Ubezpieczeń, zwraca uwagę, że 2025 będzie rokiem, w którym polską branżę ubezpieczeniową czeka wiele pracy dostosowawczej i regulacyjnej. W głównej mierze to efekt wejścia w życie rozporządzenia DORA, ale też konieczności dostosowania się do AI Act.
Przedstawiciel PIU przypomina, że już 17 stycznia wejdzie w życie Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2022/2554, znane jako Digital Operational Resilience Act (DORA). Regulacja ta ma na celu wzmocnienie odporności operacyjnej całego sektora finansowego na zagrożenia cyfrowe poprzez ustanowienie jednolitych standardów zarządzania ryzykiem związanym z technologiami informacyjno-komunikacyjnymi (ICT). DORA obejmuje szerokie spektrum podmiotów, w tym zakłady ubezpieczeń, które będą musiały dostosować swoje działania do nowych wymogów.
„Implementacja wymogów DORA wiąże się z istotnymi wyzwaniami administracyjnymi i organizacyjnymi. Konieczne jest przeszkolenie personelu, aktualizacja procedur, inwentaryzacja dostawców, usług i zasobów oraz inwestycje w infrastrukturę technologiczną. Ponadto ubezpieczyciele muszą być przygotowani na ewentualne kontrole i działania nadzorcze ze strony Komisji Nadzoru Finansowego, co wymaga utrzymania wysokiego poziomu zgodności z nowymi regulacjami” – wskazuje ekspert.
Regulacja AI zmieni procesy wdrażania innowacji w ubezpieczeniach
Mariusz Kuna zwraca uwagę, że w 2025 r. ubezpieczenia będą musiały dostosować się również do nowych regulacji dotyczących sztucznej inteligencji (AI), wprowadzonych przez Unię Europejską. Akt o Sztucznej Inteligencji (AI Act) wprowadza kompleksowe ramy prawne dla systemów AI, mające na celu zapewnienie ich bezpiecznego i etycznego stosowania. Część przepisów, w tym dotyczących zakazanych praktyk, zacznie obowiązywać od 2 lutego, a kolejne od 2 sierpnia.
„Ubezpieczyciele będą musieli dokładnie analizować stosowane systemy pod kątem ich zgodności z definicją AI zawartą w AI Act. Wymaga to identyfikacji, które technologie wchodzą w zakres regulacji, co może być wyzwaniem ze względu na różnorodność stosowanych rozwiązań i ewentualne problemy definicyjne. Kolejnym krokiem będzie klasyfikacja systemów AI pod względem ryzyka na:
niedopuszczalne ryzyko – systemy zakazane ze względu na nieakceptowalne zagrożenia dla bezpieczeństwa lub praw podstawowych,
wysokie ryzyko – systemy wymagające spełnienia rygorystycznych wymogów w zakresie zarządzania ryzykiem, przejrzystości i nadzoru
niskie ryzyko – systemy podlegające minimalnym wymogom, głównie w zakresie przejrzystości.
Taka klasyfikacja pozwoli na odpowiednie dostosowanie procedur wdrażania i monitorowania systemów AI w działalności ubezpieczeniowej” – wskazuje ekspert.
Wątpliwości wymuszą współpracę
Przedstawiciel PIU wskazuje również na trwające obecnie dyskusje na temat precyzyjnego określenia, które technologie spełniają kryteria AI według nowych regulacji. Brak wypracowanej praktyki w zakresie interpretacji może prowadzić do niepewności wśród ubezpieczycieli co do obowiązków związanych z poszczególnymi systemami. Dlatego, jak podkreśla Mariusz Kuna, konieczna będzie ścisła współpraca z organami nadzorczymi oraz udział w branżowych konsultacjach, aby wypracować wspólne standardy i interpretacje.
„Wprowadzenie AI Act w 2025 roku znacząco wpłynie na działalność ubezpieczycieli, wymuszając dokładną weryfikację i klasyfikację stosowanych technologii – czy spełniają przesłanki uznania ich za AI. Choć proces ten wiąże się z wyzwaniami, takimi jak interpretacja przepisów czy dostosowanie procesów wdrażania innowacji, to ostatecznie przyczyni się do zwiększenia bezpieczeństwa, przejrzystości i etyczności stosowania sztucznej inteligencji w sektorze ubezpieczeń” – podsumowuje ekspert.
Cały wpis dostępny jest na blogu PIU.
(AM, źródło: PIU)