EIB o problemie odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję

0
711

Sztuczna inteligencja wspomaga firmy w różnych czynnościach, choć na czoło wysuwają się procesy związane z bezpieczeństwem fizycznym czy zabezpieczeniem mienia. – Dlatego ubezpieczyciele, którzy sami także korzystają z AI w swoich działaniach, coraz więcej uwagi poświęcają rozwiązaniom ubezpieczeniowym, które mają zapewnić ochronę ciągle rozwijającej się technologii.– zauważa Mateusz Bartoszcze, radca prawny, zastępca dyrektora Oddziału Kraków firmy brokerskiej EIB.

Ekspert zwraca uwagę, że choć na rynku funkcjonują już umowy ubezpieczenia uwzględniające udział AI w minimalizacji ryzyka, to istnieje jeszcze sporo wątpliwości co do odpowiedzialności za ewentualne szkody – za działanie bądź niezadziałanie konkretnych urządzeń. Czy odpowiedzialny może być właściciel mienia, który kupił i zainstalował narzędzie monitorujące, a może jego twórca? Obowiązuje co prawda reżim odpowiedzialności producenta za produkt, ale co w sytuacji, w której samo urządzenie działa poprawnie? A może brak informacji zwrotnej wynikał z błędów strony trzeciej, np. ubezpieczyciela, który je udostępnił ubezpieczonemu? Co więcej, samo urządzenie bazujące na AI może być elementem wprowadzającym dodatkowe ryzyko cybernetyczne, więc awaria i szkody materialne mogą być też wynikiem ataku hakerskiego. To tylko część pytań, które na razie pozostają bez jasnej odpowiedzi, więc każdy przypadek rozpatrywany jest indywidualnie.

– Oprócz kwestii technicznych, musimy też zmierzyć się z problemami etycznymi. Najlepszym przykładem są pojazdy autonomiczne. Jak ma być oceniane ryzyko i co powinien zrobić pojazd w razie zagrożenia? Czy powinien chronić przede wszystkim pasażerów i „samego siebie”? Czy AI powinna również ocenić potencjalne szkody w otoczeniu? Przykładowo, co jeśli pojedynczy pieszy wyjdzie na jezdnię tuż przed pojazdem, którym podróżuje kilka osób? W przypadku zdarzeń przemysłowych z kolei pytanie brzmi, czy ważniejsze jest bezpieczeństwo i zdrowie pracowników, czy minimalizacja rozmiaru szkód w linii produkcyjnej? To trudne kwestie i nie zazdroszczę dylematów, przed którymi staną prawodawcy i twórcy oprogramowania – dodaje Mateusz Bartoszcze.

Obowiązkowe OC dla sztucznej inteligencji

W ocenie eksperta nowe rodzaje ubezpieczeń wydają się więc koniecznością. Już jakiś czas temu UE postanowiła skodyfikować problem za pomocą Artificial Inteligence Act, który dokonuje m.in. podziału systemów. Kryterium jest stopień ryzyka wyrządzenia szkód, ingerencji i zakresu możliwej ingerencji w życie publiczne oraz społeczne. Wyróżniono więc systemy niosące wysokie ryzyko dla zdrowia, bezpieczeństwa oraz praw i wolności osobistych. Jako systemy wysokiego ryzyka zostały określone m.in. systemy znajdujące zastosowanie w służbie zdrowia, pojazdy autonomiczne, systemy wyborcze. Co więcej, w 2020 r. przyjęto rezolucję Parlamentu Europejskiego dotyczącego reżimu odpowiedzialności (2020/2014(INL)) (2021/C 404/05). W odniesieniu do systemów wysokiego ryzyka zaprojektowano nawet obowiązkowe ubezpieczenie odpowiedzialności użytkowników końcowych (operatorów) lub producentów w zakresie, w jakim odpowiedzialność nie mieściłaby się lub wykraczała poza regulacje dotyczące odpowiedzialności za produkt. Ustalono też, na wzór regulacji dotyczących OC komunikacyjnego, sugerowane sumy gwarancyjne tych ubezpieczeń. Są to kwoty w wysokości 2 mln euro na zdarzenie w przypadku szkód na osobie oraz 1 miliona euro w przypadku szkód rzeczowych.

– Wydaje się, że zaproponowane rozwiązanie jest dobre, jednak nadal nie mamy konkretnych propozycji. Jedną z barier jest przyjęcie jednolitych definicji. Sądzę jednak, że już w niedalekiej przyszłości pojawią się pierwsze „standardowe” polisy. Na razie ubezpieczenia uwzględniające lub chroniące AI to produkty szyte na miarę. Patrząc jednak na rozwój technologii i jej roli w naszym życiu, to musi się szybko zmienić – mówi Mateusz Bartoszcze

(AM, źródło: Brandscope)