Odpowiedzialność odszkodowawcza za sztuczną inteligencję

0
1187

20 października 2020 r. Parlament Europejski przyjął Rezolucję z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)). Wydarzenie to przeszło bez większego echa w branży ubezpieczeniowej, nie wzbudzając jej szczególnego zainteresowania. Jak się jednak okazuje, nie do końca słusznie.

Wspomniany akt prawny prezentuje planowany przez organy unijne sposób uregulowania odpowiedzialności za działania sztucznej inteligencji (AI). Stanowi jednocześnie sygnał nadchodzących w niedalekiej przyszłości zmian w zakresie ubezpieczeń obowiązkowych.

Dlaczego przyjęto Rezolucję

Opracowanie i uchwalenie Rezolucji podyktowane było wieloma względami, w szczególności zaś chęcią ochrony osób poszkodowanych w wyniku korzystania z produktów lub usług opartych na systemach AI oraz zagwarantowania tym osobom możliwości skutecznego dochodzenia swoich roszczeń odszkodowawczych.

Stworzenie odpowiedniej regulacji miałoby docelowo zwiększyć zaufanie nabywców i ich przekonanie co do bezpieczeństwa, niezawodności oraz spójności wspomnianych produktów i usług, jak również stanowić wsparcie dla przedsiębiorstw w rozwoju nowych technologii.

By osiągnąć powyższy cel, należałoby m.in. ujednolicić zasady odpowiedzialności za działania AI w różnych systemach prawnych państw członkowskich oraz rozpocząć szeroko zakrojoną debatę uwzględniającą wszystkie niezbędne grupy interesów.

Oczekiwanym efektem nowej regulacji miałoby być wprowadzenie unormowań gwarantujących każdej osobie poszkodowanej w wyniku działania systemu AI korzystanie z tego samego poziomu ochrony co w przypadku analogicznych zdarzeń odbywających się jednak bez udziału systemów AI.

Grzegorz Dybała

W celu uzyskania jednolitości przepisów prawnych na terenie całej Unii Europejskiej Parlament Europejski rekomenduje uregulowanie wspomnianej problematyki w drodze rozporządzenia. Jego proponowana treść, wraz z projektem wniosku, stanowią załącznik B do Rezolucji.

System sztucznej inteligencji – co to takiego?

Parlament Europejski we wspomnianym wyżej projekcie zaproponował własną definicję systemu AI, zgodnie z którą jest to system opierający się na oprogramowaniu (ewentualnie wbudowany w urządzenie) oraz wykazujący się zachowaniem symulującym inteligencję (m.in. dzięki gromadzeniu i przetwarzaniu danych, analizowaniu i wyciąganiu wniosków dotyczących otoczenia) oraz podejmujący działania w pewnym stopniu autonomicznie, zmierzając do osiągnięcia konkretnego celu.

Jest to o tyle charakterystyczne, że dotychczas organy unijne posługiwały się raczej pojęciem samej sztucznej inteligencji.

Kamil Szpyt

Nowe zasady odpowiedzialności za AI

Na samym początku warto zaznaczyć, że jakkolwiek mowa tu jest o nowych zasadach odpowiedzialności za AI, to tak naprawdę stare zasady nigdy nie istniały. A przynajmniej nie istniały przepisy stworzone specjalnie na potrzeby uregulowania odpowiedzialności za produkcję czy korzystanie z AI. Zagadnienie to było – co najwyżej – przedmiotem rozważań prawniczej doktryny.

W niedalekiej przyszłości powyższa sytuacja w założeniu miałaby ulec zmianie.

Operator systemu AI obarczonego wysokim ryzykiem odpowiadałby na zasadzie ryzyka za wszelkie szkody spowodowane przez działanie, działanie urządzenia lub proces z wykorzystaniem systemu AI (zarówno fizyczne, jak i wirtualne).

Nie mógłby on też uniknąć odpowiedzialności, twierdząc, że działał z należytą starannością lub że szkodę spowodowało autonomiczne działanie, urządzenie lub proces sterowany przez należący do nich system AI. Okolicznością, która mogłaby go w tym przypadku zwalniać z odpowiedzialności, byłoby powstanie szkód na skutek działania siły wyższej.

W kontekście powyższego warto wyjaśnić, co oznacza pojęcie „wysokie ryzyko”. Według autorów Rezolucji miałaby się pod nim kryć znacząca, potencjalna możliwość wyrządzenia przez autonomicznie działający system AI losowo występujących szkód jednej lub wielu osobom w taki sposób, że wykraczałoby to poza okoliczności, jakich można by racjonalnie oczekiwać.

Z kolei operator systemu AI, który nie jest systemem obarczonym wysokim ryzykiem, mógłby być pociągnięty do odpowiedzialności na zasadzie domniemanej winy.

Obowiązkowe ubezpieczenia systemów AI

Parlament Europejski wskazał, iż zasadniczą przesłanką, która może w przyszłości decydować o sukcesie rozwoju i wdrożenia nowych technologii, jest gwarantowanie pokrycia zobowiązań związanych ze szkodami wywołanymi przez AI. W tym celu planowane jest wprowadzenie obowiązkowego ubezpieczenia dla operatorów systemów AI obarczonych wysokim ryzykiem.

Dążąc do uniknięcia pojawiania się w przyszłości wątpliwości w zakresie ewentualnego obowiązku ubezpieczenia konkretnego produktu, Parlament proponuje wszystkie w/w systemy AI umieścić w wyczerpującym wykazie znajdującym się w załączniku do przewidywanego rozporządzenia. Wykaz powinien być analizowany i modyfikowany co sześć miesięcy, aby na bieżąco reagować na rozwój technologii i wprowadzanie nowych produktów zatwierdzonych do obrotu na rynek.

Aby dać przedsiębiorcom i organizacjom badawczym poczucie pewności w planowaniu i inwestycjach, zmiany w wykazie branż o zasadniczym znaczeniu należy wprowadzać jedynie co 12 miesięcy.

Skutki dla rynku ubezpieczeń

Analiza proponowanych rozwiązań, które miałyby się znaleźć w planowanym rozporządzeniu, rodzi też pytanie o konsekwencje ich wejścia w życie dla rynku ubezpieczeń.

Przede wszystkim należy zwrócić uwagę na zasadniczy problem związany z prawidłowym oszacowaniem przez zakład ubezpieczeń ryzyka, które będzie wynikało m.in. z braku historycznych danych dotyczących roszczeń odszkodowawczych dotyczących działalności AI. Kwestia ta jest zresztą dostrzegana przez samego ustawodawcę unijnego, który nie proponuje jednak w tym zakresie żadnych konkretnych rozwiązań.

Do tego należy doliczyć niestałość prawnej klasyfikacji konkretnych systemów AI. Płynnie będą mogły one przechodzić z grupy „wysokiego ryzyka” (z obowiązkowym ubezpieczeniem) do „zwykłego ryzyka” (bez obowiązku ubezpieczenia).

Co więcej, w przypadku systemów AI spoza załącznika, które jednak spowodowały powtarzające się incydenty skutkujące poważnymi szkodami, twórcy Rezolucji rekomendują umieszczanie ich w wykazie z mocą wsteczną, od momentu pierwszego udowodnionego incydentu spowodowanego przez ten system AI, w wyniku którego doszło do poważnych szkód.

W efekcie doprowadzi to zapewne do powstania sporej grupy producentów starających się zawsze ubezpieczać swoje systemy AI jako systemy wysokiego ryzyka, niezależnie od tego, czy rzeczywiście powinny być do tej grupy zaliczone (kierując się „najdalej posuniętą ostrożnością”). To również zwiększy problemy z szacowaniem realnego ryzyka ubezpieczeniowego.

Niestety, w omawianym zakresie nie proponuje się żadnych konkretnych rozwiązań. Sugeruje się jedynie możliwość zachęcania w wyjątkowych przypadkach państw członkowskich do utworzenia na ograniczony czas specjalnego funduszu odszkodowawczego lub funduszów kompensacyjnych w celu pokrycia wyjątkowych przypadków, w których system AI, niesklasyfikowany jako system AI obarczony wysokim ryzykiem, nie jest jeszcze ubezpieczony.

W efekcie wspomniane rozwiązanie należy ocenić negatywnie, z uwagi na wywołanie braku pewności co do prawa i zakresu odpowiedzialności.

Powyższe konkluzje i wskazywane wątpliwości potwierdzają tezę, iż omawiane zagadnienie będzie miało w przyszłości znaczący wpływ zarówno na rynek ubezpieczeniowy, jak i – wobec gwałtownego rozwoju technologicznego i powszechnego wykorzystywania systemów AI – na sytuację osób poszkodowanych w zdarzeniach wywołanych przez AI.

dr Kamil Szpyt
kamil.szpyt@legaladvisors.pl

dr Grzegorz Dybała
grzegorz.dybala@legaladvisors.pl