Prawo nie nadąża zwykle za rozwojem nowych technologii. Ekspansja sztucznej inteligencji, oprócz niewątpliwych korzyści, może powodować rozmaite szkody. Obecnie brak jest w prawie polskim, jak również w prawie unijnym, szczególnych mechanizmów prawnych w zakresie odpowiedzialności za działanie systemów AI.
Trwają jednak zaawansowane prace nad nowymi przepisami na poziomie Unii Europejskiej.
– Złożoność, autonomia i brak przejrzystości systemów sztucznej inteligencji wymagają ostrożnej regulacji ułatwiającej dochodzenie odszkodowań, lecz jednocześnie takiej, która nie zabije innowacyjności. Przed ustawodawcą stoi niezwykle trudne zadanie – mówi adwokat Dariusz Kiełb, członek zespołu rozwiązywania sporów w warszawskim biurze kancelarii Wolf Theiss.
Odpowiedzialność na zasadzie ryzyka i na zasadzie winy
We wrześniu 2022 r. zaprezentowane zostały projekty istotnych aktów prawnych: nowej dyrektywy w sprawie odpowiedzialności za produkty wadliwe oraz dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję.
Pierwszy ze wskazanych dotyczy odpowiedzialności na zasadzie ryzyka, podczas gdy drugi obejmuje odpowiedzialność deliktową na zasadzie winy, co pociąga za sobą dalej idące wymogi dowodowe dla poszkodowanego.
– W przypadku kolizji samochodów autonomicznych osoby poszkodowane dochodzące odszkodowania mogą stanąć przed trudnym wyzwaniem identyfikacji osoby odpowiedzialnej oraz wykazania przesłanek odpowiedzialności odszkodowawczej.
Dochodzenie rekompensaty za szkodę wyrządzoną przez systemy AI może wymagać wykazania winy osoby mającej ponieść odpowiedzialność czy też związku przyczynowego pomiędzy działaniem systemu AI a szkodą. Już samo zidentyfikowanie osoby odpowiedzialnej za szkodę wyrządzoną przez sztuczną inteligencję może być dla poszkodowanego istotnym problemem, nie mówiąc o wykazaniu nieprawidłowości po stronie producenta oprogramowania – mówi Dariusz Kiełb.
Transparentność systemów i ryzyko producenta
W ocenie eksperta proponowane rozwiązania dają się w pewnym stopniu sprowadzić do dwóch zagadnień: transparentności systemów AI oraz zwiększonego ryzyka działalności producentów systemów AI.
Przepisy przewidują możliwość wnioskowania do osoby potencjalnie odpowiedzialnej o udostępnienie dokumentacji oprogramowania, zaś w przypadku bezpodstawnej odmowy ujawnienia takiej dokumentacji dowodowej kreują domniemanie winy takiej osoby.
W pewnych przypadkach zastosowanie znajdzie również domniemanie związku przyczynowego pomiędzy winą pozwanego a rezultatem działania systemu AI czy też domniemanie wadliwości oprogramowania jako produktu oraz związku przyczynowego pomiędzy wadliwością produktu a szkodą.
– Zastosowanie wielu wspomnianych rozwiązań przerzuci ciężar dowodowy na producentów systemów sztucznej inteligencji, którzy potrzebować będą dowodów na wyłączenie własnej odpowiedzialności. W rezultacie przepisy wymuszać będą na producentach większą transparentność systemów AI.
Większa transparentność teoretycznie może zaradzić efektowi czarnej skrzynki, gdyż możliwe będzie odtworzenie procesów zachodzących w systemie AI. Na pewnym etapie rozwoju tych systemów praktyczna realizacja prawnych wymogów może okazać się trudna lub niemożliwa – dodaje Dariusz Kiełb.
Problem czarnej skrzynki
Problem tzw. czarnej skrzynki (Black box effect) odnosi się do sposobu podejmowania decyzji przez systemy sztucznej inteligencji. W wielu wypadkach znane są dane wejściowe dostarczone oprogramowaniu (input) oraz dane wyjściowe otrzymane na skutek działania programu (output), jednak działania programu, które znajdują się pomiędzy, pozostają niewyjaśnialne i trudne do odtworzenia.
Część systemów AI działa na podstawie ogromnej sieci neuronowej, w której zachodzące procesy nie dają się sprowadzić do zestawu instrukcji, jak w tradycyjnym oprogramowaniu. W przypadku oprogramowania AI niejednokrotnie nawet inżynierowie nie są w stanie odtworzyć ani zrozumieć w szczegółach procesu decyzyjnego systemu sztucznej inteligencji.
– Problem efektu czarnej skrzynki jest zagadnieniem natury technicznej, na który jak się wydaje, nie mamy obecnie odpowiedzi. Ustawodawca może podjąć próbę wymuszenia transparentności na dostawcach oprogramowania, jednak to od postępu technicznego zależeć będzie odpowiedź na pytanie, czy realizacja nałożonych wymogów będzie w ogóle możliwa do wyegzekwowania w praktyce. Jeśli wymogi okażą się niemożliwe do spełnienia, producentów oprogramowania czekać mogą głośne spory sądowe lub perspektywa celowego ograniczania rozwiązań innowacyjnych ze względu na zbyt duże ryzyka biznesowe.
Wiele wskazuje na to, że postęp technologiczny skutkować będzie wręcz mniejszą transparentnością systemów sztucznej inteligencji. Im bowiem bardziej zaawansowane rozwiązania techniczne osiągniemy, tym trudniejsze będą one do opisania czy odtworzenia w sposób czytelny dla ludzkiego odbiorcy, którego zdolności poznawcze, w przeciwieństwie do zdolności systemów AI, pozostaną w gruncie rzeczy niezmienione – podsumowuje Dariusz Kiełb.