Brak regulacji sztucznej inteligencji jest barierą dla rozwoju innowacyjnych przedsiębiorstw

0
491

Jak wskazuje Komisja Europejska, technologie oparte na sztucznej inteligencji (AI) mogą pobudzić gospodarkę i poprawić jakość życia w niemal każdej sferze: od transportu i opieki zdrowotnej, poprzez zindywidualizowaną edukację, przyznawanie kredytów, po uwolnienie pracowników od uciążliwych i powtarzających się zadań. Jednak aby móc swobodnie korzystać z zalet AI oraz przeciwdziałać ich potencjalnemu nadużywaniu, konieczne jest przyjęcie regulacji prawnych w tym zakresie.

Prace nad takimi przepisami na poziomie UE są już zaawansowane. Czekają na nie zwłaszcza przedsiębiorcy, którzy brak odpowiedniego ustawodawstwa i jasnych zasad odpowiedzialności za błędy AI wskazują jako jedną z największych barier w korzystaniu i wdrażaniu tej technologii.

– Definicja prawna sztucznej inteligencji to jest bardzo soczysty temat, ponieważ próby jej sklasyfikowania są podejmowane już od dłuższego czasu. Największym wyzwaniem jest kwestia ciągle zmieniającego się otoczenia technicznego, w którym żyjemy. Prawo nie nadąża za technologią i te definicje, nawet jeśli powstają, to szybko się dezaktualizują – mówi agencji Newseria Biznes Marta Kosiedowska, radca prawny i partner w kancelarii act BSWW legal & tax. – Nie oznacza to jednak, że w kwestii regulacji prawnych, które miałyby zastosowanie do sztucznej inteligencji, panuje dziś wolnoamerykanka. To byłoby zbyt dalece idące stwierdzenie. Po pierwsze, takie prawo jest projektowane, prace nad nim są już dość zaawansowane na poziomie europejskim. Po drugie, obecnie obowiązujące regulacje – chociażby w obszarze prawa cywilnego – też mogą znaleźć zastosowanie dla AI – dodaje.

Sztuczna inteligencja jest jednym z głównych elementów unijnej strategii tworzenia jednolitego rynku cyfrowego. W kwietniu 2021 roku Komisja Europejska przedstawiła strategię rozwoju sztucznej inteligencji (AI Package), której częścią jest projekt rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące tej technologii w całej UE. Ma ono stworzyć ramy prawne dla prawidłowo funkcjonującego rynku systemów AI, na którym uwzględnione zostaną zarówno korzyści społeczno-ekonomiczne, jak i zagrożenia, jakie niesie za sobą wykorzystanie tej technologii. Prace nad projektem rozporządzenia dotyczącego sztucznej inteligencji (Artificial Intelligence Act) są już na zaawansowanym etapie, a zgodnie z jego aktualnym brzmieniem nowe przepisy mają być stosowane we wszystkich państwach członkowskich UE po upływie dwóch lat od ich przyjęcia.

– Myślę, że już wkrótce możemy spodziewać się regulacji, które od strony prawnej będą definiowały sztuczną inteligencję, ponieważ projekt rozporządzenia już powstał, jest opracowywany i znajduje się na etapie dalszych prac w komisjach. Tak więc wydaje się, że jest to już kwestia najbliższej przyszłości – mówi Marta Kosiedowska.

Pod koniec września ubiegłego roku Komisja Europejska przyjęła również propozycję dyrektywy dotyczącej odpowiedzialności cywilnej za sztuczną inteligencję (dyrektywa AILD), która po raz pierwszy wprowadza przepisy dotyczące szkód wyrządzonych przez systemy AI. Jej celem jest m.in. ustanowienie szerszej ochrony dla ofiar systemów sztucznej inteligencji i ułatwienie dochodzenia roszczeń o odszkodowanie.

– Mimo że nie ma jeszcze odrębnych regulacji dotyczących odpowiedzialności za sztuczną inteligencję, to są zasady odpowiedzialności cywilnej dotyczące chociażby producentów i osób, które wprowadzają do obrotu produkty niebezpieczne, jak również ogólne zasady odpowiedzialności za winę. To oznacza, że w zależności od sytuacji, która doprowadziła do powstania szkody w związku z użyciem maszyny opartej na technologii sztucznej inteligencji, np. samochodu autonomicznego, możemy mówić albo o odpowiedzialności podmiotu, który wprowadza do obrotu taki produkt, albo użytkownika. O ile odpowiedzialność producenta należałoby w takich przypadkach rozpatrywać na zasadzie pewnego ryzyka odpowiedzialności za produkt niebezpieczny, która już jest sklasyfikowana przez Kodeks cywilny, o tyle odpowiedzialność użytkownika – na zasadach winy – wyjaśnia prawniczka.

AILD ma uregulować odpowiedzialność za szkody spowodowane przez systemy AI powstałe w wyniku losowych zdarzeń czy incydentów między podmiotami, których nie wiązała umowa. Przykładem takiej sytuacji może być chociażby potrącenie przez samochód autonomiczny pieszego na pasach albo zniszczenie cennej paczki przez drona sterowanego AI. Dyrektywa nie będzie jednak regulować odpowiedzialności kontraktowej między podmiotami, które wiązała umowa (np. jeśli firma kupi od dostawcy usług IT system sztucznej inteligencji, który zawiedzie).

– Międzynarodowa instytucja stanowiąca prawo AI to jest zagadnienie z punktu widzenia prawnego dość trudne, ponieważ w obecnym porządku prawnym mamy określone instytucje, które mogą to prawo tworzyć, czy na płaszczyźnie narodowej, czy ponadnarodowej, np. w Unii Europejskiej. Natomiast na pewno takie instytucje są potrzebne, jeśli chodzi o kwestie monitoringu, nadzoru, implementowania prawa. Projekt rozporządzenia w sprawie harmonizacji sztucznej inteligencji przewiduje nawet powstanie takiej instytucji, Europejskiej Rady ds. Sztucznej Inteligencji, ale nie jako organu prawotwórczego, bo inne organy Unii Europejskiej są odpowiedzialne za tworzenie prawa, ale bardziej organu nadzorczego, opiniotwórczego, spinającego działanie organów narodowych, inspirującego zmiany w prawie i projekty dotyczące aktów prawnych, natomiast na pewno nie jako instytucja, która stanowiłaby prawo – mówi Marta Kosiedowska. 

(AM, źródło: UE)