Spór o sztuczną inteligencję

0
770

Podczas gdy wykorzystywanie sztucznej inteligencji (AI) z korzyścią dla konsumentów i społeczeństwa deklarują niemal trzy na cztery firmy, to w zapewnienia te wierzy jedynie 44% legislatorów, regulatorów i ekspertów – wynika z globalnego badania „AI Ethics Study” przeprowadzonego przez EY i The Future Society. Rozbieżne opinie dotyczą również kwestii legislacyjnych i ryzyk dostrzeganych na gruncie etycznym.

Bezstronność i unikanie uprzedzeń są zdecydowanie najważniejsze zdaniem decydentów pytanych o najważniejsze do rozstrzygnięcia kwestie etyczne przy wykorzystaniu sztucznej inteligencji w rozwiązaniach rozpoznających twarz (na przykład w celu weryfikacji na lotniskach, w bankach czy hotelach). Nie jest to jednak kwestia, która znalazła się na liście priorytetów firm. W ich zestawieniu najbardziej istotnych wyzwań, kwestie uprzedzeń i bezstronności znalazły się dopiero na szóstym miejscu (1,34 pkt). Najistotniejsza w opinii firm jest natomiast prywatność i prawa do danych. To zagadnienie znalazło się również wysoko – bo na drugim miejscu – wśród decydentów, choć zdecydowanie inaczej rozłożyły się punktacje. Decydenci ocenili ważność tej kwestii na 3,09 pkt, a firmy na 1,88 pkt.

Bezpieczeństwo i ochrona to z kolei druga pod względem ważności etyczna kwestia, która zdaniem firm wymaga uwagi przy rozwiązaniach wykorzystujących sztuczną inteligencję do rozpoznawania twarzy. Pierwszą trójkę priorytetów dla obu badanych grup zamyka transparentność.

Firmy i decydenci nie tylko wskazują inne najważniejsze w ich odczuciu kwestie do uregulowania w zakresie zastosowania sztucznej inteligencji, w badaniu widać również, że inaczej podchodzą do wyzwań etycznych stawianych przez AI. Podczas gdy decydenci wyraźnie identyfikują kilka najważniejszych do uregulowania obszarów i nadają im największą wagę, firmy nie polaryzują tak wyraźnie wyzwań – nadając każdemu z nich podobną ważność.

– W skali globalnej nad wykorzystaniem sztucznej inteligencji w swoich przedsięwzięciach pracuje obecnie prawie 70% firm. Chcą one przede wszystkim oferować najnowocześniejsze i najbardziej innowacyjne rozwiązania, dlatego skupiają się głównie na ich efektywności i wartości, które niosą dla użytkownika końcowego. Firmom trudno więc priorytetyzować którekolwiek z wyzwań etycznych, ponieważ wszystkie – zarówno kwestie bezstronności czy uprzedzeń, ale i zabezpieczeń danych są równie istotne. Definiując wyzwania etyczne, przedsiębiorcy mają na uwadze kwestie techniczne, implementacyjne i biznesowe, które nie znajdują się na radarach decydentów. Co więcej, badanie EY pokazuje, że 66% decydentów uważa, że regulatorzy nie rozumieją złożoności technologii opartej na sztucznej inteligencji i wyzwań biznesowych z nią związanych. Rozdźwięk między ryzykami dostrzeganymi przez legislatorów i regulatorów a firmami wynika więc przede wszystkim z innej perspektywy postrzeganych wyzwań. Trzeba pamiętać, że decydenci patrzą na nie zdecydowanie szerzej, mając na uwadze szerszą grupę interesariuszy. Firmy koncentrują się przede wszystkim na wyzwaniach dla nich samych i branż, w których działają. Patrzą na te kwestie również w innym horyzoncie czasowym – nie ma wątpliwości co do tego, że firmy szukają rozwiązań tu i teraz, odpowiadających na obecne wyzwania, podczas gdy legislatorzy i regulatorzy posługują się zdecydowanie bardziej odległym horyzontem czasowym  – mówi Justyna Wilczyńska-Baraniak, Lider Zespołu Własności Intelektualnej, Technologii i Danych Osobowych Kancelaria EY Law.

Różne punkty widzenia na najistotniejsze do rozwiązania kwestie etyczne związane z rozwojem sztucznej inteligencji to istotne wyzwanie legislacyjne. 55% ankietowanych przedsiębiorców wykorzystujących technologię AI oczekuje, że zostanie stworzony jeden zestaw uniwersalnych zasad, na który zgodzi się większość krajów i który będzie łatwy do zaimplementowania, niezależnie od jurysdykcji. Tak optymistyczni nie są jednak ci, którzy te zasady będą tworzyć. Tylko 21% decydentów spodziewa się takiego rozwiązania, natomiast większość (66%) uważa, że jeden zestaw uniwersalnych zasad powstanie, ale poszczególne kraje będą go implementować w zależności od własnych uwarunkowań. Ankietowani przedstawiciele firm niemal dwukrotnie częściej niż przedstawiciele legislatorów i regulatorów wskazywali również, że poszczególne kraje bądź regiony stworzą własne zasady etyczne.

Co więcej, 6 na 10 przedstawicieli firm uważa, że znacznie korzystniejszym rozwiązaniem byłoby stworzenie tych zasad przez samych zainteresowanych, czyli firmy i branże, które sztuczną inteligencję wykorzystują na co dzień w swojej działalności. Z taką tezą zgadza się natomiast wyłącznie 24% decydentów.

– Przedsiębiorcy często uważają, że prawo nie nadąża za rozwojem nowych technologii. Mówią tak również gremialnie (90%) polskie firmy, które były pytane o to w badaniu przeprowadzonym kilka miesięcy temu przez EY Law. Co więcej, to właśnie sztuczna inteligencja wskazywana jest jako największe wyzwanie prawne. To efekt braku przepisów – nawet w zakresie samej definicji sztucznej inteligencji – które w sposób jasny regulowałyby kwestie związane z tą technologią. Mimo wszystko w odniesieniu do sztucznej inteligencji mogą mieć zastosowanie  regulacje dotyczące ochrony danych i prywatności, ochrony konsumentów czy przepisy w zakresie bezpieczeństwa produktów i odpowiedzialności. To jednak regulacje ogólne  rozproszone i często niejednoznaczne. Wydaje się więc, że wymarzonym rozwiązaniem byłoby wspólne wypracowywanie rozwiązań zabezpieczających jak najszerszą grupę interesariuszy i beneficjentów sztucznej inteligencji, mających na uwadze potrzeby każdej z nich – mówi Justyna Wilczyńska-Baraniak.

Chociaż zarówno decydenci, jak i firmy zgadzają się, że konieczne jest wielostronne podejście do zagadnienia sztucznej inteligencji, nie ma jednak porozumienia, kto powinien przewodzić tym pracom. 38% ankietowanych firm spodziewa się, że będzie to sektor prywatny, z czym zgadza się tylko 6% decydentów.

Metodologia badania

Badanie EY i The Future Society zostało przeprowadzone pod koniec 2019 i na początku 2020 roku w 55 krajach, wśród 71 legislatorów, regulatorów i doradców w zakresie sztucznej inteligencji oraz 284 firm wykorzystujących tę technologię. Ankietowani proszeni byli o wskazanie i uszeregowanie 11 najważniejszych zagadnień etycznych w odniesieniu do 12 rozwiązań technologicznych wykorzystujących sztuczną inteligencję.

(AM, źródło: EY)