Złośliwe wykorzystanie sztucznej inteligencji
poniedziałek, 14 maja 2018 08:27

Świat musi przygotować się na potencjalne złośliwe wykorzystywanie sztucznej inteligencji przez państwa prowadzące awanturniczą politykę, przestępców i terrorystów – wynika z raportu grupy 26 ekspertów ds. bezpieczeństwa.

Raport „Złośliwe wykorzystanie sztucznej inteligencji: przewidywanie, zapobieganie i łagodzenie skutków” zaleca interwencje mające zmniejszyć zagrożenia stwarzane przez złośliwe wykorzystanie AI – podaje portal Insurance Journal.

Przewidując w ciągu najbliższych dziesięciu lat gwałtowny wzrost cyberprzestępczości i wykorzystywanie w złej wierze dronów, jak również bezprecedensowe nasilenie się wykorzystywania botów do manipulowania wszystkim, od wyborów po agencje informacyjne i media społecznościowe, raport wzywa rządy państw i korporacje na całym świecie do przeciwdziałania zagrożeniu nieodłącznemu od ogromnej liczby zastosowań sztucznej inteligencji.

Sztuczna inteligencja ma wiele pozytywnych zastosowań, ale jest technologią podwójnego zastosowania (do celów cywilnych i militarnych), więc badacze i inżynierowie powinni wykazywać się postawą proaktywną wobec możliwości jej szkodliwego wykorzystania, czyli przewidywać takowe i temu przeciwdziałać. Zdaniem autorów raportu, politycy i naukowcy muszą teraz współpracować, dążąc do zrozumienia i przygotowania się na złośliwe wykorzystanie sztucznej inteligencji. Radzą oni wzorowanie się na najlepszych praktykach dyscyplin mających dłuższą historię radzenia sobie z ryzykami podwójnego zastosowania, takimi jak bezpieczeństwo cyfrowe. Zauważają też, że krąg interesariuszy angażujących się w zapobieganie i łagodzenie ryzyk złośliwego wykorzystania AI powinien zostać poszerzony.

Współautorzy raportu reprezentują szereg organizacji i dyscyplin, m.in. Instytut Przyszłości Ludzkości Uniwersytetu w Oksfordzie, Ośrodek Badań nad Ryzykiem Egzystencjalnym Uniwersytetu Cambridge, Open AI, czołową firmę non-profit prowadzącą badania nad sztuczną inteligencją, Electronic Frontier Foundation, międzynarodową grupę non-profit na rzecz praw cyfrowych, Center for a New American Security, think tank do spraw bezpieczeństwa narodowego i inne organizacje.
100-stronicowy raport identyfikuje trzy obszary bezpieczeństwa – cyfrowe, fizyczne i polityczne – jako szczególnie istotne w kontekście złośliwego wykorzystania AI i sugeruje, że pozwala ona na przeprowadzanie precyzyjnie wycelowanych i wysoce skutecznych ataków na wielką skalę.

Autorzy raportu spodziewają się nowych typów cyberataków z posługiwaniem się automatycznym hakerstwem, syntezatorami mowy, spamami precyzyjnie adresowanymi dzięki informacjom wyłuskanym z mediów społecznościowych lub wykorzystaniem słabych punktów samych systemów AI (np. zniekształcanie danych).

Podobnie, upowszechnianie się dronów i systemów cyfrowo-fizycznych pozwoli napastnikom wykorzystywać takie systemy do czynienia szkód, np. powodowania wypadków flot pojazdów autonomicznych, przekształcania komercyjnych dronów w pociski sterowane lub blokowanie krytycznej infrastruktury dla okupu. Autonomiczne systemy broni na polu walki grożą utratą kontroli przez człowieka i są kuszącym celem ataku.

W sferze politycznej szczegółowa analityka, ukierunkowana propaganda i tanie fake newsy w postaci wiarygodnych materiałów wideo są potężnymi narzędziami manipulowania opinią publiczną na niewyobrażalną wcześniej skalę. Możliwość gromadzenia, analizowania i oddziaływania na informacje o obywatelach za pomocą AI może wynieść na nowy poziom inwigilację, naruszać prywatność i grozić radykalną zmianą układu sił między jednostkami, korporacjami i państwami.

Aby łagodzić tego rodzaju ryzyka, autorzy proponują działania zmniejszające zagrożenia związane z wykorzystaniem AI w złej wierze. Zaliczają się do nich ponowne przemyślenie kwestii bezpieczeństwa cybernetycznego, eksplorowanie różnych modeli otwartości w udostępnianiu informacji, promowanie kultury odpowiedzialności i poszukiwanie zarówno instytucjonalnych, jak i technologicznych rozwiązań chroniących przed atakami.

Często systemy AI nie tylko dorównują ludzkiemu poziomowi, ale go znacznie przewyższają. To niepokojące, jednak konieczne, aby rozważyć implikacje nadludzkich zdolności hakerstwa, inwigilacji, perswazji i identyfikacji celu, jak również tych zdolności, które nie dorównują ludzkim, niemniej jednak są dużo bardziej skalowalne niż ludzka praca – podkreślił Miles Brundage z Uniwersytetu w Oksfordzie.
AC

 

PZUW: Jakub Papuga zatwierdzony jako członek zarządu ds. ryzyka

18 maja na trzysta dziewięćdziesiątym posiedzeniu Komisja Nadzoru Finansowego (KNF) jednogłośnie wyraziła zgodę na powołanie Jakuba Papugi na...


czytaj dalej

MediSky: Arkadiusz Piątek nowym dyrektorem generalnym na Polskę

Firma MediSky International mianowała Arkadiusza Piątka nowym dyrektorem generalnym na Polskę. Będzie on odpowiedzialny za wypracowanie...


czytaj dalej

KE: Propozycje zmian w dyrektywie komunikacyjnej

24 maja Komisja Europejska (KE) zaproponowała dokonanie korekt w przepisach Unii Europejskiej (UE) dotyczących ubezpieczeń pojazdów. Celem zmian...


czytaj dalej

Lloyd’s: Licencja dla brukselskiej spółki zależnej

23 maja Lloyd’s poinformował o uzyskaniu licencji Narodowego Banku Belgii dla Lloyd’s Insurance Company (Lloyd’s Brussels). Nowa spółka zależna...


czytaj dalej

Dostawcy i kierowcy Uber pod ochroną AXA

Partner Promotion – taką nazwę nosi katalog bezpłatnych ubezpieczeń dla kierowców i dostawców z Polski i innych krajów europejskich, wprowadzony...


czytaj dalej

Rynek ubezpieczeń: Lamparty dla PZU i Link4

Lamparty 2018 wręczone. Tytuł najbardziej podziwianej kreacji marki ubezpieczeniowej po raz kolejny trafił do PZU. Drugie miejsce zajęła Aviva, a...


czytaj dalej

 

Adres redakcji

ul. Bracka 3 lok. 4
00-501 Warszawa
tel. (22) 628 26 31

email redakcja@gu.com.pl

Gazeta

Prenumerata
E-wydanie

Firma

Redakcja
Reklama

Ogłoszenia

Podcast

Kursy on-line
Zamów newsletter
Facebook