Reklama

Złośliwe wykorzystanie sztucznej inteligencji
poniedziałek, 14 maja 2018 08:27

Świat musi przygotować się na potencjalne złośliwe wykorzystywanie sztucznej inteligencji przez państwa prowadzące awanturniczą politykę, przestępców i terrorystów – wynika z raportu grupy 26 ekspertów ds. bezpieczeństwa.

Raport „Złośliwe wykorzystanie sztucznej inteligencji: przewidywanie, zapobieganie i łagodzenie skutków” zaleca interwencje mające zmniejszyć zagrożenia stwarzane przez złośliwe wykorzystanie AI – podaje portal Insurance Journal.

Przewidując w ciągu najbliższych dziesięciu lat gwałtowny wzrost cyberprzestępczości i wykorzystywanie w złej wierze dronów, jak również bezprecedensowe nasilenie się wykorzystywania botów do manipulowania wszystkim, od wyborów po agencje informacyjne i media społecznościowe, raport wzywa rządy państw i korporacje na całym świecie do przeciwdziałania zagrożeniu nieodłącznemu od ogromnej liczby zastosowań sztucznej inteligencji.

Sztuczna inteligencja ma wiele pozytywnych zastosowań, ale jest technologią podwójnego zastosowania (do celów cywilnych i militarnych), więc badacze i inżynierowie powinni wykazywać się postawą proaktywną wobec możliwości jej szkodliwego wykorzystania, czyli przewidywać takowe i temu przeciwdziałać. Zdaniem autorów raportu, politycy i naukowcy muszą teraz współpracować, dążąc do zrozumienia i przygotowania się na złośliwe wykorzystanie sztucznej inteligencji. Radzą oni wzorowanie się na najlepszych praktykach dyscyplin mających dłuższą historię radzenia sobie z ryzykami podwójnego zastosowania, takimi jak bezpieczeństwo cyfrowe. Zauważają też, że krąg interesariuszy angażujących się w zapobieganie i łagodzenie ryzyk złośliwego wykorzystania AI powinien zostać poszerzony.

Współautorzy raportu reprezentują szereg organizacji i dyscyplin, m.in. Instytut Przyszłości Ludzkości Uniwersytetu w Oksfordzie, Ośrodek Badań nad Ryzykiem Egzystencjalnym Uniwersytetu Cambridge, Open AI, czołową firmę non-profit prowadzącą badania nad sztuczną inteligencją, Electronic Frontier Foundation, międzynarodową grupę non-profit na rzecz praw cyfrowych, Center for a New American Security, think tank do spraw bezpieczeństwa narodowego i inne organizacje.
100-stronicowy raport identyfikuje trzy obszary bezpieczeństwa – cyfrowe, fizyczne i polityczne – jako szczególnie istotne w kontekście złośliwego wykorzystania AI i sugeruje, że pozwala ona na przeprowadzanie precyzyjnie wycelowanych i wysoce skutecznych ataków na wielką skalę.

Autorzy raportu spodziewają się nowych typów cyberataków z posługiwaniem się automatycznym hakerstwem, syntezatorami mowy, spamami precyzyjnie adresowanymi dzięki informacjom wyłuskanym z mediów społecznościowych lub wykorzystaniem słabych punktów samych systemów AI (np. zniekształcanie danych).

Podobnie, upowszechnianie się dronów i systemów cyfrowo-fizycznych pozwoli napastnikom wykorzystywać takie systemy do czynienia szkód, np. powodowania wypadków flot pojazdów autonomicznych, przekształcania komercyjnych dronów w pociski sterowane lub blokowanie krytycznej infrastruktury dla okupu. Autonomiczne systemy broni na polu walki grożą utratą kontroli przez człowieka i są kuszącym celem ataku.

W sferze politycznej szczegółowa analityka, ukierunkowana propaganda i tanie fake newsy w postaci wiarygodnych materiałów wideo są potężnymi narzędziami manipulowania opinią publiczną na niewyobrażalną wcześniej skalę. Możliwość gromadzenia, analizowania i oddziaływania na informacje o obywatelach za pomocą AI może wynieść na nowy poziom inwigilację, naruszać prywatność i grozić radykalną zmianą układu sił między jednostkami, korporacjami i państwami.

Aby łagodzić tego rodzaju ryzyka, autorzy proponują działania zmniejszające zagrożenia związane z wykorzystaniem AI w złej wierze. Zaliczają się do nich ponowne przemyślenie kwestii bezpieczeństwa cybernetycznego, eksplorowanie różnych modeli otwartości w udostępnianiu informacji, promowanie kultury odpowiedzialności i poszukiwanie zarówno instytucjonalnych, jak i technologicznych rozwiązań chroniących przed atakami.

Często systemy AI nie tylko dorównują ludzkiemu poziomowi, ale go znacznie przewyższają. To niepokojące, jednak konieczne, aby rozważyć implikacje nadludzkich zdolności hakerstwa, inwigilacji, perswazji i identyfikacji celu, jak również tych zdolności, które nie dorównują ludzkim, niemniej jednak są dużo bardziej skalowalne niż ludzka praca – podkreślił Miles Brundage z Uniwersytetu w Oksfordzie.
AC

 

Ubezpieczenia Pocztowe: Nominacja Angeliki Hruban zatwierdzona przez KNF

15 stycznia Komisja Nadzoru Finansowego (KNF) jednogłośnie wyraziła zgodę na powołanie Angeliki Hruban na stanowisko członka zarządu Pocztowego...


czytaj dalej

Prezes PIU członkiem Rady Konsultacyjnej ds. PPK

Polski Fundusz Rozwoju (PFR) powołał Radę Konsultacyjną do spraw Pracowniczych Planów Kapitałowych (PPK). W jej skład wszedł Jan Grzegorz...


czytaj dalej

UKNF: Brytyjski nadzór uruchomił nabór notyfikacji w ramach TPR

Urząd Komisji Nadzoru Finansowego (UKNF) poinformował, że brytyjski organ nadzoru finansowego Financial Conduct Authority (FCA) uruchomił nabór...


czytaj dalej

Insurance Europe: Wniosek KE może być wyrokiem na polisy telematyczne

Choć Insurance Europe (IE) deklaruje zadowolenie z wniosku Komisji Europejskiej (KE) dotyczącego rozporządzenia w sprawie e-prywatności, mającego...


czytaj dalej

Rozmowy bez Asekuracji: Jak wybrać odpowiednią polisę na zimowy wyjazd?

W 49. odcinku podcastu ubezpieczeniowego „Rozmowy bez Asekuracji”, zatytułowanym „Jak wybrać odpowiednią polisę na zimowy wyjazd?” tematem rozmowy...


czytaj dalej

Reso/Balcia: Podsumowanie ubiegłego roku

Reso Europa Service oraz Balcia Insurance SE podsumowały miniony rok. Do najważniejszych zjawisk oraz przedsięwzięć zrealizowanych na przestrzeni...


czytaj dalej

 

Adres redakcji

ul. Bracka 3 lok. 4
00-501 Warszawa
tel. (22) 628 26 31

email redakcja@gu.com.pl

Gazeta

Prenumerata
E-wydanie

Firma

Redakcja
Reklama

Ogłoszenia

Podcast

Kursy on-line
Zamów newsletter
Facebook