Reklama

Złośliwe wykorzystanie sztucznej inteligencji
poniedziałek, 14 maja 2018 08:27

Świat musi przygotować się na potencjalne złośliwe wykorzystywanie sztucznej inteligencji przez państwa prowadzące awanturniczą politykę, przestępców i terrorystów – wynika z raportu grupy 26 ekspertów ds. bezpieczeństwa.

Raport „Złośliwe wykorzystanie sztucznej inteligencji: przewidywanie, zapobieganie i łagodzenie skutków” zaleca interwencje mające zmniejszyć zagrożenia stwarzane przez złośliwe wykorzystanie AI – podaje portal Insurance Journal.

Przewidując w ciągu najbliższych dziesięciu lat gwałtowny wzrost cyberprzestępczości i wykorzystywanie w złej wierze dronów, jak również bezprecedensowe nasilenie się wykorzystywania botów do manipulowania wszystkim, od wyborów po agencje informacyjne i media społecznościowe, raport wzywa rządy państw i korporacje na całym świecie do przeciwdziałania zagrożeniu nieodłącznemu od ogromnej liczby zastosowań sztucznej inteligencji.

Sztuczna inteligencja ma wiele pozytywnych zastosowań, ale jest technologią podwójnego zastosowania (do celów cywilnych i militarnych), więc badacze i inżynierowie powinni wykazywać się postawą proaktywną wobec możliwości jej szkodliwego wykorzystania, czyli przewidywać takowe i temu przeciwdziałać. Zdaniem autorów raportu, politycy i naukowcy muszą teraz współpracować, dążąc do zrozumienia i przygotowania się na złośliwe wykorzystanie sztucznej inteligencji. Radzą oni wzorowanie się na najlepszych praktykach dyscyplin mających dłuższą historię radzenia sobie z ryzykami podwójnego zastosowania, takimi jak bezpieczeństwo cyfrowe. Zauważają też, że krąg interesariuszy angażujących się w zapobieganie i łagodzenie ryzyk złośliwego wykorzystania AI powinien zostać poszerzony.

Współautorzy raportu reprezentują szereg organizacji i dyscyplin, m.in. Instytut Przyszłości Ludzkości Uniwersytetu w Oksfordzie, Ośrodek Badań nad Ryzykiem Egzystencjalnym Uniwersytetu Cambridge, Open AI, czołową firmę non-profit prowadzącą badania nad sztuczną inteligencją, Electronic Frontier Foundation, międzynarodową grupę non-profit na rzecz praw cyfrowych, Center for a New American Security, think tank do spraw bezpieczeństwa narodowego i inne organizacje.
100-stronicowy raport identyfikuje trzy obszary bezpieczeństwa – cyfrowe, fizyczne i polityczne – jako szczególnie istotne w kontekście złośliwego wykorzystania AI i sugeruje, że pozwala ona na przeprowadzanie precyzyjnie wycelowanych i wysoce skutecznych ataków na wielką skalę.

Autorzy raportu spodziewają się nowych typów cyberataków z posługiwaniem się automatycznym hakerstwem, syntezatorami mowy, spamami precyzyjnie adresowanymi dzięki informacjom wyłuskanym z mediów społecznościowych lub wykorzystaniem słabych punktów samych systemów AI (np. zniekształcanie danych).

Podobnie, upowszechnianie się dronów i systemów cyfrowo-fizycznych pozwoli napastnikom wykorzystywać takie systemy do czynienia szkód, np. powodowania wypadków flot pojazdów autonomicznych, przekształcania komercyjnych dronów w pociski sterowane lub blokowanie krytycznej infrastruktury dla okupu. Autonomiczne systemy broni na polu walki grożą utratą kontroli przez człowieka i są kuszącym celem ataku.

W sferze politycznej szczegółowa analityka, ukierunkowana propaganda i tanie fake newsy w postaci wiarygodnych materiałów wideo są potężnymi narzędziami manipulowania opinią publiczną na niewyobrażalną wcześniej skalę. Możliwość gromadzenia, analizowania i oddziaływania na informacje o obywatelach za pomocą AI może wynieść na nowy poziom inwigilację, naruszać prywatność i grozić radykalną zmianą układu sił między jednostkami, korporacjami i państwami.

Aby łagodzić tego rodzaju ryzyka, autorzy proponują działania zmniejszające zagrożenia związane z wykorzystaniem AI w złej wierze. Zaliczają się do nich ponowne przemyślenie kwestii bezpieczeństwa cybernetycznego, eksplorowanie różnych modeli otwartości w udostępnianiu informacji, promowanie kultury odpowiedzialności i poszukiwanie zarówno instytucjonalnych, jak i technologicznych rozwiązań chroniących przed atakami.

Często systemy AI nie tylko dorównują ludzkiemu poziomowi, ale go znacznie przewyższają. To niepokojące, jednak konieczne, aby rozważyć implikacje nadludzkich zdolności hakerstwa, inwigilacji, perswazji i identyfikacji celu, jak również tych zdolności, które nie dorównują ludzkim, niemniej jednak są dużo bardziej skalowalne niż ludzka praca – podkreślił Miles Brundage z Uniwersytetu w Oksfordzie.
AC

 

Personalia: Bartosz Grześkowiak wzmocni Grupę MAK

31 lipca Bartosz Grześkowiak, dyrektor zarządzający TUiR Warta, złożył rezygnację ze sprawowanej funkcji. Swoją karierę będzie kontynuować w...


czytaj dalej

FRRF: Agnieszka Wachnicka nowym prezesem Fundacji

Od września Agnieszka Wachnicka obejmie funkcję prezesa Fundacji Rozwoju Rynku Finansowego (FRRF) – organizacji, której zadaniem jest dbałość o...


czytaj dalej

Aon: organiczny wzrost w rozwiązaniach reasekuracyjnych

Dział rozwiązań reasekuracyjnych Aon odnotował w II kw. 2018 r. organiczny wzrost obrotów o 8%.

Do wzrostu przyczyniło się przede wszystkim...


czytaj dalej

Lloyd’s: Podwójna rola rynku i regulatora

Lloyd’s of London dokonuje przeglądu wszystkich aspektów swojej działalności, w tym liczącej setki lat struktury, aby potwierdzić, że jest...


czytaj dalej

Lekarz w telefonie dostępny też za granicą

Wiedza Polaków na temat możliwości zapewnienia sobie ochrony medycznej na czas zagranicznego wyjazdu systematycznie rośnie. Pokazują to badania...


czytaj dalej

MetLife: Bezpieczne Dziecko Premium ze zniżką

Z myślą o zbliżającym się nowym roku szkolnym MetLife przygotowało specjalną ofertę promocyjną. Klienci, którzy między 9 sierpnia a 13 września...


czytaj dalej

 

Adres redakcji

ul. Bracka 3 lok. 4
00-501 Warszawa
tel. (22) 628 26 31

email redakcja@gu.com.pl

Gazeta

Prenumerata
E-wydanie

Firma

Redakcja
Reklama

Ogłoszenia

Podcast

Kursy on-line
Zamów newsletter
Facebook