Czy androidy śnią o elektrycznych owcach?

0
491

Termin „sztuczna inteligencja” (AI) został użyty po raz pierwszy przez amerykańskiego informatyka Johna McCarthy’ego w 1956 r. Odkąd ten temat na dobre zagościł w głównym nurcie kinowej popkultury, niemal codziennie jesteśmy karmieni wizjami upadku ludzkości na skutek działania inteligentnych maszyn. Nic więc dziwnego, że wciąż zastanawiamy się nad potencjalnymi zagrożeniami, jakie AI może ze sobą przynieść.

Szczególnie oczekuje się, że podobnie jak wcześniej elektryczność, komputery i internet, AI będzie miała zastosowania w każdej dziedzinie życia, łącznie z cyberprzestępczością. A jakie zagrożenia stwarza AI?

Przypadkowa stronniczość jest dość powszechna w jej przypadku i może być zaszczepiona przez programistów lub konkretne zestawy danych. Jeśli ta stronniczość prowadzi do błędnych decyzji lub do dyskryminacji, mogą pojawić się konsekwencje prawne i utrata reputacji.

Wadliwie zaprojektowana AI może również wykraczać poza potrzeby zamawiającego lub nie spełniać stawianych jej wymogów, w wyniku czego będzie podejmowała decyzje zbyt szczegółowe lub zbyt ogólne.

Zagrożenia te można ograniczyć poprzez ustanowienie nadzoru ze strony człowieka, rygorystyczne testowanie systemów AI w fazie projektowania oraz ścisłe monitorowanie tych systemów po ich uruchomieniu. Zdolności decyzyjne muszą być mierzone i oceniane, by zapewnić szybkie reagowanie na wszelkie pojawiające się przypadki stronniczości lub podejmowania wątpliwych decyzji.

Ile inteligencji jest w AI

Wykorzystanie AI do niecnych celów może być wręcz alarmująco proste. Atakujący mogą manipulować zbiorami danych wykorzystywanymi do szkolenia AI, dokonując zmian parametrów lub opracowując scenariusze, które nie będą wzbudzać podejrzeń, jednocześnie stopniowo kierując AI w pożądanym kierunku. Modyfikując dane wejściowe, można doprowadzić do sytuacji, w których AI będzie dokonywać błędnych klasyfikacji.

Sprawdzanie jakości danych może okazać się niemożliwe, dlatego należy dołożyć starań, by pochodziły one z zaufanych źródeł. Należy też umożliwić systemom identyfikację wszelkich anomalii, dostarczając AI negatywnych przykładów, by umożliwić jej rozpoznawanie danych szkodliwych oraz izolować AI za pomocą mechanizmów zabezpieczających, które ułatwią jej wyłączenie, jeśli sprawy przybiorą niekorzystny obrót.

Znacznie trudniejszym problemem do rozwiązania są sytuacje, kiedy atakujący próbują odtworzyć działanie AI, by dowiedzieć się, jakie informacje zostały wykorzystane do jej szkolenia. Mogą dzięki temu uzyskać dostęp do wrażliwych danych, utorować drogę do przejęcia lub umożliwić replikację i wykorzystanie AI do własnych celów.

AI jako broń

Badanie przeprowadzone w 2020 r. przez Europol oraz producenta oprogramowania zabezpieczającego Trend Micro wykazało, w jaki sposób cyberprzestępcy wykorzystują AI, by zwiększyć skuteczność swoich ataków. Jednym z przykładów było wykorzystanie jej do tworzenia złośliwych wiadomości e-mail, które mogą ominąć filtry antyspamowe.

W 2015 r. naukowcy odkryli system, który wykorzystywał „gramatykę generatywną” do tworzenia zbiorów tekstów wiadomości e-mail. Teksty te były wykorzystywane do ogłupiania systemów antyspamowych poprzez dostosowywanie się do ich filtrów w celu zidentyfikowania treści, które nie byłyby już przez nie wykrywane.

Istnieje także możliwość wykorzystania AI do identyfikacji luk w sieciach, urządzeniach i aplikacjach w miarę ich pojawiania się. Taka identyfikacja ułatwia zadanie hakerom i utrudnia pracę specjalistom ds. bezpieczeństwa IT. Badacze zademonstrowali złośliwe oprogramowanie, które wykorzystuje AI do znajdowania słabych punktów w algorytmie wykrywania takiego oprogramowania. Niezbędne staje się więc monitorowanie aktywności w sieciach w czasie rzeczywistym oraz bezzwłoczne wprowadzanie poprawek oprogramowania, pozwalających uniknąć zagrożeń.

AI może być wykorzystywana do wspierania innych technik hakerskich, np. odgadywania haseł. Niektóre narzędzia wykorzystują AI do analizowania zbiorów haseł pochodzących z wycieków danych i ataków hakerskich na strony WWW, w jaki sposób ludzie modyfikują swoje hasła w miarę upływu czasu – na przykład dodając cyfry na końcu lub zamieniając „a” na „@”.

Trwają również prace nad wykorzystaniem uczenia maszynowego do łamania kodów CAPTCHA (Completely Automated Public Turing Test to Tell Computers and Humans Apart – rodzaj zabezpieczenia, którego zadaniem jest ochrona przed spamem oraz powstrzymanie automatów, zwanych botami, przed wprowadzaniem jakichkolwiek danych do serwisów internetowych i upewnianie się, że użytkownik jest człowiekiem).

Oprócz opisanych metod cyberprzestępcy wykorzystują AI, by zautomatyzować i zoptymalizować swoje działania. Według Billa Connera, dyrektora generalnego SonicWall, nowoczesne kampanie cyberprzestępcze obejmują mieszankę złośliwego oprogramowania, ransomware-as-a-service dostarczanego z chmury oraz AI, bez której złożone ataki nie byłyby możliwe na taką skalę.

AI i inżynieria społeczna

Inne zastosowania AI w cyberprzestępczości koncentrują się na inżynierii społecznej. By wzmocnić skalę i skuteczność ataków opartych na socjotechnice, cyberprzestępcy wykorzystują AI do zbierania informacji o swoich ofiarach. Obejmuje to identyfikację profili ofiary w mediach społecznościowych. Po zidentyfikowaniu ofiary cyberprzestępcy wykorzystują AI, by ją oszukać. Obejmuje to tworzenie fałszywych obrazów, dźwięku, a nawet wideo, by ofiara myślała, że wchodzi w interakcję z kimś, komu ufa.

Jedno z narzędzi, zidentyfikowane przez Europol, klonuje głos w czasie rzeczywistym. Dzięki pięciosekundowemu nagraniu hakerzy mogą sklonować dowolny głos i użyć go w celu uzyskania dostępu do usług lub oszukania innych osób.

Przyszłość cyberprzestępczości opartej na AI…

Przewiduje się, że wykorzystanie AI przez cyberprzestępców będzie rosło wraz z upowszechnieniem się tej technologii. Eksperci przewidują, że pozwoli im to przeprowadzać cyberataki na znacznie większą skalę, niż jest to obecnie możliwe, ponieważ AI będzie mogła przeanalizować znacznie większą ilość danych w celu identyfikacji potencjalnych ofiar i słabych punktów w systemach IT oraz zaatakować większą liczbę ofiar jednocześnie.

AI może nauczyć się także dostrzegać określone wzorce zachowań, przez co będzie wiedziała, w jaki sposób uwiarygodnić się przed użytkownikiem i nakłonić go do przekazania wrażliwych danych. Cyberprzestępcy będą w stanie generować treści, za pomocą których będą mogli wpływać na zachowania ludzi.

Wraz z ewolucją zdolności AI do naśladowania ludzkich zachowań będzie ewoluowała również jej zdolność do łamania biometrycznych systemów bezpieczeństwa. AI będzie również mogła odtworzyć realistyczne zachowanie użytkownika, np. aktywność w określonych godzinach, by skradzione konta nie były oznaczane przez behawioralne systemy bezpieczeństwa.

Wreszcie AI umożliwi cyberprzestępcom lepsze wykorzystanie zaatakowanych urządzeń IoT, włączając je do botnetów (sieć komputerów zainfekowanych złośliwym oprogramowaniem), przez co będą jeszcze niebezpieczniejsze.

…i jak się na nią przygotować

Ochrona przed cyberprzestępczością wykorzystującą AI będzie wymagać reakcji na poziomie indywidualnym, organizacyjnym i ogólnospołecznym.

Pracownicy będą musieli zostać przeszkoleni w zakresie identyfikowania nowych zagrożeń. Ludzie są przyzwyczajeni do ataków nadchodzących w określony sposób. Nie są przyzwyczajeni do jednorazowych wypadków, np. do czegoś, co pojawia się losowo podczas rozmowy w sieci lub w wiadomości na komunikatorze, więc nie są przygotowani na takie okoliczności.

Organizacje także będą musiały stosować AI, by sprostać skali i wyrafinowaniu przyszłych zagrożeń.

Sposób, w jaki AI jest rozwijana i komercjalizowana, będzie wymagał odpowiedniego zarządzania, by cyberprzestępcy nie mogli jej przejąć.

Najwyższy czas, by przygotować się na powszechną cyberprzestępczość opartą na AI. Dobrze byłoby, gdyby elementem tych przygotowań był zakup polisy cyber, w czym pomoże wyspecjalizowany pośrednik ubezpieczeniowy.

I’ll be back…

Łukasz Cichowski
starszy broker
MAI Insurance Brokers Poland