Rynek GAI (Generative AI), wyszkolonej na dużych zbiorach danych sztucznej inteligencji, do 2030 roku będzie rósł w tempie 34% rok do roku, osiągając wartość 110 mld USD. Eksperci SAS przypominają, jakie zagrożenia wiążą się z nieodpowiednim wykorzystaniem technologii tworzącej treści audiowizualne, graficzne i tekstowe, uświadamiając biznes, rządy i instytucje międzynarodowe, dlaczego stworzenie ram regulujących etyczne wykorzystanie danych powinno być priorytetem.
Etyka danych jest szczególnie istotna, jeśli weźmie się pod uwagę ilość informacji przetwarzanych przez algorytmy. Według McKinsey & Company model GPT-3 został wytrenowany na około 45 terabajtach danych tekstowych. To około 30 kilometrów powierzchni półek z książkami. Jednak trzeba mieć świadomość, skąd pochodzą treści, na podstawie których działają algorytmy. Firmy gromadzą je ze zróżnicowanych źródeł, systemów i dostawców. W tym celu tworzone są tzw. jeziora danych (ang. data lakes), aby przechowywać informacje o klientach i ich zachowaniach. Terabajty danych konsumenckich kryją w sobie ogromny potencjał, zwłaszcza przy wykorzystaniu odpowiedniej technologii do odkrywania wzorców, zależności i ich analizy. Dlatego potrzebne jest etyczne podejście do tworzenia algorytmów, tak aby dane te mogły zostać użyte tylko w sposób niosący korzyści dla społeczeństwa.
– Wielka moc wymaga wielkiej odpowiedzialności. Najważniejsze jest uświadomienie sobie, że wszyscy tworzymy i konsumujemy dane. Każdy z nas musi być odpowiedzialny za ich etyczne wykorzystanie. Pierwszym krokiem jest zwiększenie ogólnej świadomości na temat zagadnień związanych z etyką danych wewnątrz organizacji. Następnie, poprzez współpracę biznesu z rządami oraz organizacjami, powinniśmy doprowadzić do opracowania systemowych rozwiązań i regulacji, które zagwarantują, że algorytmy, jak każde inne narzędzie będą wykorzystywane w odpowiedzialny sposób, a efekty ich działania będą w pełni wytłumaczalne – powiedział Piotr Rozenbajgier, Data Science & Engineering Lead SAS.
Jasne zasady i regulacje
Zdaniem ekspertów SAS polityka i regulacje związane z AI powinny skupiać się na danych, które leżą u podstaw algorytmów. Kluczowe jest, aby firmy budujące innowacje oparte na sztucznej inteligencji zadbały o ich etyczne gromadzenie oraz wykorzystanie. Organizacje powinny kierować się jasnymi zasadami w tym obszarze. Należy też zwrócić uwagę na konieczność zróżnicowania przepisów. Branże silnie regulowane – takie jak usługi finansowe czy opieka zdrowotna – mają inne priorytety w zakresie przetwarzania i ochrony posiadanych danych. Przykładowo, w bankowości podstawowym celem nie tylko ze względów etycznych, ale i biznesowych będzie zapobieganie wyłudzeniom oraz uniknięcie dyskryminacji klientów.
– Organizacje zmagają się z rozpoczęciem „projektów” etyki danych. Teoria jest znacznie łatwiejsza niż praktyka, szczególnie w przypadku korporacji. Duże firmy mają więcej problemów związanych z danymi, ponieważ filozofia zastosowania informacji nie jest jednolita w całej organizacji. Nie powinniśmy traktować na tym samym poziomie danych pochodzących z urządzeń IoT z domu co danych medycznych czy finansowych. Rzeczywistość jest taka, że nie wiemy, jak te zbiory zostaną wykorzystywane w przyszłości. Wystarczy wyobrazić sobie, że wykorzystujemy dane pochodzące z inteligentnych piekarników i lodówek do badania nawyków żywieniowych pod kątem ubezpieczeń na życie. Proste dane szybko stają się bardzo wrażliwe. Dlatego tak ważne jest, aby postępować z nimi w sposób etyczny – kontynuuje Piotr Rozenbajgier.
Stworzenie jednakowych ram i regulacji wymaga jednak wspólnego wysiłku twórców i użytkowników AI, a także decydentów, naukowców, badaczy i organizacji społecznych. SAS proponuje rozważenie modelu opartego na zasadach humanocentryczności, przejrzystości, prywatności, bezpieczeństwa, inkluzyjności i odpowiedzialności jako punkt wyjścia dla odpowiedzialnego wykorzystania rozwiązań Generative AI.
(AM, źródło: SAS)