Rozporządzenie Parlamentu Europejskiego i Rady UE w sprawie przepisów dotyczących sztucznej inteligencji, często określane jako AI Act, stanowi kluczowy element unijnej strategii regulacyjnej w obszarze nowoczesnych technologii. Unia dąży do ustanowienia kompleksowych ram prawnych, które mają zagwarantować bezpieczne i etyczne wykorzystywanie AI.
Celem tych przepisów jest nie tylko ochrona praw obywateli, ale także wspieranie innowacji i konkurencyjności europejskiego przemysłu technologicznego. Rozporządzenie to jest odpowiedzią na globalne wyzwania związane z AI, podkreśla jednocześnie wartość europejskich standardów w zakresie praw człowieka, prywatności i przejrzystości – powyższy wstęp został wygenerowany przez chat GPT.
12 lipca 2024 r. opublikowano Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13 czerwca 2024 r. (AI Act), którego głównym celem jest regulacja w zakresie rozwoju, wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji w Unii, zgodnie z jej wartościami. Jest to pierwszy akt, który daje nam długo wyczekiwaną definicję legalną systemu AI.
Rozporządzenie definiuje system AI, w taki sposób, aby dało się go odróżnić od innych, prostszych systemów oprogramowania na podstawie cech systemu AI. Za najważniejszą cechę uznano zdolność wnioskowania. Oznacza to, że na podstawie dostarczonych danych można uzyskać wyniki, tj. predykcje, treści, zalecenia lub decyzje. W definicji zwrócono uwagę, że systemy AI mogą mieć różny stopień autonomii po jego wdrożeniu, a zaangażowanie człowieka w jego działanie zależeć będzie od jego zaprojektowania.
Jako „podmiot stosujący” system sztucznej inteligencji wyróżnia się osoby fizyczne i prawne, które wykorzystują systemy, z wyłączeniem użycia do prywatnej aktywności niezwiązanej z działalnością zawodową.
Problemy systemów sztucznej inteligencji
Rozporządzenie kładzie nacisk na ochronę zdrowia, bezpieczeństwa, praw podstawowych jednostki oraz demokracji, praworządności i ochrony środowiska przed niekorzystnymi efektami działania systemów sztucznej inteligencji. Zwrócono uwagę, że AI powinna przede wszystkim kierować się polepszeniem jakości życia człowieka.
Systemy AI mogą stanowić duże zagrożenie, dlatego rozporządzenie wprowadza katalog zakazanych praktyk, m.in. zakaz stosowania systemów kategoryzacji biometrycznych, zakaz stosowania systemów AI, w których wykorzystuje się niedopuszczalne praktyki scoringu, zakaz stosowania systemów, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie wizerunków z internetu lub nagrań z telewizji.
Rozporządzenie zakazuje także stosowania systemów AI, które wnioskują na podstawie ludzkich emocji, ale jedynie w miejscu pracy i edukacji. Zakaz ten nie będzie obowiązywał w momencie wprowadzenia na rynek systemu mającego służyć np. prowadzeniu terapii.
Do systemów AI polegających na identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym Unia postanowiła podejść z pewną ostrożnością i co do zasady zakazać stosowania takiego systemu w celu ścigania przestępstw. Jednakże od każdej zasady są wyjątki. W załączniku do rozporządzenia spisano zamknięty katalog przestępstw, gdzie wykorzystanie takich systemów jest bezwzględnie konieczne, a wartość przewyższa ryzyko. Chodzi o najpoważniejsze przestępstwa, których górna granica zagrożenia karą pozbawienia wolności w danym państwie wynosi co najmniej cztery lata.
Nie powinien dziwić fakt, że na systemy AI wysokiego ryzyka zostaną nałożone dodatkowe obowiązki, tj. rejestrowanie zdarzeń w trakcie wykorzystywania danego systemu, konieczność ich programowania w sposób przystępny dla podmiotów z nich korzystających. Oczywiście nie możemy w ich przypadku mówić o całkowitej autonomii, bowiem konieczne jest, aby podlegały nadzorowi człowieka. Dodatkowo podmioty wykorzystujące systemy AI wysokiego ryzyka będą musiały przeprowadzić ocenę skutków dla praw podstawowych.
AI Act a ubezpieczenia
Choć AI Act to dopiero wstęp do kształtowania dalszego ustawodawstwa w zakresie stosowania systemów AI, to jednak odnosi się także do kwestii dotyczącej ubezpieczeń. UE zaklasyfikowała w ramach systemów AI wysokiego ryzyka systemy wykorzystywane przy ocenie ryzyka i ustalaniu cen w odniesieniu do osób fizycznych w przypadku ubezpieczenia na życie i ubezpieczenia zdrowotnego. Jako główny problem wskazano tutaj możliwość znaczącego wpływu na finanse osób. Niewłaściwie zaprojektowane systemy mogą naruszać prawa podstawowe oraz prowadzić do negatywnych skutków dla życia i zdrowia ludzi, w tym wykluczenia finansowego i dyskryminacji.
AI Act wszedł w życie 1 sierpnia 2024 r., a stosuje się go od 2 sierpnia 2026 r. Część przepisów jednak zacznie funkcjonować wcześniej, bowiem rozdziały dotyczące przepisów ogólnych oraz zakazanych praktyk zawartych w rozporządzeniu stosowane będą od 2 lutego 2025 r., a kolejne przepisy zaczną funkcjonować od 2 sierpnia 2025 r.
Postanowiono wydłużyć czas na stosowanie przepisów dotyczących systemów AI wysokiego ryzyka w zakresie systemów związanych z bezpieczeństwem produktu podlegającego unijnym regulacjom harmonizacyjnym do 2 sierpnia 2027 r.
Jeżeli chodzi o regulacje w Polsce, Ministerstwo Cyfryzacji już pracuje nad projektem ustawy pozwalającej na praktyczne stosowanie AI Act.
Podsumowanie
- W ramach rozporządzenia powstała pierwsza definicja legalna systemu AI.
- Unia Europejska wytyczyła ramy regulacyjne dla państw członkowskich w zakresie systemów AI, kładąc szczególny nacisk na ich etyczne stosowanie, które nie narusza praw podstawowych i jej wartości.
Natalia Cieślak
prawniczka
Kancelaria Strażeccy, Jaliński i Wspólnicy