W ubiegły piątek po trzech dniach intensywnych negocjacji między państwami członkowskimi a Parlamentem Europejskim, Unia Europejska osiągnęła porozumienie regulujące rozwój sztucznej inteligencji (AI Act).

Kompromis przewiduje uwzględnienie dwóch prędkości - rozwoju sztucznej inteligencji i ograniczeń, uniemożliwiających nadużywanie jej. Na obie zostaną nałożone zasady, mające na celu zapewnienie jakości danych wykorzystywanych przy opracowywaniu algorytmów i sprawdzenie, czy nie naruszają one przepisów dotyczących praw autorskich. Twórcy będą musieli także dopilnować, aby tworzone dźwięki, obrazy i teksty były wyraźnie oznaczane jako sztuczne.

Sednem projektu jest lista zasad, nałożonych wyłącznie na systemy uznane za "wysokiego ryzyka", głównie stosowane w obszarach wrażliwych, takich jak infrastruktura krytyczna, edukacja, zasoby ludzkie, egzekwowanie prawa itp. Systemy te będą podlegać szeregowi obowiązków, takich jak zapewnienie ludzkiej kontroli nad maszyną, sporządzenie dokumentacji technicznej lub wdrożenie systemu zarządzania ryzykiem.

Przepisy przewidują wprowadzenie szczególnego nadzoru nad systemami sztucznej inteligencji, wchodzącymi w interakcję z człowiekiem. Zmusi ich to do poinformowania użytkownika, że ma kontakt z maszyną.

Reklama

Dokument przewiduje też rzadkie stosowanie zakazów, które dotyczyć mają przede wszystkim zastosowań sprzecznych z europejskimi wartościami. Jako przykład, którego nie należy naśladować, podane są Chiny, gdzie istnieją systemy oceny obywateli czy masowego nadzoru bądź zdalna biometryczna identyfikacja osób w miejscach publicznych. W tej ostatniej kwestii państwa UE uzyskały jednak swobodę w przypadku niektórych działań dotyczących egzekwowania prawa, takich jak walka z terroryzmem.

Eksperci firmy Netskope zwrócili uwagę, że to projektowane w UE przepisy są pierwszymi na świecie, które mają regulować stosowanie sztucznej inteligencji.

Zwrócili oni uwagę w projektowanych regulacjach zdecydowano o zakazaniu stosowania sztucznej inteligencji i systemów kategoryzacji biometrycznej, które wykorzystują m.in.: cechy wrażliwe (jak np. przekonania polityczne, religijne, filozoficzne, orientację seksualną, rasę) czy dowolne pobieranie obrazów twarzy z internetu lub nagrań CCTV (monitoringu) w celu tworzenia baz danych rozpoznawania twarzy. Sztuczna inteligencja nie mogłaby być stosowana także do rozpoznawania emocji w miejscu pracy i instytucjach edukacyjnych oraz w programach z obszaru social scoring (systemu zaufania społecznego) opartych na zachowaniach społecznych lub cechach osobistych. Netskope zwrócił ponadto uwagę, że AI nie można byłoby też wykorzystywać w systemach, które manipulują ludzkim zachowaniem, aby obejść ich wolną wolę, czy w narzędziach mogących odczytywać ludzkie słabości (ze względu wiek, niepełnosprawność, sytuację społeczną lub ekonomiczną).

Netskope zwrócił ponadto uwagę, że państwa unijne uzgodniły też zabezpieczenia i wyjątki od stosowania biometrycznych systemów identyfikacji (RBI) w publicznie dostępnych przestrzeniach do celów egzekwowania prawa. Podkreślono, że takie zastosowanie będzie wymagać uprzedniej zgody sądu i będzie dotyczyć ściśle określonych list przestępstw. Dodano, że "zdalny RBI byłby wykorzystywany wyłącznie w ukierunkowanym poszukiwaniu osoby skazanej lub podejrzanej o popełnienie poważnego przestępstwa".

"RBI +w czasie rzeczywistym+ spełniałby rygorystyczne warunki, a jego użycie byłoby ograniczone w czasie i miejscu, do celów stricte oznaczonych, takich jak ukierunkowane poszukiwania ofiar (uprowadzenia, handel ludźmi, wykorzystywanie seksualne) oraz zapobieganie konkretnemu i obecnemu zagrożeniu terrorystycznemu, lub lokalizacji bądź, identyfikacji osoby podejrzanej o popełnienie jednego z konkretnych przestępstw wymienionych w rozporządzeniu (np. terroryzm, handel ludźmi, wykorzystywanie seksualne, zabójstwo, porwanie, gwałt, rozbój z bronią w ręku, udział w organizacji przestępczej, przestępstwo przeciwko środowisku)" - wyjaśniono.

Zwrócono ponadto uwagę, że nieprzestrzeganie zasad (dotyczących sztucznej inteligencji) może prowadzić do nałożenia kar. Netskope podał, że w zależności od naruszenia i wielkości firmy kary będą wynosić od 35 mln euro lub 7 proc. globalnego obrotu bądź do 7,5 mln euro lub 1,5 proc. obrotu.

Odnosząc się do kar, cytowana w informacji Ilona Simpson z Netskope wskazała, że "grzywny nakładane za nieprzestrzeganie przepisów są zgodne z dobrze ugruntowanym modelem egzekwowania RODO; grzywny ograniczają się do 7 proc. globalnego obrotu w porównaniu z 4 proc. w ramach RODO".

Dodano, że tekst porozumienia będzie teraz musiał zostać formalnie przyjęty zarówno przez Parlament, jak i Radę, aby stać się prawem UE. Wskazano, że parlamentarne komisje ds. rynku wewnętrznego i wolności obywatelskich mają głosować nad porozumieniem na najbliższym posiedzeniu.

Ekspertka Konfederacji Lewiatan Eliza Turkiewicz komentując porozumienie wskazała, że w nowych przepisach wytyczono obowiązki dotyczące sztucznej inteligencji, opierając się na potencjalnym ryzyku i skutkach. "Celem jest osiągnięcie równowagi między ochroną społeczeństwa a zachętą do rozwoju innowacyjnych technologii. W ten sposób Europa zamierza aktywnie kształtować przyszłość sztucznej inteligencji, dbając jednocześnie o fundamentalne wartości i demokratyczne zasady" - zauważyła.

Turkiewicz wyraziła obawy przedsiębiorców, co do szybkości osiągnięcia porozumienia. "Przedsiębiorców niepokoi fakt, że z powodu szybkiego tempa negocjacji trilogowych pozostaje nadal wiele niewyjaśnionych kwestii, co może skutkować zdezorientowaniem rynku oraz brakiem pewności prawa" - oceniła.