ikona lupy />
Materiały prasowe
Filip Konopczyński
prawnik, specjalista ds. regulacji sztucznej inteligencji i nowych technologii w Fundacji Panoptykon, fot. materiały prasowe
W dwóch komisjach Parlamentu Europejskiego odbędzie się dziś głosowanie nad AI Act, czyli ramami prawnymi dotyczącymi wykorzystania sztucznej inteligencji. Jakie są jego główne założenia?

Prace nad przedstawioną przez Komisję Europejską propozycją trwają od dwóch lat. Dokument ma kompleksowo uregulować wprowadzanie na nasz rynek systemów opartych na sztucznej inteligencji. To pierwsza tego typu regulacja na świecie. Jej logika opiera się na analizie ryzyka, jakie stwarza zastosowanie tej technologii. Z tej perspektywy akt dzieli systemy AI na cztery kategorie i dla każdej wyznacza ramy działania.

Reklama
Co to za kategorie?

Pierwszą są obszary zakazane, które obejmują takie rozwiązania, jak programy wykorzystujące podatności i słabości naszych mózgów, identyfikacja biometryczna w miejscach publicznych, systemy tzw. kredytu społecznego czy programy, które tworzą bazy rozpoznawania twarzy na podstawie masowego ściągania wizerunków z internetu lub kamer przemysłowych.

Dlaczego nie powinny być stosowane?

Ponieważ ich potencjalne negatywne skutki są znacznie wyższe od możliwych korzyści. Trudno sobie wyobrazić, że zapobiegnięcie kilku przestępstwom może usprawiedliwić policyjną inwigilację całej populacji, a tym właśnie byłoby wykorzystanie systemów rozpoznawania twarzy w czasie rzeczywistym na masową skalę. Kolejna kategoria odnosi się do obszarów, w których wykorzystanie AI może przynieść duże korzyści, o ile te systemy będą podlegać ścisłej kontroli i nadzorowi. To, co znajdzie się w tej kategorii, od początku negocjacji wywoływało dużo emocji. W PE toczyła się dyskusja o tym, jaki powinien być status AI stosowanej w zwalczaniu przestępczości, migracji czy kontroli granic. Koalicja European Digital Rights (EDRi), do której należymy, walczy, by ta ostatnia znalazła się w koszyku obszarów zakazanych, jednak część europosłów i rządów jest innego zdania. W uzgodnionym kompromisie mechanizm kwalifikowania systemów AI do kategorii wysokiego ryzyka jest niestety nieprzejrzysty. Taki status mają systemy AI, które są produktami lub elementami działania w ważnych sektorach (energetyka, ochrona zdrowia, ale też zabawki). Ale to nie wszystko.

Jakie jeszcze systemy znajdą się w obszarach wysokiego ryzyka?

W tej kategorii znajdą się także programy, które mogą stanowić zagrożenie dla ludzkiego zdrowia, bezpieczeństwa czy praw podstawowych, a działają w takich obszarach, jak edukacja (przyjmowanie do szkół, dostęp do szkoleń), rynek pracy (rekrutacja, zarządzanie personelem), a także usługi publiczne, przeciwdziałanie przestępczości, sądownictwo czy wybory demokratyczne. W obecnej wersji katalog systemów wysokiego ryzyka jest skomplikowany i zawiera wiele wyjątków. Wolelibyśmy, aby systemy AI wykorzystywane w edukacji, w zarządzaniu pracownikami czy decydujące o dostępie do podstawowych usług (lekarza, świadczeń socjalnych, sądu) zawsze były uznawane za programy wysokiego ryzyka. Najbardziej niepokoi nas to, że aby system został uznany za system wysokiego ryzyka, musi zostać spełnione kryterium znaczącego prawdopodobieństwa zaistnienia szkód (prawnych, społecznych, środowiskowych). To w praktyce może być przedmiotem sporów i kontrowersji, co w teorii ma zostać doprecyzowane przez KE, która ma przygotować instrukcje i rekomendacje. Jako stronie społecznej udało się nam wpłynąć na inną ważną kwestię. W trakcie prac w PE dla twórców, importerów i podmiotów wdrażających systemy wysokiego ryzyka wprowadzono wymogi, z których najważniejszy to mechanizm oceny wpływu danego systemu na prawa podstawowe, demokrację czy środowisko. Dzięki temu kwestia dyskusji, czy AI jest dobra, czy zła, nie będzie miała charakteru filozoficznych dywagacji, ale oceny, czy dany system spełnia wymogi prawne lub jakie środki trzeba podjąć, aby zminimalizować potencjalne szkody.

Cały wywiad przeczytasz w dzisiejszym wydaniu Dziennika Gazety Prawnej i na e-DGP.

Rozmawiała Anna Wittenberg