Polska tworzy nowy organ nadzoru nad sztuczną inteligencją

W opublikowanym w środę wywiadzie, Standerski był pytany m.in. o to, co znajdzie się w projekcie ustawy o systemach sztucznej inteligencji. - Wdraża ona europejski AI Act, ale chcemy, żeby to wdrożenie było elastyczne i żeby dotyczyło nie tylko samych reguł, ale również dawało przestrzeń rozwoju sztucznej inteligencji - wskazał.

Wyjaśnił, że ustawa powołuje Komisję Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, która będzie organem nadzoru rynku zgodnie z rozporządzeniem. - Chcemy, by komisja była organem, który w sposób sprawny będzie dopuszczał systemy wysokiego ryzyka do rynku. Nie będzie ograniczać się do sztywnych regulacji ustawowych - wskazał.

- Planujemy przyznać jej kompetencje do wydawania interpretacji generalnych i indywidualnych. Ponieważ kolejne systemy i funkcjonalności będą interpretowane w ramach rozporządzenia, nie chcemy, by każda z nich wymagała nowej ustawy. Dlatego wzorem administracji skarbowej komisja zyska możliwość wydawania interpretacji w zakresie ważnych zmian technologicznych, jeśli chodzi o AI - dodał wiceminister.

Jakie będą zadania Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji?

Standerski poinformował, że przewodniczącego komisji powoła premier spośród osób wyłonionych w drodze otwartego i konkurencyjnego naboru. - Będzie on musiał, poza ogólnymi warunkami, posiadać szczególny dorobek i wyróżniać się wiedzą z zakresu sztucznej inteligencji lub prawa, doświadczenie zawodowe zdobyte w czasie pracy naukowej, w obszarze cyberbezpieczeństwa lub informatyki ogólnej i trzyletni staż pracy na stanowiskach kierowniczych - wyjaśnił wiceszef MC.

Wskazał, że nabór ma być publicznie ogłoszony, przeprowadzi go komisja kwalifikacyjna. - Wszystko tu ma być jawne, publikowane w Biuletynie Informacji Publicznej. Także zastępców przewodniczącego komisji powoła premier spośród osób wskazanych przez samego przewodniczącego. Muszą one jednak spełniać takie same warunki jak przewodniczący - podkreślił. - Chcemy też, żeby przewodniczący mógł sobie dobrać najbliższych współpracowników, żeby praca szła szybko - dodał.

Jakie są potencjalne konsekwencje nowych przepisów dla rozwoju sztucznej inteligencji w Polsce?

Wyjaśnił także, że komisja będzie stała na straży wykonywania przepisów ustawy o systemach sztucznej inteligencji i rozporządzenia unijnego. - Będzie dopuszczać do obrotu systemy wysokiego ryzyka, dokonywać kontroli w zakresie przestrzegania przepisów przez podmioty obsługujące te systemy i nakładać kary stosownie do AI aktu. Dodatkowo będzie mogła podejmować działania na podstawie innych przepisów rozporządzenia, czyli m.in. przyjmować zgłoszenia o incydentach z udziałem systemów AI - wyjaśnił, dodając, że "w tym zakresie ma współpracować z właściwymi CSRiT-ami".

- Rozpatrzy też skargi na działalność systemów AI, bo każdy będzie mógł zgłosić skargę na działanie systemu sztucznej inteligencji, które go bezpośrednio dotyka. Jeśli ktoś, poczuje się dyskryminowany przez taki system u lekarza, w pracy, w komunikacji miejskiej, będzie mógł złożyć skargę. Komisja będzie te skargi rozpatrywać i sprawdzać, czy rzeczywiście nie doszło do złamania przepisów w tych systemach wysokiego ryzyka- powiedział.

Dopytywany, czy jeśli by do tego doszło, to będzie mogła zakazać stosowania danego systemu, Standerski powiedział, że "może nałożyć karę, jeżeli doszło do naruszenia ustawy, choć system jest z nią zgodny, ale nastąpi jakiś błąd, zła wola i to nie zadziała tak jak powinno". - Natomiast, jeżeli okaże się, że system sam z siebie jest niezgodny z ustawą, to oczywiście wtedy komisja podejmie decyzję o jego wycofaniu z obrotu - dodał.