AI w firmie? Będziesz musiał ją monitorować i rejestrować

Sama instalacja narzędzia AI nie wystarczy, trzeba będzie je aktywnie nadzorować. Każdy system uznany za „wysokiego ryzyka” np. wspomagający rekrutację, planowanie pracy czy ocenę wydajności musi być regularnie monitorowany przez człowieka. I to nie byle jakiego, osoba ta powinna mieć odpowiednie kompetencje i przeszkolenie.

Firmy muszą też prowadzić rejestr zdarzeń istotnych z punktu widzenia bezpieczeństwa lub praw podstawowych, przechowywany przez minimum sześć miesięcy. To wszystko w celu identyfikowania ewentualnych zagrożeń i nadużyć.

35 milionów euro kary? Tak, jeśli nie przestrzegasz zasad

Nowe prawo przewiduje dotkliwe kary dla firm, które nie dostosują się do wymogów. Kara może wynieść nawet 35 milionów euro lub 7% globalnych przychodów, w zależności od tego, która kwota jest wyższa. Choć dla MŚP (małych i średnich przedsiębiorców) i start-upów przewidziano łagodniejsze podejście, to nie zwalnia ich to z obowiązku wprowadzenia zmian.

Wśród nowych wymogów znajdziemy też obowiązek informowania pracowników o stosowaniu AI, a także konieczność jasnej komunikacji zasad działania tych systemów. To wszystko ma na celu budowanie zaufania i zwiększenie transparentności.

Nowe obowiązki dla twórców AI

Zmiany nie ominą również dostawców systemów AI, zwłaszcza tych najbardziej zaawansowanych. Od 2 sierpnia 2025 r. twórcy modeli ogólnego przeznaczenia (GPAI), takich jak Chat GPT czy Gemini, będą musieli spełnić szereg wymagań: od przejrzystości danych treningowych, przez dokumentację techniczną, po przestrzeganie praw autorskich.

Modele już dostępne na rynku mają czas na dostosowanie do 2027 roku, ale każdy nowy system wprowadzany po sierpniu 2025 musi być zgodny z nowymi przepisami od razu. To oznacza większą odpowiedzialność i... więcej papierologii.

Europejski nadzór już się szykuje

Nowe przepisy będą egzekwowane na dwóch poziomach: krajowym i unijnym. Każde państwo członkowskie do sierpnia 2025 r. powinno powołać własne organy nadzoru rynku. Na poziomie UE działać będzie Biuro ds. AI oraz Europejska Rada ds. AI, wspierane przez ekspertów i naukowców.

Cel? Zapewnienie, że AI będzie rozwijana w sposób bezpieczny, zgodny z prawem i europejskimi wartościami. Nie chodzi tylko o kontrolę – ale także o wspieranie firm w odpowiedzialnym wdrażaniu innowacji.

Jak wygląda sytuacja w Polsce?

W Polsce nadal nie ma przyjętej ustawy wykonawczej implementującej unijny AI Act – projekt ustawy systemowej wciąż znajduje się na etapie przygotowawczym i formalnego skierowania do Sejmu, według stanu na lipiec 2025 r., nadal nie miało miejsca. Oznacza to, że choć od 1 sierpnia 2024 r. obowiązuje AI Act jako rozporządzenie unijne, wiele z jego zapisów, w tym dotyczących systemów wysokiego ryzyka i kar, już stosuje się bezpośrednio przez prawo UE, nawet bez krajowej implementacji.

Rząd planuje powołanie Krajowej Komisji ds. Rozwoju i Bezpieczeństwa AI, organu nadzorczego odpowiedzialnego zarówno za kontrolę rynku, jak i wsparcie przedsiębiorców przy wdrażaniu nowych przepisów. Komisja ma prowadzić inspekcje zdalne i stacjonarne, przyjmować zgłoszenia naruszeń oraz rozpatrywać odwołania. Towarzyszyć jej będzie Społeczna Rada ds. AI pełniąca funkcję doradczą, chociaż jej opinie nie będą wiążące.

Draft ustawy przewiduje także możliwość ustanowienia tzw. "regulatory sandboxes" – specjalnych stref testowych wspierających innowacje AI pod nadzorem regulacyjnym oraz procedury raportowania poważnych incydentów i możliwość nakładania sankcji administracyjnych w przypadku naruszeń