Sztuczna inteligencja coraz śmielej wkracza do codziennego funkcjonowania firm. Wspiera rekrutację, analizuje dane, rekomenduje decyzje biznesowe i automatyzuje procesy, które jeszcze niedawno wymagały wyłącznie ludzkiego osądu. Wraz z jej dynamicznym rozwojem pojawia się jednak fundamentalne pytanie: kto ponosi odpowiedzialność za skutki działania algorytmów? Zapraszamy do zapoznania się z komentarzem radcy prawnego Marietty Poźniak.

AI jako narzędzie, nie podmiot prawa

Punktem wyjścia powinna być zasada: sztuczna inteligencja nie posiada podmiotowości prawnej. Oznacza to, że algorytm - niezależnie od stopnia zaawansowania - nie może być adresatem roszczeń, sankcji ani odpowiedzialności. AI jest wyłącznie narzędziem. Całkowita odpowiedzialność za jej wykorzystanie zawsze spoczywa na osobie fizycznej lub prawnej. Z perspektywy prawa nie istnieje „błąd algorytmu” oderwany od decyzji człowieka o jego wdrożeniu, zakresie użycia, czy braku nadzoru.

W relacjach zewnętrznych – wobec klientów, kontrahentów, konsumentów czy organów administracji - pierwszym i podstawowym podmiotem odpowiedzialnym jest pracodawca. To on wybiera konkretne narzędzia AI, decyduje o ich zastosowaniu, organizuje procesy i czerpie z nich korzyści ekonomiczne. Jeżeli więc algorytm wygeneruje błędną rekomendację lub nieprawdziwą informację i w efekcie wprowadzi klienta w błąd, to odpowiedzialność za to będzie ponosił przedsiębiorca. Nie ma tu znaczenia, że to jego pracownik niewłaściwie użył sztucznej inteligencji. Zgodnie z Kodeksem pracy, w razie wyrządzenia szkody osobie trzeciej przez pracownika, przy wykonywaniu przez niego obowiązków pracowniczych, zobowiązany do naprawienia tej szkody jest wyłącznie pracodawca.

Odpowiedzialność wewnątrz firmy

Pytanie, jakie się zatem pojawia, to czy pracodawca może w jakiś sposób pociągnąć do odpowiedzialności pracownika za błędne wykorzystanie sztucznej inteligencji w miejscu pracy? Jeśli pracownik korzysta z narzędzi AI dostarczonych przez pracodawcę, działa w ramach swoich obowiązków i zgodnie z obowiązującymi procedurami, ewentualne szkody obciążają pracodawcę jako element ryzyka prowadzenia działalności. Pracownik jest wówczas chroniony, a jego odpowiedzialność - co do zasady - ograniczona.

Sytuacja zmienia się diametralnie w przypadku, gdy pracownik świadomie obchodzi zabezpieczenia, postępuje wbrew wytycznym czy korzysta z niezatwierdzonych, publicznych narzędzi sztucznej inteligencji bez wiedzy i zgody pracodawcy (tzw. Shadow AI). Dotyczy to zwłaszcza przypadków, gdy do takich systemów trafiają dane klientów, dane osobowe, informacje poufne lub tajemnice przedsiębiorstwa. Wówczas pracownik może ponosić nie tylko odpowiedzialność porządkową czy materialną, ale również cywilną, a w skrajnych przypadkach nawet karną. Pracodawca, który poniósł szkodę, ma prawo dochodzić jej naprawy, o ile wykaże winę pracownika, związek przyczynowy i naruszenie obowiązków służbowych.

Warto podkreślić, że odpowiedzialność pracownika za szkody wyrządzone pracodawcy ma swoje ustawowe ograniczenia. Przy winie nieumyślnej odszkodowanie nie może przekroczyć trzykrotności miesięcznego wynagrodzenia. Pełna odpowiedzialność finansowa pojawia się dopiero w przypadku winy umyślnej, co w praktyce wymaga udowodnienia świadomego i celowego działania.

Automatyzacja decyzji a prawa pracowników

Coraz więcej wątpliwości rodzi się także na gruncie decyzji podejmowanych wobec pracowników z wykorzystaniem algorytmów. Automatyczne systemy wspierające rekrutację, ocenę efektywności, awanse czy przyznawanie podwyżek niosą ze sobą ryzyko naruszenia przepisów o ochronie danych osobowych oraz zakazu dyskryminacji. Pracownik lub kandydat do pracy, który został dotknięty niekorzystną decyzją opartą wyłącznie na zautomatyzowanym przetwarzaniu, ma prawo domagać się ingerencji człowieka, wyjaśnienia zasad działania algorytmu oraz wskazania kryteriów, które zadecydowały o wyniku.

Dodatkowym elementem zmieniającym krajobraz odpowiedzialności jest unijny Akt w sprawie sztucznej inteligencji, który klasyfikuje systemy AI stosowane w obszarze rekrutacji i HR jako systemy wysokiego ryzyka. Oznacza to dla pracodawców nie tylko obowiązki dokumentacyjne i nadzorcze, ale również konieczność zapewnienia odpowiednich kompetencji personelu w zakresie korzystania z AI. Brak szkoleń, procedur i realnej kontroli nad algorytmami może w przyszłości istotnie pogorszyć pozycję pracodawcy w sporach z pracownikami lub regulatorami.

AI jako wsparcie, nie zastępstwo człowieka

W praktyce coraz wyraźniej widać, że problemem nie jest sama technologia, lecz sposób jej wdrożenia i używania. Błędy AI bardzo rzadko wynikają z „samodzielnego działania algorytmu”. Zdecydowanie częściej są konsekwencją braku weryfikacji wyników, nadmiernego zaufania do systemów generatywnych, braku procedur lub prób zastąpienia ludzkiego osądu automatyczną decyzją.

Dlatego podstawową zasadą odpowiedzialnego korzystania z AI w firmie powinno być traktowanie algorytmów jako narzędzi wspierających, a nie autonomicznych decydentów. Ostateczna decyzja – zwłaszcza taka, która wywołuje skutki prawne lub finansowe – powinna zawsze należeć do człowieka. Pracodawcy, którzy ignorują ten fakt, narażają się nie tylko na sankcje prawne, ale również na poważne straty wizerunkowe i utratę zaufania rynku.

Najgorszą postawą przedsiębiorców w zakresie korzystania przez pracowników ze sztucznej inteligencji jest bierność. Pracodawca powinien aktywnie kształtować zasady korzystania z AI, szkolić pracowników (co jest jego prawnym obowiązkiem, a nie tylko dobrą praktyką), tworzyć regulacje i procedury w tym zakresie oraz zapewnić możliwość korzystania z bezpiecznych narzędzi AI, bo to on organizuje proces pracy, kontroluje sposób wykorzystywania technologii i co najważniejsze - ponosi konsekwencje jej użycia.

Odpowiedzialność za błędy AI nie jest więc problemem przyszłości. To realne, aktualne wyzwanie, które wymaga od firm dojrzałego zarządzania ryzykiem, jasnego podziału ról i świadomego podejścia do technologii, która – choć imponująca – wciąż pozostaje jedynie narzędziem w rękach człowieka.

Radca prawny Marietta Poźniak