AlGOVrytmy: osądzi nas bot, a nie człowiek

Ten tekst przeczytasz w 4 minuty
14 maja 2019, 22:48
technologia, sztuczna inteligencja, roboty
technologia, sztuczna inteligencja, roboty/ShutterStock
Coraz częściej o losie obywatela w relacjach z państwem decydują nie urzędnicy, lecz sztuczna inteligencja

„Maszyny w służbie państwa. Jak algorytmy wpływają na życie obywateli i obywatelek w Polsce i wybranych krajach regionu” – z tym zagadnieniem zmierzyli się badacze z różnych organizacji pozarządowych, którzy pod lupę wzięli rozwiązania funkcjonujące w Polsce, Czechach, Gruzji, Serbii, na Węgrzech, i Słowacji. Roboczo nazwano takie systemy mianem „alGOVrytmów”.

Jak opowiada Krzysztof Izdebski, dyrektor programowy Fundacji ePaństwo (będącej współautorem raportu), jedną z głównych motywacji do zajęcia się tematem było wdrożenie z początkiem stycznia 2018 r. w naszym kraju systemu losowego przydzielania sędziów do rozpatrywania spraw. Podobne systemy już funkcjonują np. w Gruzji, Serbii czy na Słowacji.

W Europie właśnie szykowany jest kolejny krok. Do końca tego roku Estonia planuje wdrożyć system decydujący o sprawach sądowych dotyczących drobnych przestępstw. – To może być pierwszy taki przypadek na świecie – zauważa w rozmowie z DGP Maciej Kawecki z departamentu zarządzania danymi w Ministerstwie Cyfryzacji. Pomysł budzi wiele kontrowersji, m.in. z powodu . Kawecki przypomina jednak, że chodzi przede wszystkim o odciążenie sądów, a w razie czego jest jeszcze druga instancja, tradycyjna, w której wszelkie wątpliwości mogą być wyjaśnione. Już kilka lat temu inżynierowie z University of Sheffield, University College London oraz University of Pennsylvania stworzyli system, który potrafi poprawnie przewidzieć wyrok sądu. Przewidział on orzeczenia Europejskiego Trybunału Praw Człowieka z trafnością ok. 80 proc. Czy to znaczy, że w pozostałych 20 proc. system zawiódł? Niekoniecznie. – W niektórych sprawach przy tych samych okolicznościach faktycznych to różni sędziowie, a więc ludzie, wydawali różne orzeczenia. Można więc zastanowić się, czy nie mamy do czynienia z błędem ludzkim aniżeli samego systemu sztucznej inteligencji – dywaguje Maciej Kawecki.

Autorzy raportu o „alGOV rytmach” wskazują, że automatyzowane podejmowanie decyzji występuje już w wielu obszarach, np. kontroli prędkości (system fotoradarów w Polsce czy Czechach), przydzielania spraw sędziom i urzędnikom państwowym, wyborze grupy do przeprowadzenia kontroli i inspekcji, przydzielania zasiłków społecznych (węgierski system łączenia danych o zasiłkach z zadłużeniem na rzecz państwa), rozpoznawania oszustw (np. polski STIR do namierzania wyłudzeń skarbowych), wstępnej selekcji kontrahentów w zamówieniach publicznych (np. w Czechach) czy rekrutacji do żłobków (rozwiązanie zastosowane we Wrocławiu).

Przy wdrażaniu takich rozwiązań zazwyczaj chodzi o odciążenie urzędników i przyspieszenie procesów. Jak mówi Magdalena Siwanowicz-Suska z Fundacji ePaństwo, brytyjski urząd ds. poważnych nadużyć finansowych stosuje algorytm, który pozwala przeglądać 600 tys. dokumentów dziennie. – Grupa prawników była w stanie przejrzeć ok. 3 tys. – dodaje.

Problemem jest jednak . – W żadnym z przypadków nie uzyskaliśmy dostępu do . Często powodem odmowy była kwestia , należących do zewnętrznych firm. Mimo że algorytmy są wdrażane w relacjach państwo – obywatel, kody często nie są dostępne nawet dla urzędników – zauważa Izdebski. W badanych krajach nie zidentyfikowano też żadnej instytucji, która nadzorowałaby to, jakie systemy automatycznego podejmowania decyzji są wykorzystywane przez dane państwo. To samo, jeśli chodzi o sposób, w jaki one działają. – Robią to np. firmy, które te algorytmy stworzyły, co generuje pewien konflikt interesów, bo w interesie firmy nie jest wykazywanie słabości swojego systemu – zwraca uwagę Krzysztof Izdebski.

Zdaniem Katarzyny Szymielewicz z Fundacji Panoptykon społeczeństwo nie musi koniecznie znać kodów źródłowych – wystarczyłoby, gdyby znała je instytucja wykorzystująca dany . – Nie przyjmuję jednak tłumaczeń administracji, że nie może ujawniać zasad działania algorytmów, bo jeśli ujawni tę tajną logikę, to pojawią się jakieś próby oszustwa – zastrzega.

Autorzy raportu rekomendują powołanie na szczeblu rządowym (może KPRM, może MC) zagadnienie , wprowadzenie oceny skutków wdrażania takich algorytmów (na zasadzie oceny skutków regulacji), jawność dostępu do kodów źródłowych czy opracowanie systemu kontroli poprawności działania algorytmów.

>>> Czytaj też: Oleszczuk: Recepta pisana przez dane i maszyny

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: Dziennik Gazeta Prawna
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj