A także kolejne obawy - AI miało odebrać ludziom pracę, a nawet zniszczyć ludzkość. Nic takiego się jednak nie stało, a nawet Sam Altman ze spółki OpenAI zaczął w końcówce roku studzić oczekiwania, twierdząc że w 2024 nie ma co spodziewać się kolejnych przełomów. W kolejny rok wchodzimy z powszechnym dostępem do sprawnych i relatywnie tanich narzędzi wykorzystujących sztuczną inteligencję. To czas na urealnienie oczekiwań z nimi związanych i powszechne bezpieczne wdrożenia.

Jednym z najważniejszych globalnych trendów będzie w 2024 personalizacja – reklamy, wiadomości, słuchana muzyka, a nawet znajomości. Algorytmy zadbają, by użytkownicy kontaktowali się z najlepiej dobranymi partnerami, a jeśli takich nie znajdą – nic straconego. Będą mogli wejść w związek z aplikacją (Replika AI, Intimate czy Frever Voices, a docelowo pewnie także konwersacyjny bot na Facebooku).

Jednocześnie będzie trwała dalsza walka o kompensację za wykorzystywanie danych do uczenia algorytmów. Już dziś w USA pozwy o to złożyli pisarze, fotografowie i graficy, a w ostatnich dniach roku także dziennikarze. „The New York Times” będzie procesować się z Microsoftem i OpenAI.

Dziś mało się o tym mówi, ale ta moneta będzie miała też rewers – jak czyli konieczność zadbania o to, by w AI znalazły się odpowiednie dane na przykład odnoszące się do polskiej kultury. Przykład? Dziś, kiedy poprosić ChatGPT o zaproponowanie kilku obrazów przedstawiających Boże Narodzenie, można uzyskać obszerną informację, ale w większości o płótnach, które są w amerykańskich zbiorach. Danych z tamtejszych galerii użyto bowiem do treningu modelu.

Reklama

Walka o dane będzie zresztą jednym z kluczowych tematów. W UE trwają dyskusje o Europejskiej przestrzeni danych zdrowotnych (EHDS), która pozwoli na obrót danymi na terenie UE. Gra toczyć się będzie o to kto i jak będzie je mógł wykorzystywać. To ważne zwłaszcza w Polsce, gdzie zaufanie do państwa jako brokera danych spadło na łeb na szyję choćby po aferze Adama Niedzielskiego (jako minister zdrowia udostępnił na X dane o recepcie, którą wypisał sobie krytykujący go lekarz). Dziś większe zaufanie mamy do prywatnych firm, które mogą je wykorzystać uzyskując dostęp do ogromnych zbiorów danych, trenując na nich swoje rozwiązania, a później sprzedając je społeczeństwu, które użyczyło tych cennych informacji. Warto zadać sobie pytanie o konsekwencje.

W nadchodzącym roku będzie trwała również dyskusja o tym, by Europa nie tylko była mistrzem świata regulacji przestrzeni cyfrowej (w 2023 i 2024 wprowadzone zostanie co najmniej kilka dużych regulacji tej sfery, m.in. Akt o sztucznej inteligencji), ale zaczęła liczyć się też w przemyśle AI. Tu liderką jest, póki co Francja, która inwestuje miliardy w fundusze dla startupów. Podobne rozwiązanie zapowiedział też w wywiadzie dla DGP wicepremier i minister cyfryzacji Krzysztof Gawkowski. Już dziś pod egidą MC trwają prace nad polskim wielkim modelem językowym – PLLuM.

W Polsce jednym z najważniejszych wątków będzie nie rozwijanie technologii konsumenckich, a próby wprowadzenia sztucznej inteligencji do sektora publicznego. AI już jest używane powszechnie w Spółkach Skarbu Państwa. Grupa Azoty na przykład wykorzystuje technologię w obszarze rolnictwa precyzyjnego. Dzięki danym satelitarnym opracowano w niej system wsparcia gospodarstw, który pozwala zoptymalizować wykorzystanie przez nie nawozów.

Najważniejsze jednak dopiero przed nami – to te miejsca, gdzie technologia będzie służyła państwu w bezpośrednim styku z obywatelami. Taka koncepcja może kojarzyć się z „Raportem mniejszości”. To dystopijna wizja przyszłości, w której system wskazywał i zamykał w izolacji morderców zanim popełnią zbrodnię. Co prawda pozwolił pozbyć się problemu przestępczości, ale za to rażąco naruszał prawa człowieka. Choć może wydawać się przesadzona, w Holandii w 2019 media ujawniły, że organy podatkowe używały AI do tworzenia profili ryzyka w celu wykrycia wyłudzania zasiłków, a władze karały rodziny już za samo to, że system je oflagował.

Wypośrodkowanie skuteczności i ochrony praw obywateli wydaje się więc największym wyzwaniem stojącym przed politykami, którzy chcieliby wprowadzać sztuczną inteligencję w administrację publiczną. Pomocne może być z jednej strony stopniowe wprowadzanie rozwiązań. Z drugiej – pełna, ludzka kontrola nad ich stosowaniem. Choć mało kto o tym wie, już dziś jest tak w Zakładzie Ubezpieczeń Społecznych. Kluczowe problemy, na które musi odpowiedzieć instytucja to: duża ilość danych (samych zwolnień lekarskich wpływa tam 2 mln miesięcznie) oraz zbyt mała liczba pracowników zdolnych te dane obsłużyć. ZUS angażuje więc algorytmy do wykrywania nieprawidłowości. W ubiegłym roku pilotaż rozszerzono także na typowanie firm do kontroli pod kątem opłacania składek. Jak zapewniał mnie wiceprezes ZUS, to nadal tylko pomoc, a faktyczne naruszenia są stwierdzane po kontrolach prowadzonych przez żywych pracowników.

W budowie zaufania do AI pomocna będzie tu z pewnością współpraca z obywatelskimi organizacjami i transparentność. Tej zabrakło w poprzedniej kadencji resortowi pracy. W odpowiedzi na jedną z interpelacji poselskich znalazła się informacja, że ministerstwo stosuje AI w jednostkach organizacyjnych pomocy społecznej. To z mocy ustawy m.in. ośrodki pomocy społecznej czy ośrodki interwencji kryzysowej. Od września staram się ustalić kto konkretnie korzysta ze sztucznej inteligencji, w jakich sprawach AI pomaga urzędnikom, co to za systemy i kto sprawuje nad nimi nadzór. Nie otrzymałam jednak odpowiedzi.

Ministerstwo Sprawiedliwości pod rządami Zbigniewa Ziobry zaczęło badać możliwości wprowadzenia systemów AI w sądownictwie. W ubiegłym roku resort powołał nawet zespół wdrożeń nowoczesnych technologii, a kwietniu zorganizował dwudniową konferencję dotyczącą wprowadzania AI w pracę prawników. Ma za sobą także uruchomienie pierwszego pilotażu monitoringu wizyjnego w zakładzie karnym w Chełmie. W maju działania MS podsumuje sejmowa komisja cyfryzacji.

Wyzwań będzie sporo, ale najważniejsze to walkę o postawienie człowieka w centrum rozwoju technologii. Tak, by to on kontrolował AI, a nie odwrotnie.