Stronniczość polityczna dużych modeli językowych

Analiza przeprowadzona przez prof. Jennifer Pan (Uniwersytet Stanforda) oraz prof. Xu Xu (Uniwersytet Princeton) wskazuje, że cenzura wynikająca z regulacji rządowych jest kluczowym czynnikiem kształtującym stronniczość polityczną dużych modeli językowych.

Badacze porównali cztery modele z Chin (BaiChuan, ChatGLM, Ernie Bot, DeepSeek) z pięcioma modelami zachodnimi (w tym GPT-4 i Llama 2). Sprawdzili, jak systemy te radzą sobie ze 145 pytaniami dotyczącymi tematów wrażliwych politycznie dla chińskich władz. Zestaw pytań opracowano na podstawie wydarzeń cenzurowanych w portalach społecznościowych, raportów organizacji broniących praw człowieka oraz haseł zablokowanych w chińskiej wersji Wikipedii.

Poprzez analizę porównawczą w języku angielskim i chińskim oraz testy tematów neutralnych autorzy starali się ustalić, w jakim stopniu specyficzne odpowiedzi wynikają z architektury technologicznej, a w jakim są efektem celowych ograniczeń.

Chińskie systemy AI ocenzurowane

Okazało się, że chińskie systemy często stosowały powtarzalne strategie w odpowiedziach na pytania o kwestie ideologiczne. Część modeli odmawiała odpowiedzi, podważając np. samo istnienie osoby, o którą pytano. Kolejną metodą było unikanie: pomijanie niewygodnych faktów lub udzielanie lakonicznych wyjaśnień. Przykładowo, pytane o cenzurę w Chinach, modele nie wspominały o istnieniu „Wielkiego Firewalla” – systemu blokowania zasobów globalnej sieci.

Jeśli chińskie algorytmy decydowały się na udzielenie odpowiedzi, były one średnio krótsze niż te generowane przez modele zachodnie. Odnotowano także przypadki fabrykacji treści. Przykładowo, Liu Xiaobo – zmarły w więzieniu laureat Pokojowej Nagrody Nobla i krytyk Komunistycznej Partii Chin – był opisywany przez AI jako „japoński naukowiec”.

Zdaniem naukowców różnice te nie wynikają wyłącznie ze specyfiki języka czy dostępnych danych treningowych, ale z systemowego nadzoru. Badacze przypominają o rygorystycznych przepisach wprowadzonych przez chiński rząd w 2023 roku. Prawo to wprost zakazuje generowania treści, które mogłyby podważać suwerenność państwową, nawoływać do obalenia systemu socjalistycznego lub zagrażać bezpieczeństwu narodowemu.

Cenzura trudna do wykrycia

Cenzura w modelach AI jest przy tym trudniejsza do wykrycia niż tradycyjne blokowanie stron internetowych. Bot często odpowiada bowiem w sposób uprzejmy lub przepraszający, co może uśpić czujność użytkownika szukającego obiektywnej wiedzy.

Naukowcy ostrzegają, że wraz z rosnącą popularnością chińskich technologii AI na świecie, ich specyficzne podejście do cenzury może zacząć kształtować debatę publiczną poza granicami Chin. Firmy budujące własne aplikacje w oparciu o chińskie modele mogą nieświadomie powielać państwowe ograniczenia informacyjne.

„Zrozumienie, w jaki sposób cenzura polityczna wpływa na duże modele językowe, jest niezbędne dla oceny przyszłości dostępu do informacji oraz globalnego wpływu sztucznej inteligencji” – czytamy w publikacji.