Choć ogólnie panuje konsensus odnośnie do istotności zapobiegania temu, by intencjonalnie upowszechniana, oszczercza dezinformacja kształtowała społeczne tendencje i polityczne wydarzenia, realizacja tego zamiaru rzadko okazuje się precyzyjna czy kończy się całkowitym powodzeniem. Jednak w przyszłości zarówno „ofensywa”, jak i „defensywa” – czyli zarówno upowszechnianie dezinformacji, jak i próby jej zwalczania – będą w coraz większym stopniu zautomatyzowane i powierzane SI (sztucznej inteligencji). GPT-3, czyli SI generująca język, wykazuje się zdolnością do tworzenia syntetycznych osobowości, wykorzystywania ich do tworzenia takiego języka, któremu właściwa jest mowa nienawiści, oraz podejmowania konwersacji z użytkownikami w celu rozsiewania uprzedzeń, a nawet zachęcania do przemocy. Gdyby tego typu SI zaprzęgnięto do upowszechniania nienawiści i podziałów na wielką skalę, ludzie mogliby nie być w stanie samodzielnie z tym walczyć. Jeśli działania takiej SI nie zahamuje się wystarczająco wcześnie, manualna identyfikacja i unieszkodliwianie rozsiewanych przez nią treści za pomocą jednostkowych analiz i decyzji okazałyby się czymś niezwykle trudnym dla nawet najbardziej sprawnych technicznie władz rządowych i operatorów platform sieciowych. Do wykonania tak obszernego i żmudnego zadania trzeba byłoby sięgnąć – jak zresztą dzieje się to już obecnie – po algorytmy SI służące moderacji treści. Przez kogo są one jednak tworzone oraz monitorowane i w jaki sposób się to dokonuje?

Treść całego artykułu przeczytasz w Magazynie Dziennika Gazety Prawnej i na e-DGP.