Chatboty, które wykorzystują duże modele językowe (takie jak te obsługujące ChatGPT), mogą zmniejszyć wiarę ludzi w teorie spiskowe - poprzez debatę z nimi. Co więcej, podejście, jakie wypracowały może nauczyć ludzi lepszych sposobów postępowania z autorami takich teorii.

Dlaczego trudno się rozmawia z wyznawcami spisków?

Co prawda wcześniejsze badania sugerują, że w ciągu około dziesięciu lat poziom wiary w teorie spiskowe w populacji nie zmienił się znacząco ani w USA, ani w sześciu krajach europejskich objętych badaniem, jednak wyznawców teorii spiskowych cechuje trwała, niezachwiana wiara w swoje przekonania.

Reklama

Oczywiście idee takie jak płaska Ziemia, chemtrails czy spisek reptilian budzą sprzeciw wielu osób, które próbują się im przeciwstawić - często bez powodzenia.

„Próby przekonania zwolenników teorii spiskowych (którzy się mylą) historycznie nie kończyły się sukcesem” – powiedział w rozmowie z „New ScientistThomas Costello z Massachusetts Institute of Technology.

GTP-4 Turbo przybywa na ratunek

Costello i jego współpracownicy opracowali jednak nowe, skuteczne podejście. W ich eksperymencie wzięło udział 2190 wyznawców teorii spiskowych. Po przedstawieniu zarysu swojej ulubionej teorii spiskowej osoby te zostały zaproszone do dyskusji z dużym modelem językowym (LLM), wykorzystującym sztuczną inteligencję GPT-4 Turbo.

Każdemu z uczestników przedstawiono podsumowanie jego teorii spiskowej, sporządzone przez sztuczną inteligencję; każdą osobę poproszono też o ocenę poziomu pewności, jaką ma, że dana teoria jest prawdziwa.

Następnie LLM rozpoczął czat, podczas którego każda ze stron zaproponowała trzy uwagi do rozmowy. Później uczestników poproszono o ponowne przedstawienie swojej tezy i jeszcze raz poproszono o ocenę poziomu zaufania do teorii spiskowej.

Wiara uczestników w konkretną teorię, o której wspominali, spadła o około 20 proc., a przy okazji, jak zaobserwowano, zmniejszyła się także wiara w inne teorie spiskowe. Jako że efekt utrzymywał się co najmniej przez dwa miesiące, wydaje się, że po rozmowie z chatbotem ludzie trwale zmienili swoje poglądy.

Uogólnione lub emocjonalne podejście nie działa

„Mam przeczucie, że wcześniejsze próby obalenia teorii spiskowych były ograniczone ze względu na to, jak bardzo musiały być uogólnione – wskazał wypowiadający się dla „New Scientist” Costello. - Zbyt ogólne, niepogłębione podejście do faktów często nie przekonuje zwolenników teorii spiskowych, którzy często +prowadzą własne badania+, starając się pogłębić znajomość tematu - nawet jeśli ich rozumowanie jest błędne".

W 83 proc. rozmów sztuczna inteligencja posługiwała się argumentami opartymi na dowodach na rzecz alternatywnych perspektyw. Fakty te mocniej przemawiały do osób uważających, że posiadły prawdę, a inni są w błędzie.

Zdaniem autorów badań, opublikowanych w nierecenzowanym artykule w portalu "PsyArXiv", zdolność generatywnej sztucznej inteligencji do przetworzenia i syntezy dużych ilości informacji pomogła chatbotowi przekonać nawet upartych zwolenników teorii spiskowych do zmiany zdania.

O ile ludzie często apelują do emocji, co zwykle kończy się mało merytoryczną kłótnią, sztuczna inteligencja rzadko się do nich odwoływała. Nie osądzała rozmówcy, była cierpliwa - dlatego mogła uniknąć wywoływania reakcji emocjonalnych, które utrudniałyby perswazję.

Costello uważa, że metoda ta może zostać szerzej wdrożona - albo poprzez wykorzystanie chatbotów, albo poprzez naśladowanie podejścia chatbota. „Jeśli chodzi o metody perswazji, życzliwość, nieocenianie i skupianie się na faktach, myślę, że teoretycznie to wszystko ludzie mogliby zrobić” - zaznaczył. (PAP)

Autor: Paweł Wernicki