Start-up wziął pod lupę tajne „operacje wywierania wpływu”, które stanowią „podstępne próby manipulowania opinią publiczną lub wpływania na wyniki polityczne, bez ujawniania prawdziwej tożsamości lub intencji stojących za nimi podmiotów”. Działania grup influencerskich różnią się od czynności podejmowanych przez sieci dezinformacyjne, stwierdził Ben Nimmo, główny badacz w zespole ds. wywiadu i dochodzeń OpenAI, podczas środowej konferencji prasowej, ponieważ często mogą przekazywać informacje zgodne z faktami, ale wyjęte z kontekstu, pokazując w ten sposób zafałszowaną rzeczywistość.

Nowy raporttwórców ChatGPT pojawiał się w czasie, gdy powszechne stają się obawy o wpływ sztucznej inteligencji na wybory zaplanowane na ten rok na całym świecie. W swoich ustaleniach OpenAI wymieniło sposoby, w jakie sieci wpływu wykorzystywały dostępne narzędzia do skuteczniejszego oszukiwania ludzi. Zwrócono uwagę na wykorzystanie sztucznej inteligencji do generowania obrazów i dłuższych tekstów z mniejszą liczbą błędów językowych niż byłoby to możliwe, gdyby tworzyli je sami ludzie. Jednocześnie start-up podał, że kampanie propagandowe przygotowywane z pomocą usług oferowanych przez OpenAI nie zwiększyły znacząco swoich zasięgów.

Indoktrynacja po nowemu

Reklama

„W ciągu ostatniego półtora roku pojawiło się wiele pytań dotyczących tego, co może się stać, jeśli do działań propagandowych (z ang. influence operations ) wykorzystana zostanie generatywna sztuczna inteligencja” – dodał Nimmo.

Chociaż sieci propagandowe od dawna korzystają z platform mediów społecznościowych, to wykorzystanie w nich narzędzi generatywnej sztucznej inteligencji jest stosunkowo nowe. OpenAI stwierdziła, że we wszystkich zidentyfikowanych operacjach wykorzystano materiały wygenerowane przez sztuczną inteligencję wraz z bardziej tradycyjnymi formatami, takimi jak ręcznie pisane teksty lub memy, po czym publikowano je w głównych serwisach społecznościowych. Oprócz wykorzystywania sztucznej inteligencji do generowania obrazów, tekstu i biografii w mediach społecznościowych, niektóre sieci wpływów korzystały również z produktów OpenAI w celu zwiększenia swojej produktywnościpoprzez tworzenie podsumowań artykułów lub debugowanie kodu dla botów.

Niechciani "użytkownicy" ChatGPT

Pięć sieci zidentyfikowanych przez OpenAI obejmowało grupy takie jakprorosyjski „Doppelganger”,prochińska sieć „Spamouflage” oraz irańska operacja znana jako Międzynarodowa Unia Mediów Wirtualnych (IUVM). OpenAI odkryło także nieznane wcześniej, pochodzące z Rosji i Izraela sieci, które start-up zidentyfikował po raz pierwszy.

Nowa rosyjska grupa, którą OpenAI nazwał „Bad Grammar”, wykorzystała modele sztucznej inteligencji spółki, a także aplikację do przesyłania wiadomości Telegram, aby stworzyć kanał spamowania treściami – podała firma. Najpierw tajna grupa wykorzystała modele OpenAI do debugowania kodu, który może zautomatyzować publikowanie w Telegramie, a następnie wygenerowała komentarze w języku rosyjskim i angielskim, aby odpowiedzieć na te posty w Telegramie, korzystając z dziesiątek kont. Na koncie cytowanym przez OpenAI pojawiły się komentarze, w których argumentowano, że Stany Zjednoczone nie powinny wspierać Ukrainy. „Mam dość tych głupców z uszkodzonymi mózgami, grających w gry, podczas gdy Amerykanie cierpią. Waszyngton musi jasno ustalić swoje priorytety, inaczej poczują całą siłę Teksasu!”- OpenAI zacytowała jeden ze wpisów.

OpenAI zidentyfikowała część treści generowanych przez sztuczną inteligencję, zauważając, że komentarze zawierały typowe komunikaty o błędach sztucznej inteligencji, takie jak: „Jako model języka sztucznej inteligencji jestem tutaj, aby pomóc”. Firma stwierdziła również, że korzysta z własnych narzędzi sztucznej inteligencji do identyfikowania takich operacji wywierania wpływu i obrony przed nimi.

Wprawki specsłużb

W większości przypadków wiadomości przesyłane w sieci nie cieszyły się szerokim zainteresowaniem lub użytkownicy identyfikowali publikowane treści jako generowane przez sztuczną inteligencję. Pomimo ograniczonego zasięgu „to nie czas na samozadowolenie” – powiedział Nimmo. „Historia pokazuje, że operacje wpływów, które przez lata nie przynosiły żadnych rezultatów, mogą nagle wybuchnąć, jeśli nikt ich nie będzie oznaczał”.

Nimmo przyznał również, że prawdopodobnie istnieją grupy korzystające z narzędzi AI, o których start -up jeszcze nie wie. „Nie wiem, ile operacji (wpływu) jest jeszcze w toku” – powiedział Nimmo. „Ale wiem, że szuka ich wiele osób, w tym nasz zespół”.

Inne firmy, takie jak Meta, regularnie ujawniały podobne informacje na temat operacji wywierania wpływuw przeszłości. OpenAI twierdzi, że dzieli się wskaźnikami zagrożeń z partnerami z branży, a jednym z celów raportu jest pomoc innym w ich wykrywaniu. Firma podała, że ​​planuje udostępniać więcej raportów na ten temat w przyszłości.