Technologia deepfake sprowadza się do generowania fałszywych obrazów (zdjęć i wideo) oraz głosu na podobieństwo istniejących, z reguły znanych osób. Chociaż czynność generowania fałszywych informacji nie jest nowa, bo została zastosowana pierwszy raz w 2014 roku, deepfake wykorzystuje obecnie zaawansowane algorytmy uczenia maszynowego i sztucznej inteligencji do edytowania lub generowania treści wizualnych i dźwiękowych, które można łatwiej oszukać. Technologia używana była początkowo do celów marketingowych przy produkcji spotów reklamowych. Zamiast zatrudniać aktorów osobiście, agencje reklamoweuzyskiwały pozwolenie na wykorzystanie ich postaci. Następnie można było użyć poprzednich cyfrowych nagrań aktora, aby stworzyć nowy film, wstawiając odpowiednie frazy ze scenariusza reklamowego.

Jak generuje się deepfake?

Do generowania deepfake wideo zwykle używany jest określony algorytm głębokiego uczenia się, nazywany GAN (generative adversarial network). Chociaż istnieje wiele odmian sieci GAN, wszystkie wykorzystują głębokie sieci neuronowe i mają podobną architekturę.W przypadku widzenia komputerowego lub dziedziny sztucznej inteligencji, która umożliwia komputerom interpretację obrazów wizualnych i reagowanie na nie, sieć GAN składa się z dwóch kluczowych elementów: generatora algorytmu, który próbuje wykreować fałszywy obraz oraz algorytmu dyskryminatora, który próbuje odróżnić obrazy prawdziwe od fałszywych. W miarę jak proces wielokrotnie się powtarza, obrazy stają się coraz doskonalsze, a dyskryminatorowi coraz trudniej jest odróżnić obrazy rzeczywiste od fałszywych. Sieci GANwykorzystywane są obecnie do generowania dowolnych form treści cyfrowych, od statycznych obrazów i tekstu po strumienie audio i wideo. Wiele z nich dostępnych jest na zasadzie open source, a więc praktycznie każdy może pobrać i trenować fałszywe treści. Warunkiem powodzenia jest posiadanie niezbędnej bazy danych szkoleniowych i dużej mocy obliczeniowej. Stąd koszt – w przypadku dobrze podrobionego ruchomego obrazu to obecnie kilka tysięcy dolarów.

Reklama

Deepfake w biznesie i polityce

Oszuści i szerzej, świat przestępczy, szybko zrozumieli potencjał nowej technologii polegający, chociażby na dokonywaniu wielomilionowych wyłudzeń. Jako przykład służyć może wykorzystanie technologii klonowania głosu. W tym przypadku menedżer brytyjskiej firmy energetycznej otrzymał telefoniczne polecenie od jej prezesa, którego głos i numer telefonu dobrze znał,aby wykonał przelew w wysokości ponad 200 tys. euro na rzecz węgierskiego dostawcy. Głos prezesa okazał się fałszywką, transfer pieniędzy był jak najbardziej realny.

Deepfake znajduje coraz szersze zastosowanie w konfliktach zbrojnych i politycznych. Szeroko znanym przykładem było umieszczanie przez rosyjskie służby dyskredytujących dla Hilary Clinton informacji na Facebooku, Twitterze i innych platformach wczasie amerykańskiej kampanii wyborczej w 2016 roku, co w istotny sposób przyczyniło się do polaryzacji społeczeństwa USA. Do szantażu i wymuszeń służyć mogą z kolei rzekome nagrania niemoralnych scen lub nieakceptowanych społecznie wypowiedzi, co dotknęło birmańską liderkę opozycji Aung San Suu Kyi (miała rzekomo przyjąć łapówkę) i spikerkę Izby Reprezentantów USA Nancy Pelosi, którą sportretowano w stanie nietrzeźwości.

Do politycznego chaosu, szczególnie w krajach o słabo ugruntowanych demokracjach, dochodzić może w sytuacji, gdzie fakty łączą się fikcją generowaną przez sztuczną inteligencję. W afrykańskim Gabonie zafałszowanie treści przemówienia prezydenta kraju doprowadziło do podważenia jego zdolności do rządzenia krajem i przygotowań do zamachu stanu. A siła deepfake’ów polega na tym, czego dowodzą liczne studia i eksperymenty, że fałszywe i negatywne informacje ulegają znacznie szybszemu rozpowszechnieniu niż prawdziwe, a szybkie ich podważenie czy obalenie jest niezwykle trudne. Badacze dowiedli także, że ludzie skłonni są uwierzyć bardziej w fałszywe nagrania wideo niż fałszywe teksty.

Fałszywki na wojnie

Na taki mechanizm działania dezinformacji liczyła też Moskwa w wojnie na Ukrainie. Trzy tygodnie po inwazji Rosji na ten kraj na ukraińskim portalu informacyjnym Ukraine24, a później także na VKontakte i Telegramie pojawiło się wideo, na którym prezydent Wołodymyr Zełenski zwraca się do swoich rodaków o zaprzestanie walki i wzywa żołnierzy do złożenia broni. „Nie ma potrzeby umierać na tej wojnie” – apeluje w rozpowszechnianym w mediach społecznościowych przesłaniu, sugerując że opuścił już kraj. Nagranie szybko jednak zostało zweryfikowane jako fałszywka, która miała demobilizować żołnierzy i osłabiać morale społeczeństwa. Stosowanie tego typu działań przez Rosję jest na porządku dziennym. Firma LetsData zidentyfikowała w pierwszym miesiącu rosyjskiej inwazji ponad 30 fałszywych informacji kremlowskiej propagandy dziennie. Większość z nich zamieszczano na komunikatorze Telegram. Raport unijnej agencji External Action Service wskazuje z kolei, jak Moskwa sieje dezinformację, podszywając się pod międzynarodowe media. W 60 na 100 badanych przypadków związanych z agresją Rosji celem działań Moskwy było odwrócenie uwagi publiczności, obwinianie Ukrainy za konflikt i zbrodnie wojenne, wzbudzanie niepewności i dezorientacji. W raporcie przytoczono cztery przypadki, w których stworzono fałszywe okładki imitujące europejskie magazyny satyryczne, aby zaatakować Ukrainę i zdyskredytować prezydentaZełenskiego. Do arsenału fałszywek należały też rzekomerozmowy mera Kijowa Witalija Kliczko z burmistrzami Wiednia, Berlina i Madrytu w czerwcu zeszłego roku. Do odwzorowania głosu Kliczki użyto specjalnych filtrów deepfake. Jednak po 15 minutach rozmówcy nabrali podejrzeń co do autentyczności mera ukraińskiej stolicy.

Ukraińcy również sami nie stronią od wykorzystywania fałszywych informacji do dezorientacji Rosjan i budowania własnego ducha bojowego. Przykładem tego ostatniego działania były zamieszczane w mediach społecznościowych filmy o bohaterskim pilocie nazwanym Duchem Kijowa, który tylko w ciągu jednego dnia miał zestrzelić sześć maszyn wroga. Jak przyznał w maju 2022 roku były prezydent Ukrainy Petro Poroszenko, super bohater był tylko postacią mitologiczną, jednak jego obraz dotarł do milionów odbiorców w kraju i za granicą.

Kontrola treści

Jak widać technologia deepfake staje się coraz bardziej powszechna i coraz bardziej skuteczna w oszukiwaniu ludzi. Co więcej, badania eksperymentalne dowodzą, że w mediach społecznościowych jak Facebook, około jedna trzecia fałszywych informacji nie jest identyfikowana. Dlatego naukowcy zaczęli opracowywać techniki automatycznego wykrywania jej stosowania. Proste techniki obejmują wyszukiwanie błędów popełnianych przez programistów deepfake (na przykład, gdy zapominają usunąć lub zresetować współrzędne GPS zapisane w metadanych powiązanych z obrazem lub filmem). Nieco bardziej wyrafinowane skupiają się na badaniu właściwości technicznych obrazu (na przykład obszarów granicznych oddzielających ludzką twarz od tła obrazu) i użytej kamery (na przykład typowych sygnatur kamery występujących w filmie).

Metody te nie są raczej dostępne dla przeciętnych odbiorców. Do bardziej wyrafinowanego rozwiązania dążą naukowcy z amerykańskiej agencji DARPA. Polegać ono ma na automatycznym wykrywaniu i oznaczaniu zafałszowanych treści i obrazów. Rosnąca jakość i dokładność algorytmów będzie jednak utrudniać to zadanie i możemy mieć do czynienia z klasyczną zabawą w kotka i myszkę. Inne podejście reprezentuje koalicja firm medialnych i technologicznych pod nazwą Coalition for Content Provenance and Authority (C2PA), która ustanowiła standardy technicznew celu identyfikacji pochodzenia treści dla twórców, wydawców, platform medialnych i konsumentów. Jednak na razie najbardziej zdroworozsądkową metodą odróżniania treści prawdziwych od fałszywych jest traktowanie z podejrzliwością informacji pochodzących wyłącznie z jednego źródła. Instytucjonalnym, globalnym rozwiązaniem powinno być natomiast wdrożenie międzynarodowego, być może w ramach ONZ,porozumienia lub kodeksu postępowania dotyczącego zasad wykorzystywania przez rządy technologii deepfake.

Skutki dla demokracji

Nawet jeśli uda się ustalić zasady i warunki stosowania deepfake nie zapobiegnie to niewłaściwym praktykom, które służyć mogą także nieuczciwym politykom. Uzyskują oni bowiem swoistą „dywidendę kłamców”, która pozwala przywódcom politycznym kwestionować autentyczność ich własnych, rzeczywistych niewłaściwych zachowań, jak to miało miejsce również w przypadku Donalda Trumpa. W takich warunkach ofiarą technologii deepfake staje się prawda, bo spada zaufanie do rzetelnego dziennikarstwa, a nawet prawdziwe informacje i obrazy z miejsc wydarzeń są etykietowane jako fałszywe lub zmanipulowane, a odbiorcy tracą orientację, nie wiedząc na jakich wiadomościach polegać. To podważa zaufanie do wolnych mediów jako filaru demokracji.

W swoim przełomowym raporcie „Erozja Prawdy. Wstępna analiza zmniejszającej się roli faktów i analiz w amerykańskim życiu publicznym” (2018), współpracownicy RAND Corporation - Jennifer Kavanagh i Michael D. Rich zwrócili uwagę na cztery istotne trendy, które pokazują malejące znaczenie prawdy w społeczeństwie amerykańskim: rosnąca niezgoda w ocenach faktów i analitycznych interpretacjach faktów i danych; zatarcie granicy między opinią a faktem; rosnący wzrost opinii i osobistych doświadczeń na fakty oraz spadek zaufania do wcześniej szanowanych źródeł faktycznych informacji. Tendencje te sugerują, że deepfake będzie w coraz większym stopniu znajdować bardzo podatnych odbiorców, także poza USA. To może bardzo źle wróżyć demokracji.