Miesiąc temu konsultingowy gigant Accenture przedstawił potencjalnemu klientowi nietuzinkową i przyciągającą uwagę ofertę nowego projektu. Zamiast standardowej prezentacji, klient miał okazję zobaczyć tzw. deepfake kilkorga rzeczywistych pracowników, którzy na wirtualnej scenie z perfekcją opisali projekt, nad którym pragnęli pracować.

Zachwyt i niepokój

„Chciałem, by mogli poznać nasz zespół” - mówi Renato Scaff, starszy dyrektor zarządzający w Accenture, autor pomysłu. „To również sposób, byśmy mogli wyróżnić się na tle konkurencji.”

Reklama

Deepfake'i zostały stworzone – za zgodą pracowników – przez Touchcast - firmę, w którą Accenture zainwestowało, i która oferuje właśnie platformę do interaktywnych prezentacji. Awatary Touchcast mogą odpowiadać na zadane pytania pisemnie lub ustnie, korzystając z modeli AI, które analizują odpowiednie informacje i generują odpowiedzi na bieżąco.

„Jest w tym coś niepokojącego” - przyznaje Scaff, mówiąc o swoich pracownikach-deepfake'ach. „Ale przeważa element zachwytu.”

Deepfake'i to potężne, a zarazem niebezpieczne narzędzie dezinformacji i szkody reputacyjnej. Mimo to, technologia jest chętnie wykorzystywana przez firmy, które widzą w niej innowacyjny i przyciągający sposób na komunikację i interakcję z klientami.

Fałszywy profesor rozwieje wątpliwości?

Eksperymenty te nie ograniczają się jedynie do sektora korporacyjnego. Monica Arés, dyrektor wykonawcza Laboratorium Innowacji, Edukacji Cyfrowej i Analiz w Imperial College Business School w Londynie, stworzyła deepfake'i rzeczywistych profesorów, mając nadzieję, że będą one bardziej angażującym i skutecznym sposobem na odpowiadanie na pytania studentów poza salą wykładową. Arés uważa, że technologia ta ma potencjał zwiększenia personalizacji, oferowania nowych metod zarządzania i oceny studentów oraz podniesienia ich zaangażowania. „Nadal widzisz ludzką podobiznę mówiącą do ciebie, co sprawia, że komunikacja wydaje się bardzo naturalna” - mówi.

Jak to bywa w dzisiejszych czasach, za to rozmycie granic rzeczywistości możemy podziękować AI.

Aktorzy, a nawet sobowtóry

Od dawna możliwe było, że hollywoodzkie wytwórnie kopiowały głosy, twarze i maniery aktorów za pomocą oprogramowania, ale ostatnie lata przyniosły AI, które uczyniło podobną technologię szeroko dostępną i niemalże bezkosztową. Oprócz Touchcast, firmy takie jak Synthesia i HeyGen oferują przedsiębiorstwom możliwość generowania awatarów rzeczywistych lub fikcyjnych postaci na potrzeby prezentacji, marketingu i obsługi klienta.

Edo Segal, założyciel i dyrektor generalny Touchcast, uważa, że cyfrowe awatary mogą stanowić nowy sposób prezentowania treści i interakcji z nią. Jego firma opracowała platformę oprogramowania o nazwie Genything, która umożliwi każdemu stworzenie własnego cyfrowego sobowtóra.

Zagrożenie wyborcze? Ofiarą pada Taylor Swift

Tymczasem deepfake'i stają się poważnym zagrożeniem w kontekście zbliżających się wyborów w wielu krajach, w tym w USA. W zeszłym miesiącu wykorzystano AI-generowane połączenia robocze z fałszywym Joe Bidenem do rozpowszechniania dezinformacji wyborczych. Taylor Swift również niedawno padła ofiarą deepfake'owego porno generowanego przy użyciu szeroko dostępnych narzędzi AI do tworzenia obrazów.

„Obrazy deepfake z pewnością budzą nasz niepokój i są alarmujące” - powiedział Ben Buchanan, specjalny doradca BiałegoDomu ds. AI, w niedawnym wywiadzie dla WIRED. „Deepfake z Taylor Swift jest kluczowym przykładem szerszego trendu, który nieproporcjonalnie dotyka kobiet i dziewcząt, będących przeważnie celami nękania i nadużyć w sieci” - dodał.

Nowo utworzony amerykański Instytut Bezpieczeństwa AI, powołany na mocy rozporządzenia Białego Domu z zeszłego października, pracuje nad standardami znakowania wodnego mediów generowanych przez AI. Meta, Google, Microsoft i inne firmy technologiczne również opracowują technologie mające na celu wykrywanie fałszerstw AI, co staje się wyścigiem zbrojeń na wysokim poziomie.

„Zmusić do powiedzenia czegokolwiek”

Niektóre polityczne zastosowania deepfake'ów dowodzą dwuznacznego potencjału tej technologii.

Imran Khan, były premier Pakistanu, wygłosił przemówienie do swoich zwolenników w zeszłą sobotę, będąc… za kratami. Były gwiazdor krykieta, uwięziony w wyniku tego, co jego partia określiła jako zamach stanu, przemawiał za pomocą oprogramowania deepfake, tworząc przekonującą kopię siedzącą za biurkiem i wypowiadającą słowa, których nigdy nie wypowiedział.

W miarę jak manipulacja wideo napędzana przez AI staje się coraz lepsza i łatwiejsza w użyciu, zainteresowanie biznesowe i konsumenckie legalnymi zastosowaniami tej technologii prawdopodobnie wzrośnie. Chiński gigant technologiczny Baidu niedawno opracował sposób, by użytkownicy jego aplikacji chatbot mogli tworzyć deepfake'i do wysyłania życzeń z okazji Chińskiego Nowego Roku.

Nawet dla pionierów wykorzystania tej technologii potencjał nadużyć nie jest ignorowany. „Bez wątpienia, bezpieczeństwo musi być priorytetem,” podkreśla Scaff z Accenture. „Posiadając syntetycznego sobowtóra, można go zmusić do zrobienia i powiedzenia czegokolwiek.”