Najlepiej w identyfikacji treści (według Indeksu Artificial Intelligence 2023 Uniwersytetu Stanforda) spisał się algorytm naukowców z Deakin University's School of Information Technology w Australii (poprawność w 78 proc. przypadków) – podaje Bloomberg.

„To dość dobre wyniki” – zaznaczył Chang-Tsun Li, profesor z Deakin University's Centre for Cyber Resilience and Trust (CREST), odpowiedzialny za opracowanie algorytmu. „Ale technologia jest wciąż w fazie rozwoju” – dodał Li. Zdaniem eksperta metoda nie jest jeszcze gotowa do komercyjnego użytku, ponieważ wymaga ulepszenia.

Deepfake to określenie treści (np. nagrania wideo/zdjęcia) przedstawiających sfałszowane wypowiedzi/obrazy. Materiał przygotowany jest przy użyciu technik sztucznej inteligencji. Najczęściej publikacje dotyczą popularnych osób – np. celebrytów, polityków, aktorów oraz sportowców.

Mała uwaga ws. narzędzi do wykrywania deepfake’ów

„[...] Potencjał wyrządzenia poważnych szkód poprzez deepfake’owe materiały , od manipulacji wyborczych po akty seksualne, wzrósł wraz z postępem technologii” – pisze Bloomberg.

Firmy zainwestowały dziesiątki miliardów dolarów w produkty AI, by objąć „przewodnią rolę w technologii”. Z drugiej strony – jak zaznacza agencja – rynek technologii do usuwania fałszywych treści jest „stosunkowo niewielki”.

Globalny rynek produktów związanych z wykrywaniem deepfake’ów został wyceniony na 3,86 mld dolarów w 2020 r – według firmy badawczej HSRC. Z prognoz wynika, że do 2026 rok. będzie wzrastał o ok. 42 proc. rocznie.

Aplikacje takie jak Chat GPT (opracowany przez OpenAI) zyskują coraz większą popularność, ale nie brakuje też ich przeciwników, jak np. Elon Musk i Sundar Pichai, którzy uznali wspomniane narzędzię za zagrożenie.

Claire Leibowicz, szefowa programu „AI and Media Integrity" w organizacji non-profit The Partnership on AI podkreśla: eksperci zgadzają się z opinią, iż generowaniu treści przez sztuczną inteligencję poświęca się zbyt dużo uwagi, a zbyt mało czasu przypada na identyfikację materiałów stworzonych przez AI.

Minie trochę czasu zanim narzędzia do wykrywania deepfake' ów będą gotowe do użycia w walce z falą fałszywych materiałów AI. Powodem takiego stanu są m.in. zaporowe ceny ws. opracowania dokładnych metod. Jak dodaje agencja, „zachęty prawne lub finansowe do tego są niewielkie”.

Kto chce walczyć z deepfake’owymi materiałami?

Liderzy ds. bezpieczeństwa „obawiają się generatywnej sztucznej inteligencji”, ale wykrywanie deepfake’ów nie jest ich głównym celem, na który wydają budżet – podkreśla Jeff Pollard, analityk z firmy Forrester Research. „Mają tyle innych problemów” – dodaje.

Pomimo tego kilka startupów i większych firm opracowuje technologię do wykrywania fałszywych treści. Na przykład Intel (producent przedstawił w ubiegłym roku produkt FakeCatcher w ramach swojej pracy nad odpowiedzialną AI). Narzędzie szuka autentycznych wskazówek w prawdziwych filmach, oceniając cechy ludzkie (np. przepływ krwi w pikselach wideo). Według firmy produkt może wykrywać podróbki z 96 proc. dokładnością.

Start-upy zajmujące się wykrywaniem deepfake'ów*:

  • YPB Group (Australia) - 19,7 mln dol.
  • BLACKBIRD.AI (USA) - 15,2 mln dol.
  • Attestiv (USA) - 3,4 mln dol.
  • Reality Defender (USA) - 3 mln dol.
  • Sensity (Holandia) - 1,4 mln dol.
źródło Bloomberg, *pod względem zebranych funduszy, 2023 r.

Narzędzia dla rządów i firm

Do tej pory startupy, zajmujące się wykrywaniem deepfake'ów, służyły głównie rządom i firmom. Dostęp dla konsumentów jest dość ograniczony.

Ile kosztują usługi narzędzi do walki z fałszywymi materiałami? Reality Defender pobiera opłaty na podstawie liczby wykonanych skanów. To koszt nawet od dziesiątek tysięcy do milionów dolarów.

Media społecznościowe (np. Facebook i Twitter) nie są prawnie zobowiązane do wykrywania i ostrzegania o treściach w stylu deepfake – zaznacza Ben Colman, dyrektor generalny Reality Defender. Jedyne organizacje robiące coś w tej kwestii, to takie jak np. banki, „które mają bezpośredni związek z oszustwami finansowymi” – dodaje Colman.

A liczba wyłudzeń z wykorzystaniem AI rośnie, przestępcy szukają nowych metod, by nakłonić ofiary np. do przelewania pieniędzy. Gdy na rynku nie będzie „masowo stosowanego” narzędzia do wykrywania fałszywych treści „złoczyńcy mają mnóstwo okazji” do oszustw.

Czy konsument będzie chciał zapłacić?

[...] Szybkie rozprzestrzenianie się deepfake'ów wymaga potężniejszych algorytmów i zasobów obliczeniowych uważa Xuequan Lu, profesor Deakin University.

To, z czym mamy obecnie do czynienia, „jest bardzo podobne do tego, co widziałem we wczesnych latach branży antywirusowej”– wspomina Ted Schlein, prezes i główny partner w Ballistic Ventures, który inwestuje w wykrywanie deepfake’ów (a wcześniej w oprogramowania antywirusowe).

Wówczas, gdy ataki hakerskie stawały się coraz bardziej wyrafinowane i szkodliwe, rozwijało się oprogramowanie antywirusowe. W pewnym momencie cena antywirusów osiągnęła „wystarczająco tani” poziom, by konsumenci mogli korzystać z programów na własnych komputerach. „Jesteśmy na bardzo początkowych fazach deepfake’ów” – ocenia Schelin. Do tej pory były tworzone głównie w celach rozrywkowych. „Teraz dopiero zaczynamy dostrzegać kilka złośliwych przypadków” – zaznacza.

Z kolei Shuman Ghosemajumder, były szef ds. sztucznej inteligencji w F5 Inc. (firmie zajmującej się bezpieczeństwem i zapobieganiem przed oszustwami) sądzi, że nawet jeśli narzędzia do walki z fałszywymi materiałami będą wystarczająco tanie, to przeciętni klienci mogą nie być skłonni płacić. „Konsumenci nie chcą sami wykonywać żadnej dodatkowej pracy” – tłumaczy Ghosemajumder. „Chcą być chronieni automatycznie w jak największym stopniu” – dodaje.