Dzięki odpowiednim dostępnym obecnie narzędziom każdy może stworzyć pozornie prawdziwe obrazy lub sprawić, że głosy wybitnych osobistości politycznych lub gospodarczych oraz artystów estradowych będą mówiły, co tylko chcą. I tak w sieci mogą pojawić się obrazy z byłym prezydentem USA Donaldem Trumpem, który pozuje z czarnymi wyborcami, czy prezydentem Joe Bidenem, który w rozmowie telefonicznej zniechęca ludzi do głosowania lub z papieżem w bufiastej białej marynarce.
I choć tworzenie deepfake’ów samo w sobie nie jest przestępstwem, to wiele rządów chcąc zapobiegać ewentualnym oszustwom, zmierza w kierunku silniejszych regulacji dotyczących korzystania ze sztucznej inteligencji.
Oprócz głównego nurtu deepfakes polegającego na tworzeniu treści pornograficznych z użyciem bez zgody wizerunku różnych osób, głównie celebrytek, technologia ta może być również wykorzystywana do oszustw związanych z tożsamością poprzez wytwarzanie fałszywych dokumentów tożsamości lub podszywanie się pod inne osoby w rozmowie przez telefon.
Jak pokazuje wykres statista.com sporządzony na podstawie najnowszego raportu rocznego firmy Sumsub, dostawcy usług weryfikacji tożsamości, w latach 2022–2023 w wielu krajach na całym świecie liczba przypadków oszustw związanych z tożsamością typu deepfake gwałtownie wzrosła.
Na przykład liczba prób oszustw z wykorzystaniem AI na Filipinach wzrosła o 4500 procent rok do roku, a w dalszej kolejności w takich krajach jak Wietnam, Stany Zjednoczone i Belgia. Ponieważ możliwości tzw. sztucznej inteligencji mogą jeszcze bardziej wzrosnąć, czego dowodem są produkty takie jak generator wideo AI Sora, próby oszustw typu deepfake mogą również przenieść się na inne obszary.