Sztuczna inteligencja jak ChatGPT może dostarczać informacji służących popełnieniu przestępstw. Zarówno co do ich sposobu, miejsca, jak i profili oraz zachowań poszczególnych ofiar. Aplikacje mają jednak zabezpieczenia utrudniające ich wykorzystanie do niewłaściwych, dyskryminujących czy wręcz przestępczych celów. Zadawanie więc bezpośrednich pytań dotyczących sposobu kradzieży czy włamania nie wygeneruje pożądanej odpowiedzi. Niestety, jak wskazuje analiza Europolu czyli Agencji Unii Europejskiej ds. Współpracy Organów Ścigania, zabezpieczenia te można obejść, stosując tzw. prompt engineering, czyli specyficzne podawanie komend sztucznej inteligencji takl, aby wpłynąć na uzyskany wynik. Stosuje się tu zamianę słów, które wyzwalają blokadę, pytania fragmentaryczne, prośbę o opinie czy tworzenie fikcyjnych przykładów, które jednak można później odnieść do rzeczywistych sytuacji.

Jak ominąć zabezpieczenia OpenAI

W internecie i darknecie powstają już dedykowane fora hakerskie służące dzieleniu się sposobami łamania ograniczeń ChatGPT. Stamtąd pochodzą też bardziej wyrafinowane techniki skupiające się na zestawach konkretnych instrukcji mających na celu złamanie modelu generowania odpowiedzi. Jednym z nich jest tak zwany jailbreak DAN („Zrób wszystko teraz”), który jest monitem specjalnie zaprojektowanym w celu ominięcia zabezpieczeń OpenAI i skłonienia ChatGPT do reagowania na wszelkie dane wejściowe, niezależnie od ich potencjalnie szkodliwego charakteru. To otwiera przez przestępcami zupełnie nowe możliwości udostępniając im informacje, które będzie szansa zgłębiać w kolejnych krokach. W ten sposób ChatGPT można wykorzystać do poznania ogromnej liczby potencjalnych obszarów przestępczości bez uprzedniej wiedzy, począwszy od sposobów włamania się do domu, a skończywszy na terroryzmie, cyberprzestępczości i wykorzystywaniu seksualnym dzieci.

Reklama

Sztuczna inteligencja wzbogaciła przestępcze możliwości posługiwania się metodą phishingu, czyli podszywania się pod znane osoby lub instytucje celem dokonywania wyłudzeń. Przyczynia się do tego zdolność ChatGPT do tworzenia wysoce autentycznych tekstów na podstawie podpowiedzi użytkownika. Wcześniej wiele podstawowych oszustw phishingowych można było łatwo wykryć z powodu oczywistych błędów gramatycznych i ortograficznych, bo przestępcy produkowali komunikaty na własną rękę. Teraz uwiarygodnienie osób na wysokim stanowiskach stało się bardzo realistyczne. A ChatGPT może oferować przestępcom również zdolność do naśladowania określonego stylu pisania czy wypowiedzi. W ten sposób różne rodzaje oszustw internetowych mogą zyskać dodatkową legitymację w mediach społecznościowych, na przykład w celu promowania fałszywej oferty inwestycyjnej. Co więcej, za sprawą wielkich modeli językowych phishing i oszustwa internetowe mogą być dostosowane do specyfiki odbiorców i używane na dużą skalę bazując na naśladownictwie wypowiedzi nawet prywatnych osób. Na przykład w kwietniu w amerykańskiej Arizonie próbowano uzyskać okup w wysokości miliona dolarów od matki dziewczyny, której głos niemal idealnie sklonowano, a technikę taką można stosować w odniesieniu do wielu osób jednocześnie, jeśli dysponuje się odpowiednim materiałem wejściowym.

Wykorzystywanie deepfake przez przestępców

Sztuczna inteligencja służy też do obchodzenia zabezpieczeń biometrycznych związanych z uwierzytelnieniem klienta w bankowości czy innych usługach. W czasie tego procesu klient proszony jest o zrobienie i wysłanie zdjęcia twarzy. Technologia deepfake umożliwia jednak w czasie wysyłania strumienia danych ze smartfona podmianę jej obrazu. Ataki te zazwyczaj wykorzystują tzw. emulatory do naśladowania urządzenia użytkownika, czyli telefonu lub laptopa, a także fałszowania metadanych w celu ukrycia źródła ataku. Deepfake nauczył się także obchodzić dodatkowe zabezpieczenia jak wykonywanie przez klienta na żądanie ruchów głowy, mrugnięcia okiem czy uśmiechu. Dzięki temu oszuści mogą podszywać się pod użytkownika działającego w dobrej wierze i uzyskać nieautoryzowany dostęp do systemów, kont lub założyć nowe. Zaletą tej technologii dla przestępców jest brak konieczności wyrabiania fałszywych dokumentów, bo mogą wykorzystać te przejęte i poddać je video obróbce, w trakcie której można zaprogramować niektóre ruchy mimiczne twarzy, co umożliwia obejście systemów weryfikacji. Niestety większość osób korzystających z cyfrowego uwierzytelnienia nie ma świadomości dotyczącej istnienia i sposobu funkcjonowania technologii deepfake.

Oprócz generowania języka podobnego do ludzkiego w piśmie i mowie oraz cyfrowych obrazów postaci generatywna sztuczna inteligencja jest w stanie tworzyć kod w wielu różnych językach programowania, co daje nowe możliwości w zakresie cyberprzestępczości, praktycznie bez posiadania wiedzy i umiejętności IT. W ten sposób przestępcy mogą wykorzystywać złośliwe wirusy typu ransomware służące do szyfrowania danych firm czy szpitali lub dostawców mediów i wyłudzania okupu. Tutaj też jest wymagane obejście zabezpieczeń algorytmów, gdyż prosta komenda typu „stwórz ransomware” wygeneruje komunikat; „To nielegalne”.

Wysiłki mające na celu wykrywanie negatywnych efektów działań generowanych przez modele sztucznej inteligencji trwają, ale do pełnego sukcesu droga jest daleka. W odpowiedzi na naciski opinii publicznej organizacja non-profit Partnership on AI (PAI) opracowała jednak zestaw odpowiednich wytycznych dotyczących tworzenia i udostępniania treści generowanych przez sztuczną inteligencję. Wytyczne zostały podpisane przez grupę kilkunastu firm, w tym OpenAI, zobowiązujących się do przestrzegania szeregu najlepszych praktyk. Obejmują one informowanie użytkowników, że wchodzą w interakcję z treściami generowanymi przez sztuczną inteligencję (np. za pomocą znaków wodnych, zastrzeżeń lub elementów identyfikowalnych). Trudno jednak aby przedsięwzięcia te wpłynęły w sposób znaczący na środowiska przestępcze.

ChatGPT może zrewolucjonizować kryminologię

Poprzez przełomowe możliwościami ChatGPT może zrewolucjonizować kryminologię, wspierając kryminalistykę w dochodzeniach śledczych w kontekście medycznym i pozamedycznym. Algorytm wykona pracę wielu prawników, asystentów prawnych i studentów, niemal w mgnieniu oka przy znacznym obniżeniu kosztów. Możliwości ChatGPT-4 obejmują różne techniki kryminalistyczne, w tym rozpoznawanie odcisków palców i twarzy, progresję wieku, toksykologię, kryminalistykę cyfrową i analizę dowodów biologicznych. Zdolność tej technologii do szybkiego i dokładnego analizowania ogromnych ilości danych sprawia, że ​​stanie się ona nieocenionym narzędziem dla śledczych i ekspertów medycyny sądowej. ChatGPT-4 będzie też wykorzystywany do analizy DNA i identyfikacji podejrzanych.

Jak AI pomoże śledczym?

W kontekstach pozamedycznych ChatGPT-4 może też analizować duże ilości danych tekstowych, takich jak posty w mediach społecznościowych, e-maile i fora internetowe, pomagając śledczym zidentyfikować ukryte powiązania między podejrzanymi a ofiarami oraz weryfikować potencjalne motywy i zamiary przestępców. Analizę wideo opartą na sztucznej inteligencji można również wykorzystać do analizy nagrań z monitoringu, identyfikowania podejrzanych działań lub osób będących przedmiotem zainteresowania organów ścigania. Istotne skrócenie czasu potrzebnego do znalezienia odpowiednich informacji, interpretacji śladów i dowodów w dochodzeniach karnych może pomóc w szybszym schwytaniu przestępcy i oszczędzić kolejnych ofiar. Sztuczna inteligencja pozwoli też na doskonalenie technik przesłuchań, profilowania przestępców, rekonstrukcji miejsca zbrodni oraz odkrycie kluczowych dowodów w wielu nierozwiązanych dotąd sprawach.

Problemem jest fakt, że sprawiedliwość i jej organy powoli dostosowują się do nowych technologii. Fałszywe informacje, często hurtowo fabrykowane w formie zdjęć, filmów i tekstów będą nękać wymiar sprawiedliwości przez długi czas. Przestępcy korzystając z narzędzi AI, będą podrzucać śledczym różne fałszywe dowody i tropy jak spreparowane odciski palców czy fałszywe cyfrowe postaci wklejone do ulicznego monitoringu CCTV pasujące do rzekomego podejrzanego. Kluczowym jest wobec tego, aby przedstawiciele organów ścigania szybko mogli zrozumieć wpływ sztucznej inteligencji na technikę popełniania przestępstw, także aby móc lepiej przewidywać, zapobiegać i badać różne ich rodzaje. Chodzi także o to, aby rozwinąć różne systemy gromadzenia i analizy nowej wiedzy i źródeł danych, a także zrozumieć jak dzięki nim można szybko uzyskać pożądane wyniki. Oznacza to, że funkcjonariusze muszą być w stanie ocenić treści powstałe przy wykorzystaniu generatywnych modeli sztucznej inteligencji także pod względem ich dokładności i potencjalnych błędów, które mogą spychać dochodzenia na manowce.

AI wesprze autorów kryminałów

Paradoksalnie szybciej z generatywnej sztucznej inteligencji skorzystać mogą autorzy kryminałów. Dzięki technologii mogą oni szybko i łatwo generować pomysły, co pozwala im skupić się na tworzeniu wciągającej narracji. Na przykład ChatGPT może dostarczać podpowiedzi związanych z opisem postaci i miejscem zbrodni, tworząc opisy scenerii i obiektów uwiarygodniając zachowania głównych bohaterów i ich motywów. A przez to historia stanie się wyjątkowa i wciągająca, tym bardziej, że może także generować unikalne, nieoczekiwane zwroty akcji. Wobec tych możliwości autorzy w końcu mogą sami w ogóle przestać być potrzebni.