Ekspert Pentagonu: Modele językowe AI mogą tworzyć "śmiertelnie niebezpieczną" dezinformację

Ten tekst przeczytasz w 2 minuty
17 maja 2023, 06:29
ChatGPT
Ekspert Pentagonu "śmiertelnie boi się" potencjalnego udziału ChGPT w tworzeniu dezinformacji/shutterstock
Wojsko USA coraz chętniej korzysta z generatywnej sztucznej inteligencji. Jednak dr Craig Martell, odpowiedzialny za wprowadzenie rozwiązań AI w amerykańskich siłach zbrojnych, ostrzega, że ​​może ona również stać się „doskonałym narzędziem” do dezinformacji.

Martell jest przekonany, że przeciwnicy Stanów Zjednoczonych z pewnością będą wykorzystywać ChatGPT, by osłabić ich pozycję. Natomiast dostawcy usług elektronicznych nie budują odpowiednich zabezpieczeń, przez co trudno będzie wychwycić i zweryfikować ewentualne próby wprowadzenia służb i opinii publicznej w błąd.

Czego boi się twórca sztucznej inteligencji?

„Stąd mój największy strach przed ChatGPT” — powiedział urzędnik Pentagonu. Ten model językowy „został tak wyszkolony, by wyrażać się w płynny sposób. Mówi płynnie i autorytatywnie. Więc wierzysz w to, nawet, jeśli są to brednie… Co oznacza, że ​​jest to doskonałe narzędzie do dezinformacji…” Aby się przed nią chronić, potrzebne są narzędzia, które będą w stanie wykryć fake newsy i poinformować o tym, że pojawiły się one w przestrzeni publicznej.  „A my nie mamy tych narzędzi”- ostrzegał Martell.

Jak zweryfikować informacje z ChatGPT?

„Jeśli zapytasz ChatGPT <<Czy mogę ci zaufać?>>, odpowiedź przez bardzo długi czas brzmi <<Nie>>” – powiedział do publiczności podczas eventu. "Nie żartuję. Mówi, że jest narzędziem i <<dam ci odpowiedź, a twoim obowiązkiem jest samodzielnie to zweryfikować>>. Tak więc obawiam się… używania ChatGPT.”

Martell, zapytany podczas konferencji AFCEA TechNet Cyber ​​w Baltimore  o swoje przemyślenia na temat sztucznej inteligencji odpowiedział, że się jej „śmiertelnie boi”. Odniósł się przy tym konkretnie do generatywnych modeli językowych sztucznej inteligencji, takich jak ChatGPT, które stanowią „fascynujący problem”: choć nie rozumieją kontekstu informacji, to jednak ludzie przyjmą ich słowa jako fakt, ponieważ te modele mówią autorytatywnie, uważa ekspert Pentagonu.

ChatGPT na służbie w specsłużbach

Ostrzeżenie Martella pojawiają się w czasie, gdy szefostwo Pentagonu planuje wykorzystać generatywną sztuczną inteligencję do gromadzenia danych wywiadowczych i przyszłych działań wojennych. 

Dr Craig Martell jest głównym oficerem ds. technologii cyfrowych i sztucznej inteligencji w Pentagonie. W ubiegłym roku przeszedł z sektora prywatnego do amerykańskiego Departamentu Obrony, ma na swoim koncie duże doświadczenie w pracy ze sztuczną inteligencją. Przed pracą dla CDAO (z ang. Główne Biuro ds. Cyfryzacji i Sztucznej Inteligencji) był szefem działu uczenia maszynowego w Lyft i Dropbox, kierował kilkoma zespołami sztucznej inteligencji na LinkedIn i przez ponad dekadę był profesorem w Szkole Podyplomowej Marynarki Wojennej, gdzie zajmował się opracowaniem sztucznej inteligencji dla wojska.

źródło: www.breakingdefense.com

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: Media
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj