Martell jest przekonany, że przeciwnicy Stanów Zjednoczonych z pewnością będą wykorzystywać ChatGPT, by osłabić ich pozycję. Natomiast dostawcy usług elektronicznych nie budują odpowiednich zabezpieczeń, przez co trudno będzie wychwycić i zweryfikować ewentualne próby wprowadzenia służb i opinii publicznej w błąd.

Czego boi się twórca sztucznej inteligencji?

Reklama

„Stąd mój największy strach przed ChatGPT” — powiedział urzędnik Pentagonu. Ten model językowy „został tak wyszkolony, by wyrażać się w płynny sposób. Mówi płynnie i autorytatywnie. Więc wierzysz w to, nawet, jeśli są to brednie… Co oznacza, że ​​jest to doskonałe narzędzie do dezinformacji…” Aby się przed nią chronić, potrzebne są narzędzia, które będą w stanie wykryć fake newsy i poinformować o tym, że pojawiły się one w przestrzeni publicznej. „A my nie mamy tych narzędzi”- ostrzegał Martell.

Jak zweryfikować informacje z ChatGPT?

„Jeśli zapytasz ChatGPT <<Czy mogę ci zaufać?>>, odpowiedź przez bardzo długi czas brzmi <<Nie>>” – powiedział do publiczności podczas eventu. "Nie żartuję. Mówi, że jest narzędziem i <<dam ci odpowiedź, a twoim obowiązkiem jest samodzielnie to zweryfikować>>. Tak więc obawiam się… używania ChatGPT.”

Martell, zapytany podczas konferencji AFCEA TechNet Cyber ​​w Baltimore o swoje przemyślenia na temat sztucznej inteligencji odpowiedział, że się jej „śmiertelnie boi”. Odniósł się przy tym konkretnie do generatywnych modeli językowych sztucznej inteligencji, takich jak ChatGPT, które stanowią „fascynujący problem”: choć nie rozumieją kontekstu informacji, to jednak ludzie przyjmą ich słowa jako fakt, ponieważ te modele mówią autorytatywnie, uważa ekspert Pentagonu.

ChatGPT na służbie w specsłużbach

Ostrzeżenie Martella pojawiają się w czasie, gdy szefostwo Pentagonu planuje wykorzystać generatywną sztuczną inteligencję do gromadzenia danych wywiadowczych i przyszłych działań wojennych.

Dr Craig Martell jest głównym oficerem ds. technologii cyfrowych i sztucznej inteligencji w Pentagonie. W ubiegłym roku przeszedł z sektora prywatnego do amerykańskiego Departamentu Obrony, ma na swoim koncie duże doświadczenie w pracy ze sztuczną inteligencją. Przed pracą dla CDAO (z ang. Główne Biuro ds. Cyfryzacji i Sztucznej Inteligencji) był szefem działu uczenia maszynowego w Lyft i Dropbox, kierował kilkoma zespołami sztucznej inteligencji na LinkedIn i przez ponad dekadę był profesorem w Szkole Podyplomowej Marynarki Wojennej, gdzie zajmował się opracowaniem sztucznej inteligencji dla wojska.

źródło: www.breakingdefense.com