Sztuczna inteligencja i halucynacje. Czy każda odpowiedź od ChatGPT jest prawdziwa?

Ten tekst przeczytasz w 2 minuty
2 czerwca 2023, 06:30
ChatGPT
Zdarza się, że ChatGPT tworzy fałszywe informacje, które przekazuje użytkownikowi jako prawdziwe informacje/shutterstock
OpenAI ogłosił w środę, że podejmuje walkę z „halucynacjami” AI. Służyć temu będą nowe metody szkolenia modeli sztucznej inteligencji.

Te „halucynacje” to nic innego jak sfabrykowane przez sztuczną inteligencję informacje, podawane odbiorcy tak jakby były prawdziwe. W lutowym filmie promocyjnym Google’owego chatbota Bard przedstawiono nieprawdziwe twierdzenie na temat Kosmicznego Teleskopu Jamesa Webba. Niedawno w sądzie federalnym w Nowym Jorku dwoje prawników przedstawiło wygenerowane przez ChatGPT fałszywe orzeczenia sądowe. Obaj adwokaci zostaną ukarani. Być może nawet stracą prawo do wykonywania zawodu

Ile prawdy w odpowiedziach AI?

„Nawet najnowocześniejsze modele są podatne na fałszowanie – wykazują tendencję do wymyślania faktów, gdy brakuje im pewności” – napisali w swoim raporcie badacze z OpenAI. „Te halucynacje są szczególnie problematyczne w dziedzinach wymagających wieloetapowego rozumowania, ponieważ wystarczy jeden błąd logiczny, aby znacznie większe rozwiązanie okazało się fałszywe”. 

Nowa strategia OpenAI do walki z konfabulacjami nazywa się „nadzorem procesu”. W przeciwieństwie do „nadzoru wyników” stawia na nagradzanie sztucznej inteligencji za każdy prawidłowy krok w toku rozumowania, gdy dochodzi do odpowiedzi, zamiast tylko nagradzać poprawny końcowy wniosek. Według naukowców strategia nadzoru procesu zachęca modele do podążania za bardziej ludzkim łańcuchem „rozumowania”. 

Co na to twórcy AI?

„Wykrywanie i łagodzenie błędów logicznych lub halucynacji modelu jest kluczowym krokiem w kierunku zbudowania zrównoważonego AGI [lub sztucznej inteligencji ogólnej]”, powiedział CNBC Karl Cobbe, badacz matematyki w OpenAI. „Motywacją stojącą za tymi badaniami jest zajęcie się halucynacjami, aby modele były lepiej przygotowane do rozwiązywania trudnych problemów rozumowania”.

Jak szybko uda się stworzyć uniwersalne narzędzia działające zawsze i w każdych warunkach, trudno przewidzieć. „Społeczność naukową czeka wstrząs, zanim będziemy mogli powiedzieć coś pewnego na ten temat” - uważa Suresh Venkatasubramanian, dyrektor centrum odpowiedzialności technologicznej na Brown University. „Ze względu na ogólną niestabilność działania dużych modeli językowych to, co może działać w jednym ustawieniu, modelu i kontekście, może nie działać w innym ustawieniu, modelu i kontekście ”- dodał Venkatasubramanian

OpenAI przyspieszyło generatywny boom sztucznej inteligencji w zeszłym roku, kiedy wypuściło ChatGPT, swojego chatbota opartego na modelu GPT-3 i GPT-4. Na początku liczba użytkowników przekraczała 100 miliony miesięcznie, najprawdopodobniej ustanawiając rekord najszybciej rozwijającej się aplikacji. Do tej pory Microsoft zainwestował ponad 13 miliardów dolarów w OpenAI, a wartość startupu osiągnęła blisko 29 miliardów dolarów.

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: forsal.pl
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj