Te „halucynacje” to nic innego jak sfabrykowane przez sztuczną inteligencję informacje, podawane odbiorcy tak jakby były prawdziwe. W lutowym filmie promocyjnym Google’owego chatbota Bard przedstawiono nieprawdziwe twierdzenie na temat Kosmicznego Teleskopu Jamesa Webba. Niedawno w sądzie federalnym w Nowym Jorku dwoje prawników przedstawiło wygenerowane przez ChatGPT fałszywe orzeczenia sądowe. Obaj adwokaci zostaną ukarani. Być może nawet stracą prawo do wykonywania zawodu

Ile prawdy w odpowiedziach AI?

„Nawet najnowocześniejsze modele są podatne na fałszowanie – wykazują tendencję do wymyślania faktów, gdy brakuje im pewności” – napisali w swoim raporcie badacze z OpenAI. „Te halucynacje są szczególnie problematyczne w dziedzinach wymagających wieloetapowego rozumowania, ponieważ wystarczy jeden błąd logiczny, aby znacznie większe rozwiązanie okazało się fałszywe”.

Reklama

Nowa strategia OpenAI do walki z konfabulacjami nazywa się „nadzorem procesu”. W przeciwieństwie do „nadzoru wyników” stawia na nagradzanie sztucznej inteligencji za każdy prawidłowy krok w toku rozumowania, gdy dochodzi do odpowiedzi, zamiast tylko nagradzać poprawny końcowy wniosek. Według naukowców strategia nadzoru procesu zachęca modele do podążania za bardziej ludzkim łańcuchem „rozumowania”.

Co na to twórcy AI?

„Wykrywanie i łagodzenie błędów logicznych lub halucynacji modelu jest kluczowym krokiem w kierunku zbudowania zrównoważonego AGI [lub sztucznej inteligencji ogólnej]”, powiedział CNBC Karl Cobbe, badacz matematyki w OpenAI. „Motywacją stojącą za tymi badaniami jest zajęcie się halucynacjami, aby modele były lepiej przygotowane do rozwiązywania trudnych problemów rozumowania”.

Jak szybko uda się stworzyć uniwersalne narzędzia działające zawsze i w każdych warunkach, trudno przewidzieć. „Społeczność naukową czeka wstrząs, zanim będziemy mogli powiedzieć coś pewnego na ten temat” - uważa Suresh Venkatasubramanian, dyrektor centrum odpowiedzialności technologicznej na Brown University. „Ze względu na ogólną niestabilność działania dużych modeli językowych to, co może działać w jednym ustawieniu, modelu i kontekście, może nie działać w innym ustawieniu, modelu i kontekście ”- dodał Venkatasubramanian

OpenAI przyspieszyło generatywny boom sztucznej inteligencji w zeszłym roku, kiedy wypuściło ChatGPT, swojego chatbota opartego na modelu GPT-3 i GPT-4. Na początku liczba użytkowników przekraczała 100 miliony miesięcznie, najprawdopodobniej ustanawiając rekord najszybciej rozwijającej się aplikacji. Do tej pory Microsoft zainwestował ponad 13 miliardów dolarów w OpenAI, a wartość startupu osiągnęła blisko 29 miliardów dolarów.