Powszechnie budzą niepokój, ale zrozumienie ich natury i ograniczeń może przynieść korzyści. Według badaczy, takich jak szef technologii w firmie Vectary, Amin Ahmad, i profesor Santosh Vempala, halucynacje są nieuniknione ze względu na sposób, w jaki modele kompresują i przetwarzają dane. Bywają one postrzegane jako słaba strona systemów, ale mogą też posłużyć jako narzędzie dla kreatywności.

Co nam dają halucynacje?

Halucynacje AI można określić jako rodzaj zabezpieczenia utrzymującego nas w kontakcie z rzeczywistością, ponieważ wymagają weryfikacji i interpretacji. Dopóki zdajemy sobie sprawę, że chatbot może wypisywać brednie, a graficzne AI umieszcza dodatkowe palce w dłoniach, dopóty zachowujemy ostrożność.

Reklama

Te błędy algorytmów mogą nawet wpływać na różne dziedziny, jak np. prawo, gdzie precyzja i faktualność są kluczowe, tym samym dając ludziom pewność zachowania miejsc pracy. Rozważmy właśnie profesję prawniczą jako przykład. Chociaż modele językowe mogą tworzyć pozornie wiarygodne pisma procesowe, ich zawartość często okazuje się całkowicie fikcyjna. Zdarzył się nawet głośny przypadek, w którym dwóch prawników przedstawiło sądowi pismo oparte na sześciu wyrokach sądowych, które zostały całkowicie zmyślone przez ChatGPT. Ich działanie spotkało się z sankcjami i wyśmiewaniem. Po takim incydencie, tylko nierozsądny prawnik zdecydowałby się na wykorzystanie chatbotów do wyszukiwania orzeczeń sądowych bez weryfikacji. Niestety, takie nadużycia już miały miejsce. Wspomnijmy choćby Michaela Cohena, który wykorzystał fikcyjne orzeczenia sądowe wytworzone przez LLM Google'a w obronie Donalda Trumpa i został za to skazany.

Kłamstwo prawdziwsze niż rzeczywistość?

Czasami fikcje generowane przez AI wydają się bardziej wiarygodne niż same fakty, które bywają niezwykle absurdalne i rozczarowujące. Ile razy zdarzyło się słyszeć historie tak surrealistyczne, że trudno wyobrazić sobie ich użycie w scenariuszu filmowym? W dzisiejszych czasach to codzienność. Halucynacje AI mogą przyciągać, oferując alternatywną rzeczywistość, mniej szokującą od naszej. Co ciekawe, chatboty często uciekają się do najbardziej prawdopodobnych detali, bazując na swoich danych szkoleniowych, co może nieść ze sobą swoistą formę prawdy. To porównywalne do pracy pisarza, który, inspirując się realnymi wydarzeniami, odchodzi od faktów na rzecz konstrukcji głębszej, bardziej sugestywnej narracji, tworząc coś, co może wydawać się bardziej realne niż sama rzeczywistość. - Artystyczne zastosowanie systemów generatywnych zyskuje na popularności, gdyż oferują one twórcom inspiracje wykraczające poza ich własną wyobraźnię - zauważa Ahmad.

Halucynacje kontrolowane?

Misją twórców AI jest przede wszystkim pomoc w rozwiązaniu problemów, które wydają się nierozwiązywalne, poprzez generowanie pomysłów wybiegających poza ludzką kreatywność. Ahmad, podobnie jak wielu innych w branży, uważa, że nawet przy skutecznym ograniczaniu błędów algorytmicznych, warto zachować możliwość generowania przez systemy AI tak zwanych halucynacji. - Modele językowe powinny mieć zdolność tworzenia treści bez błędów, ale warto mieć opcję ich włączenia do generowania kreatywnych pomysłów- dodaje. Vempala z kolei podkreśla, że regulowanie tego procesu powinno być elastyczne. - Dobrze, gdyby istniała możliwość regulacji. Kiedy potrzebujesz precyzyjnych danych, AI powinno być rzetelne, ale kiedy szukasz twórczych inspiracji, przyda się jego zdolność do generowania nieoczekiwanych pomysłów - podsumowuje naukowiec.