"Proaktywnie kierujemy użytkowników z dala od naszych systemów, gdy zadają pytania na tematy, w których halucynacje byłyby nieakceptowalne, takie jak zapytania związane z wyborami," napisała firma w poście na blogu w piątek.

Czym są halucynacje AI?

Halucynacje AI to termin używany do opisania sytuacji, gdy sztuczna inteligencja (AI) generuje fałszywe, błędne lub całkowicie wymyślone informacje, które nie mają oparcia w dostępnych danych lub rzeczywistości. Może to wystąpić w różnych kontekstach, takich jak generowanie tekstu, analiza obrazów czy przetwarzanie języka naturalnego. Halucynacje AI są szczególnie problematyczne w aplikacjach wymagających wysokiej dokładności i wiarygodności informacji, na przykład w systemach rekomendacyjnych, asystentach głosowych czy narzędziach do generowania treści, ponieważ mogą wprowadzać użytkowników w błąd lub rozpowszechniać nieprawdziwe informacje.

Reklama

Walka z halucynacjami AI jest jednym z głównych wyzwań dla twórców i naukowców zajmujących się sztuczną inteligencją, którzy starają się opracować modele bardziej odporne na generowanie nieprawdziwych treści i lepiej zrozumieć, jak i dlaczego takie zjawisko ma miejsce. Kampanie wyborcze – jak widać – także stają się dla firm informatycznych sporym problemem.

Co zrobi Anthropic?

Firma oświadczyła, że ponieważ jej chatbot nie może dostarczać informacji w czasie rzeczywistym na temat konkretnych wyborów, w nadchodzących tygodniach zacznie zachęcać użytkowników do konsultacji z witryną informacyjną o wyborach TurboVote, gdy zostaną zadane pytania dotyczące głosowania.

Anthropic przygotowywał się do problemów związanych z wyborami od lipca 2023 roku i testował swoje systemy pod kątem reakcji na polecenia naruszające jego zasady - takie jak podszywanie się pod kandydatów czy tłumienie frekwencji wyborczej. Firma stwierdziła również, że AI prawdopodobnie zostanie wykorzystane w wyborach w nieprzewidzianych wcześniej sposobach. "Spodziewamy się, że rok 2024 przyniesie zaskakujące zastosowania systemów AI - zastosowania, których nie przewidzieli ich twórcy," napisała firma w poście.