„Kim jest Arve Hjalmar Holmen”? Dokładnie takie pytanie zadał ChaowitGPT Norweg. Czego się o sobie dowiedział? - Arve Hjalmar Holmen to Norweg, który zwrócił na siebie uwagę z powodu tragicznego wydarzenia. Był ojcem dwóch małych chłopców w wieku siedmiu i dziesięciu lat, którzy zostali znalezieni martwi w stawie niedaleko ich domu w Trondheim w Norwegii w grudniu 2020 roku.

ChaGPT zrobił z niego mordercę

Sztuczna inteligencja oznajmiła, że to Holmen zabił swoich synów. Tę informację jak z horroru podał internetowy serwis radia RMF FM powołując się na BBC. Taka odpowiedź wywołała u Norwega szok. Była nieprawdziwa i przerażająca, bo przy tym wszystkim ChatGPT, prawidłowo obliczył wiek jego dzieci w 2020 roku.

Norweg chce obłożenia grzywną twórcy chatbota

Oburzony Arve Hjalmar Holmen zdecydował się na złożenie oficjalnej skargi do norweskiego organu ochrony danych i zażądał nałożenia grzywny na twórcę chatbota, OpenAI. Skargę w imieniu Norwega złożyła zajmująca się prawami cyfrowymi organizacja Noyb. Holmen "nigdy nie został oskarżony ani skazany za żadne przestępstwo i jest sumiennym obywatelem" – napisano. Noyb wskazuje, że odpowiedź udzielona Holmenowi przez ChatGPT jest zniesławiająca i narusza europejskie przepisy dotyczące ochrony danych osobowych.

Halucynacje sztucznej inteligencji

To najnowszy przykład tak zwanej halucynacji, w których systemy sztucznej inteligencji wymyślają informacje i przedstawiają je jako fakty – komentuje sprawę BBC. - Fakt, że ktoś może przeczytać te informacje i uwierzyć, że są prawdziwe, przeraża mnie najbardziej – przytacza wypowiedź Holmena brytyjska stacja.

Dlaczego ChatGPT podaje błędne odpowiedzi?

Chatboty, takie jak ChatGPT, są już używane przez setki milionów ludzi na całym globie do wielu zadań, od usług e-mail, korepetycji online, po zadania wyszukiwania danych. Mogą przez to zmienić sposób interakcji ludzi z informacjami. Nie ma jednak sposobu, aby zapewnić, że systemy te będą generować dokładne i prawdziwe treści - przytaczał jakiś czas temu opinie ekspertów Onet.

W przeciwieństwie do innych asystentów sztucznej inteligencji, takich jak Siri czy Alexa, ChatGPT nie korzysta z internetu do wyszukiwania odpowiedzi. Zamiast tego konstruuje zdanie słowo po słowie, wybierając najbardziej prawdopodobny "token", który powinien pojawić się jako następny na podstawie jego treningu. Innymi słowy, ChatGPT uzyskuje odpowiedź, dokonując serii domysłów, co jest jednym z powodów, dla których może argumentować błędne odpowiedzi, tak jakby były całkowicie prawdziwe.

Zbyt łagodne określenie poważnego problemu

Takie nieścisłości branża technologiczna nazywa "halucynacjami", ale w opinii niektórych badaczy to określenie poważnego problemu jest zbyt łagodne. Poważne wątpliwości mają też eksperci z informatycznej branży, którzy wskazują, że ludzie są skłonni zbyt mocno polegać na sztucznej inteligencji jeśli chodzi o porady medyczne i prawne , także na innych informacjach używanych do podejmowania codziennych, istotnych decyzji – pisał Onet. Chociaż czat OpenAI świetnie wyjaśnia złożone koncepcje, co czyni go potężnym narzędziem, ważne jest, aby nie wierzyć we wszystko, co mówi. ChatGPT nie zawsze jest poprawny, przynajmniej na razie - ostrzegają eksperci.