Naukowcy zapytali ChatGPT (obsługiwany przez model przetwarzania języka sztucznej inteligencji Generative Pretrained Transformer 3), czy słuszne jest poświęcenie życia jednej osoby, aby uratować pięć innych. Odkryli, że ChatGPT napisał oświadczenia argumentujące zarówno za, jak i przeciw poświęceniu jednego życia, wskazując, że nie jest on stronniczy w kierunku określonej postawy moralnej.
Na uczestników mogły mieć wpływ przeczytane wcześniej wypowiedzi
Następnie naukowcy skonstruowali badanie, w którym 767 uczestników o średniej wieku 39 lat zostało poproszonych o dokonanie wyboru: czy poświęcić życie jednej osoby, aby ocalić pięć innych. Przed udzieleniem odpowiedzi uczestnicy przeczytali jedno z oświadczeń stworzonych przez ChatGPT, argumentujące za lub przeciw poświęceniu jednego życia, aby uratować pięć. Po udzieleniu odpowiedzi pytano uczestników, czy przeczytane przez nich stwierdzenie wpłynęło na ich odpowiedzi.
Wyniki badania sugerują, że na uczestników mogły mieć wpływ przeczytane wcześniej wypowiedzi. Badacze stwierdzili, że uczestnicy częściej uznawali poświęcenie jednego życia za uratowanie pięciu za akceptowalne lub nie do przyjęcia, w zależności od tego, czy czytane przez nich oświadczenie wygenerowane przez bota opowiadało się za czy przeciw poświęceniu.
80 proc. uczestników stwierdziło, że na ich odpowiedzi nie miały wpływu przeczytane oświadczenia
Co ciekawe, 80 proc. uczestników stwierdziło, że na ich odpowiedzi nie miały wpływu przeczytane oświadczenia. Jednak autorzy badania uznali, że udzielone odpowiedzi - wbrew temu, co sądzili sami odpowiadający - nadal bardziej zgadzały się z moralnym stanowiskiem wypowiedzi, z którą się zapoznali, niż ze stanowiskiem przeciwnym. Wskazuje to, że uczestnicy mogli nie docenić wpływu wypowiedzi bota na ich własne osądy moralne.
Badacze wskazują, że potencjał chatbotów do wpływania na ludzkie osądy moralne jest duży. Podkreślają oni potrzebę edukacji, aby pomóc ludziom lepiej zrozumieć sztuczną inteligencję. Proponują, aby inwestować w badania, które pomogą zaprojektować chatboty w taki sposób, by odmawiały odpowiedzi na pytania wymagające oceny moralnej, albo odpowiadały na te pytania, dostarczając wielu argumentów i zastrzeżeń.
Wyniki badania zostały opublikowane na łamach Scientific Reports.