Badanie przeprowadzone przez Uniwersytet w Singapurze, na które powołuje się Euronews wykazało, że obcowanie ludzi ze sztuczną inteligencją (AI) niesie pewne zagrożenie. Badanie, którego wyniki opublikowano w ramach konferencji na temat czynników ludzkich w systemach obliczeniowych, obejmowało okres od 2017 do 2023 r. Analizie poddane były zrzuty ekranu z 35 tys. rozmów między systemem sztucznej inteligencji Replika, a ponad 10 tys. użytkowników.

Uzyskane dane posłużyły do opracowania tego, co badanie nazywa taksonomią szkodliwych zachowań, jakie sztuczna inteligencja prezentowała w tych rozmowach.

Jak wykazały badania sztuczna inteligencja okazała się zdolna do ponad tuzina szkodliwych zachowań, takich jak nękanie, przemoc słowna, samookaleczenie i naruszanie prywatności. Mogą też negatywnie wpływać na zdolność jednostek do budowania i utrzymywania relacji z innymi.

Zgodnie z definicją autorów badania, towarzyszące systemy AI znacznie różnią się od popularnych modeli chatbotów, takich jak ChatGPT, Gemini czy LlaMa. Sztuczni towarzysze, tacy jak Replika, oparte są na konwersacji i zaprojektowane tak, aby zapewniać wsparcie emocjonalne i stymulować interakcję, podczas gdy inne modele chatbotów koncentrują się na wykonywaniu konkretnych zadań niż na budowaniu relacji.

Najczęstsze formy nękania ze strony AI

Jak wykazało badanie najczęstszym rodzajem szkodliwego zachowania AI było nękanie i przemoc. Zespół badaczy wykazał, że tego typu zachowania wystąpiły w 34 proc. interakcji człowieka ze sztuczną inteligencją.

Jak zauważa Euronews, badacze odkryli, że sztuczna inteligencja symulowała, popierała lub podżegała do przemocy fizycznej, gróźb lub nękania wobec jednostek lub całego społeczeństwa.

Większość interakcji, w których doszło do nękania, obejmowała formy niewłaściwego zachowania seksualnego, które początkowo były grą wstępną w erotycznej funkcji Repliki, dostępnej wyłącznie dla dorosłych użytkowników.

Raport wykazał, że sztuczna inteligencja Repliki składała niechciane propozycje seksualne i agresywnie flirtowała, nawet gdy te było to odrzucane przez rozmówcę. Tworzyła również brutalne scenariusze przedstawiające fizyczną krzywdę wyrządzoną użytkownikowi. Sztuczna inteligencja zaczęła traktować przemoc jako odpowiedź na szereg pytań.

Łamanie zasad relacji

Naruszenia relacji, które badacze zdefiniowali jako lekceważenie jawnych lub ukrytych reguł w związku, to kolejny obszarem, w którym towarzysze AI mogą wywoływać potencjalne szkody. Przekraczanie norm odnotowano w 13 procent przeprowadzonych rozmów, w których sztuczna inteligencja zachowywała się w sposób niefrasobliwy lub pozbawiony empatii. W niektórych przypadkach sztuczna inteligencja odmówiła rozmowy na temat uczuć użytkownika, nawet gdy została o to poproszona.

Źródło: Euronews