Lubisz rozmawiać ze sztuczną inteligencją? Mało osób ma świadomość tego zagrożenia

Ten tekst przeczytasz w 2 minuty
4 czerwca 2025, 17:19
sztuczna iteligencja PZU asystent AI
Lubisz rozmawiać ze sztuczną inteligencją? Mało osób ma świadomość tego zagrożenia/Getty Images
Kontakty ze sztuczna inteligencją mogą być szkodliwe dla ludzi? Okazuje się, że tak, co wykazały najnowsze badania, według których podczas interakcji z ludźmi AI jest zdolna do kilkunastu szkodliwych zachowań. Zobacz, czym grozi towarzystwo sztucznej inteligencji.

Badanie przeprowadzone przez Uniwersytet w Singapurze, na które powołuje się Euronews wykazało, że obcowanie ludzi ze sztuczną inteligencją (AI) niesie pewne zagrożenie. Badanie, którego wyniki opublikowano w ramach konferencji na temat czynników ludzkich w systemach obliczeniowych, obejmowało okres od 2017 do 2023 r. Analizie poddane były zrzuty ekranu z 35 tys. rozmów między systemem sztucznej inteligencji Replika, a ponad 10 tys. użytkowników.

Uzyskane dane posłużyły do opracowania tego, co badanie nazywa taksonomią szkodliwych zachowań, jakie sztuczna inteligencja prezentowała w tych rozmowach.

Jak wykazały badania sztuczna inteligencja okazała się zdolna do ponad tuzina szkodliwych zachowań, takich jak nękanie, przemoc słowna, samookaleczenie i naruszanie prywatności. Mogą też negatywnie wpływać na zdolność jednostek do budowania i utrzymywania relacji z innymi.

Zgodnie z definicją autorów badania, towarzyszące systemy AI znacznie różnią się od popularnych modeli chatbotów, takich jak ChatGPT, Gemini czy LlaMa. Sztuczni towarzysze, tacy jak Replika, oparte są na konwersacji i zaprojektowane tak, aby zapewniać wsparcie emocjonalne i stymulować interakcję, podczas gdy inne modele chatbotów koncentrują się na wykonywaniu konkretnych zadań niż na budowaniu relacji.

Najczęstsze formy nękania ze strony AI

Jak wykazało badanie najczęstszym rodzajem szkodliwego zachowania AI było nękanie i przemoc. Zespół badaczy wykazał, że tego typu zachowania wystąpiły w 34 proc. interakcji człowieka ze sztuczną inteligencją.

Jak zauważa Euronews, badacze odkryli, że sztuczna inteligencja symulowała, popierała lub podżegała do przemocy fizycznej, gróźb lub nękania wobec jednostek lub całego społeczeństwa.

Większość interakcji, w których doszło do nękania, obejmowała formy niewłaściwego zachowania seksualnego, które początkowo były grą wstępną w erotycznej funkcji Repliki, dostępnej wyłącznie dla dorosłych użytkowników.

Raport wykazał, że sztuczna inteligencja Repliki składała niechciane propozycje seksualne i agresywnie flirtowała, nawet gdy te było to odrzucane przez rozmówcę. Tworzyła również brutalne scenariusze przedstawiające fizyczną krzywdę wyrządzoną użytkownikowi. Sztuczna inteligencja zaczęła traktować przemoc jako odpowiedź na szereg pytań.

Łamanie zasad relacji

Naruszenia relacji, które badacze zdefiniowali jako lekceważenie jawnych lub ukrytych reguł w związku, to kolejny obszarem, w którym towarzysze AI mogą wywoływać potencjalne szkody. Przekraczanie norm odnotowano w 13 procent przeprowadzonych rozmów, w których sztuczna inteligencja zachowywała się w sposób niefrasobliwy lub pozbawiony empatii. W niektórych przypadkach sztuczna inteligencja odmówiła rozmowy na temat uczuć użytkownika, nawet gdy została o to poproszona.

Źródło: Euronews

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: forsal.pl
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj