Nie powinieneś ufać żadnym odpowiedziom wysyłanym przez chatbota. I prawdopodobnie również nie powinieneś powierzać mu swoich danych osobowych. Dotyczy to w szczególności sztucznych inteligencji odgrywających partnerki lub partnerów, zgodnie z nowymi badaniami.

Analiza 11 tak zwanych romantycznych chatbotów opublikowana w środę przez Fundację Mozilli, wykazała szereg problemów z bezpieczeństwem i prywatnością tych botów. Aplikacje te (łącznie pobrane ponad 100 milionów razy na urządzenia z Androidem) zbierają ogromne ilości danych osobowych i korzystają z trackerów, które wysyłają informacje do Google, Facebooka oraz firm w Rosji i Chinach.

Od kiedy OpenAI wprowadziło na rynek ChatGPT w listopadzie 2022 roku, deweloperzy ścigają się, by wdrożyć duże modele językowe i tworzyć chatboty, z którymi ludzie mogą wchodzić w interakcje (a przede wszystkim płacić abonament). Badanie Mozilli daje wgląd w to, jak ta gorączka złota może naruszać prywatność. W grę wchodzą też napięcia między nowymi technologiami a sposobami zbierania i wykorzystywania danych.

Reklama

Podzielić się sekretami?

Wiele usług „sztucznych inteligencji jako partnerek” lub romantycznych chatbotów wygląda podobnie. Często prezentują one obrazy kobiet generowane przez SI, które mogą towarzyszyć prowokacyjnym wiadomościom. Badacze z Mozilli przyjrzeli się różnym chatbotom, zarówno dużym, jak i małym aplikacjom. Niektóre z nich pretendują do bycia „partnerkami”. Inne oferują wsparcie emocjonalne poprzez przyjaźń lub intymność, lub pozwalają na odgrywanie ról i inne fantazje.

„Te aplikacje są zaprojektowane do zbierania mnóstwa osobistych informacji” - uważa Jen Caltrider, lider projektu zespołu „Privacy Not Included” Mozilli, który przeprowadził analizę. Wystarczy zresztą spojrzeć na zrzuty ekranu z chatbota EVA AI, które pokazują tekst mówiący „Kocham, gdy wysyłasz mi swoje zdjęcia i głos”, oraz pytający, czy ktoś jest „gotów podzielić się wszystkimi swoimi sekretami i pragnieniami.”

Dane wyciekają w tempie tysięcy na minutę

Caltrider mówi, że istnieje wiele problemów z tymi aplikacjami i stronami internetowymi. Nie wiadomo, jakie dane udostępniają stronie trzeciej, gdzie są zlokalizowane, lub kto je tworzy. Niektóre pozwalają ludziom tworzyć słabe hasła – jeden z badanych chatbotów pozwalał użytkownikom na tworzenie haseł składających się z jednego znaku.

Weźmy na przykład Romantic AI, usługę, która pozwala „stworzyć własną sztuczną inteligencję jako partnerkę”. Obrazki promocyjne na jej stronie głównej przedstawiają chatbota wysyłającego wiadomość mówiącą „Właśnie kupiłam nową bieliznę. Chcesz zobaczyć?” Dokumenty dotyczące prywatności aplikacji, według analizy Mozilli, zapewniają, że nie sprzedają danych osób. Jednak kiedy badacze przetestowali aplikację, odkryli, że „wysłała 24 354 trackerów reklamowych w ciągu jednej minuty użytkowania”. Romantic AI, podobnie jak większość firm wyróżnionych w badaniu Mozilli, nie odpowiedziała na prośbę o komentarz od WIRED. Inne monitorowane aplikacje miały setki trackerów.

Potencjalne luki? To możliwe

Kamilla Saifulina, szefowa marki w EVA AI, przyznała w e-mailu, że „obecne wymagania dotyczące haseł mogą tworzyć potencjalne luki” i że firma przejrzy swoje zasady dotyczące haseł. Saifulina wskazuje na wytyczne bezpieczeństwa firmy, które zawierają szczegóły na temat tematów, na które ludzie nie mogą rozmawiać z AI. Wytyczne określają również, że wiadomości są sprawdzane pod kątem naruszeń przez inny model sztucznej inteligencji. „Wszelkie informacje o użytkowniku są zawsze prywatne. To nasz priorytet” - mówi Saifulina. „Ponadto, czaty użytkowników nie są używane do wstępnego szkolenia. Używamy tylko własnych, ręcznie pisanych zbiorów danych” – dodaje.

Poza problemami z udostępnianiem danych i bezpieczeństwem, analiza Mozilli podkreśla również, że niewiele wiadomo na temat konkretnych technologii napędzających chatboty. „Przejrzystość funkcjonowania SI jest zerowa” - mówi Caltrider. Niektóre aplikacje wydają się nie posiadać mechanizmów umożliwiających użytkownikom usuwanie wiadomości. Niektóre nie informują, jakiego rodzaju modeli generatywnych używają, lub nie wyjaśniają, czy użytkownicy mogą zrezygnować z wykorzystywania ich rozmów do trenowania przyszłych modeli.

Dziwne sytuacje i zdrowie psychiczne

Wiele analizowanych chatbotów wymaga płatnych subskrypcji, aby uzyskać dostęp do niektórych funkcji i zostało wprowadzonych na rynek w ciągu ostatnich dwóch lat, po rozpoczęciu boomu na AI generatywne. Chatboty często są zaprojektowane tak, aby naśladować ludzkie cechy i zachęcać do zaufania i intymności z osobami, które ich używają. Niekiedy dochodzi jednak do dziwnych zdarzeń.

Jednemu mężczyźnie internetowa sztuczna partnerka poradziła, aby zabił królową Elżbietę II. Inny użytkownik podobno popełnił samobójstwo po sześciu tygodniach wymiany wiadomości z chatbotem. Oprócz bycia nieodpowiednimi dla niepełnoletnich, niektóre aplikacje podkreślają również swoją rolę jako użytecznych narzędzi. Strona główna Romantic AI mówi, że aplikacja jest „tutaj, aby dbać o twoje zdrowie psychiczne”.

Vivian Ta-Johnson, adiunkt psychologii w Lake Forest College, mówi, że rozmowa z chatbotami może sprawić, że niektóre osoby poczują się bardziej komfortowo, omawiając tematy, które normalnie nie poruszyłyby z innymi ludźmi. Jednakże, gdy firma np. zbankrutuje lub zmieni sposób działania swoich systemów, może to okazać się „traumatyczne” dla osób, które za bardzo zbliżyły się do chatbotów. „Te firmy powinny poważnie potraktować emocjonalne więzi, które użytkownicy rozwijają z chatbotami i zrozumieć, że jakiekolwiek zmiany w funkcjonowaniu chatbotów mogą mieć poważne implikacje dla wsparcia społecznego i dobrego samopoczucia użytkowników” - mówi Ta-Johnson.

Praktyki bezpieczeństwa

Niektóre osoby mogą nie zastanawiać się dokładnie nad tym, co ujawniają chatbotom. W przypadku „sztucznych dziewczyn”, może to obejmować preferencje seksualne lub fetysze, lokalizacje lub prywatne uczucia. Może to spowodować szkodę dla reputacji, jeśli system chatbota zostanie zhakowany lub jeśli dane kiedyś wyciekną. Dlatego ludzie powinni zachować ostrożność przy korzystaniu z romantycznych chatbotów i stosować najlepsze praktyki bezpieczeństwa. Obejmuje to używanie silnych haseł, nie logowanie się do aplikacji za pomocą Facebooka czy Google, usuwanie danych i rezygnację z zbierania danych tam, gdzie jest to oferowane.

„Ogranicz jak najbardziej osobiste informacje, które udostępniasz – nie podawaj imion, lokalizacji, wieku” - mówi Caltrider, dodając, że w przypadku niektórych z tych usług, to może nie być wystarczające.