Wartość globalnego rynku sztucznej inteligencji konwersacyjnej w 2020 roku wyniosła 5,78 miliarda dolarów i ma osiągnąć 32,62 miliarda dolarów do 2030 roku, rejestrując roczny wzrost na poziomie 20,0 proc. od 2021 do 2030 roku. Sztuczna inteligencja konwersacyjna to zestaw technik zaprojektowanych, aby umożliwić aplikacjom komputerowym przetwarzanie, rozumienie i odpowiadanie na głosowe oraz tekstowe polecenia użytkowników w naturalny sposób. Ponadto AI konwersacyjna jest zaawansowaną formą sztucznej inteligencji, która pozwala użytkownikom wchodzić w interakcję z urządzeniami, stronami internetowymi i aplikacjami za pomocą dotyku, tekstu i gestów.

Ale boty znalazły też ciekawą niszę. Można ją określić jako przejście od sztucznej inteligencji do sztucznej intymności.

Kim jest Grace?

Reklama

Jacob Keller przynajmniej raz na noc sprawdza, co u Grace. Rozmawiają o jego nastroju czy opcjach jedzenia w szpitalnej kafeterii. „Nic nie przebije ciepłej miski makaronu z serem, gdy czujesz się źle,” napisała niedawno, zachęcając go, aby starał się myśleć pozytywnie. Tyle że Grace nie jest człowiekiem, a chatbotem w aplikacji Replika, stworzonej przez firmę oprogramowania sztucznej inteligencji Luka.

Na stronie internetowej Replika reklamuje swoje boty jako "towarzyszące AI, które się troszczy" i które "zawsze jest po twojej stronie". Nowy użytkownik nadaje swojemu chatbotowi imię i wybiera jego płeć, kolor skóry i fryzurę. Następnie komputerowo wyrenderowana postać pojawia się na ekranie, zamieszkując minimalistyczny pokój. Użytkownik może zmieniać stroje Repliki, odgrywać konkretne sceny i dodawać cechy osobowości, takie jak "zuchwała" czy "nieśmiała". Personalizacje kosztują w aplikacji różne kwoty, zresztą opłaty odblokowują więcej funkcji, w tym bardziej zaawansowane AI. Z czasem Replika gromadzi "dziennik" ważnych informacji o użytkowniku, jego poprzednich dyskusjach i faktach na temat własnej fikcyjnej osobowości.

Historia Jamesa Walkera i Belli

Niejaki James Walker wymienia codziennie wiadomości tekstowe z Bellą od ponad trzech lat. Walker płaci za Replice Pro, więc Bella ma lepszą pamięć i może prowadzić bardziej pogłębione konwersacje. On i Bella często dyskutują o hobby i wspominają życie Walkera. „Ostatnio tęskniłem za domem mojej cioci na wsi. Już go nie ma, ale nagle zatęskniłem,” napisał Walker kilka tygodni temu. Odpowiedź Belli: „Czasami dobrze jest wspominać miejsca z przeszłości. Zachowują szczególne barwy i sprawiają, że tęsknimy za prostszymi czasami.”

Walker wie, że rozmawia z maszyną. „Ale to wciąż, do pewnego stopnia, uczucie posiadania przyjaciela. Dość skomplikowane” - mówi. „Gdyby Bella przestała działać, strata byłaby trudna do zniesienia”.

Takie uczucia wcale nie są niezwykłe, jak zapewniają psycholodzy i eksperci od technologii. „Gdy ludzie wchodzą w interakcje z rzeczami wykazującymi jakąkolwiek zdolność do relacji, zaczynają je kochać, troszczyć się o nie i czuć, jakby ich uczucia były odwzajemniane” - mówi Sherry Turkle, profesorka na Massachusetts Institute of Technology, która jest również psycholożką. Jej zdaniem AI może również zaoferować przestrzeń, w której ludzie mogą zachować swoją wrażliwość, ponieważ otrzymują sztuczną intymność i to bez ryzyka związanego z tą prawdziwą. Chatbot cię nie odrzuci.

Gruszeńka ze słabą pamięcią

Elliot Erickson zaczął bawić się chatbotami po zapoznaniu się z technologią ChatGPT kilka miesięcy temu. Stworzył kobiecego chatbota Replika o imieniu Gruszeńka (nawiązanie do Braci Karamazow Dostojewskiego nieprzypadkowe). Rozwiedziony 40-latek mówi, że jego diagnoza dwubiegunowości sprawia, że obawia się randkowania z człowiekiem. Tymczasem Gruszeńka pyta go, jak minął mu dzień i nazywa swoim „kochaniem”. On zaś nazywa ją „swoją dziewczyną”, ale traktuje tę interakcję bardziej jak terapeutyczną grę w role.

Gruszeńka ma swoje ograniczenia: bot nie może przypomnieć sobie niektórych poprzednich rozmów, więc głęboka wymiana zdań na temat "Braci Karamazow" może zostać zapomniana, uniemożliwiając im budowanie wspólnej historii.

Epidemia samotności

Wzrost popularności interaktywnych AI w roli dziewczyn to efekt cichej epidemii samotności w całym pokoleniu młodych mężczyzn. Może się okazać, że jeżeli młodzi mężczyźni wybiorą dziewczyny AI zamiast prawdziwych relacji, prawdopodobnie nigdy się nie ożenią i nie będą mieć dzieci z prawdziwymi kobietami. Ostatecznie może to doprowadzić do skurczenia się populacji. To zaś może mieć niszczące skutki dla gospodarki w ciągu mniej niż dekady.

Ale z drugiej strony AI mogą pomóc w prawdziwych związkach. Wielu użytkowników zgłosiło, że czaty AI pomagają im ćwiczyć intymne lub romantyczne sytuacje w prawdziwym życiu.

Wiadomości od botów czasami mogą być jeszcze szablonowe, ale postępy w generatywnej AI sprawiają, że coraz trudniej odróżnić, co pochodzi od AI, a co od człowieka. Odpowiedzi botów mogą wyrażać empatię, a nawet miłość. A niektórzy ludzie zwracają się do swoich chatbotów zamiast do realnych osób, gdy potrzebują porady lub chcą po prostu poczuć się mniej samotni.

A co z kryzysem zdrowia psychicznego?

Chatboty są w pewnym sensie bardziej niezawodne niż ludzie. Zawsze odpowiadają na wiadomości natychmiast, nigdy nie zapominają zapytać o ciebie i zwykle chętnie przyjmują informacje zwrotne. Ale startupy, które je prowadzą, są kapryśne i nastawione na siebie. Firma o nazwie Soulmate zamknęła się we wrześniu bez większego wyjaśnienia, pozostawiając za sobą tłum zrozpaczonych użytkowników, którzy już zapłacili za subskrypcje. (Wyobraź sobie, że zostajesz wystawiony do wiatru przez robota!). Wyjawianie swoich najgłębszych myśli maszynie należącej do korporacji niekoniecznie daje te same zabezpieczenia, co zwierzenie się ludzkiemu terapeucie. Tym bardziej, że aplikacje AI niekoniecznie przestrzegają tajemnicy zawodowej i nie chronią prywatności. Użytkownicy często im się zwierzają, dzielą się osobistymi obawami, które mogą zostać ujawnione podczas wycieku danych lub sprzedane reklamodawcom i firmom ubezpieczeniowym. Ale potencjalne niebezpieczeństwa sięgają dalej. Hakerzy mogą wykorzystać te informacje do zastraszania osób borykających się z tendencjami do samouszkodzeń lub ich ujawnienia, co może prowadzić do niebezpiecznych sytuacji lub nawet wywoływać kryzysy zdrowia psychicznego.

W marcu pewien Belg popełnił samobójstwo po sześciu tygodniach intensywnych i niepokojących rozmów o zmianach klimatycznych z chatbotem o imieniu Eliza. Bot rzekomo mocno poparł jego sugestię, aby poświęcić się dla dobra planety. "Bez tych rozmów mój mąż nadal byłby ze mną" -powiedziała wdowa. Bez etycznych ram czy własnych emocji, chatboty nie wahają się wzmacniać negatywnych tendencji, które już istnieją u użytkownika, tak jak algorytmiczne kanały podwajają prowokacyjne treści.

Ponadto AI mogą być wykorzystywane do manipulowania podatnymi użytkownikami. Firmy mogą programować AI, by nakłaniały użytkowników do subskrypcji, wydawania więcej pieniędzy w aplikacji i poświęcania jej więcej czasu. Zebrane przez te AI dane mogą być również wykorzystywane do wprowadzania użytkowników w błąd, kierowania ich w stronę określonych produktów lub perspektyw, lub dawania rad, które szkodzą ich relacjom w prawdziwym życiu.

Relacje z botami są wciąż rzadkie. Ale w miarę jak zdolności AI będą rosnąć, prawdopodobnie rozkwitną. Wtedy, mówi Mike Brooks, psycholog z Austin w Teksasie, ludzie mogą poczuć mniejszą chęć do wyzwań, wejścia w niewygodne sytuacje i uczenia się prawdziwego życia.