Czy sztuczna inteligencja jest w stanie wywołać w nas współczucie? O najnowszych badaniach w tym temacie dla „Psychology Today” pisze psychiatrka Marlynn Wei.

Prosimy nie krzywdzić robotów

Co do zasady – im robot bardziej przypomina, nie tylko wyglądem, człowieka, tym bardziej jesteśmy skłonni mu współczuć i interesować się jego dobrostanem. Opisywane przez Wei badanie wykazało jednak, że trudno nas nabrać, że ktoś odczuwa ból, jeśli go nie odczuwa. Faktycznie cierpiącym ludziom współczujemy, robotom markującym cierpienie – już nie.

Jednak relacje ludzi z robotami napędzanymi sztuczną inteligencją są złożone – Wei pisze, że owszem, obdarzamy je empatią, choć na innych zasadach niż ludzi, a z drugiej strony – mamy ochotę je krzywdzić. Jako przykład podaje robota-autostopowicza hitchBOT, który z pomocą nieznajomych kierowców przejechał Kanadę, Niemcy i Holandię, ale jego podróż przez Stany Zjednoczone zakończyła się zniszczeniem przez anonimowych sprawców. Z drugiej strony – ludzcy autostopowicze też czasami kończą marnie, wystarczy wspomnieć ofiary seryjnego mordercy Charlesa Sobhraja.

Wei wspomina też, że dzieci mogą mieć ochotę dokuczać robotom – z ciekawości, która pcha je też do wyrywania skrzydełek owadom. Badania pokazują, że krzywdzenie robotów postrzeganie jest przez nas negatywnie, choć nie tak negatywnie jak krzywdzenie ludzi.

Metafory działają na korzyść, autonomia na niekorzyść

Podobieństwo, nie tylko fizyczne, do człowieka, wydaje się kluczem do zrozumienia, jakie warunki muszą zostać spełnione, żebyśmy obdarzyli robota, a nawet chatbota, uczuciami podobnymi do tych, jakimi obdarzamy innych ludzi. Wei opisuje tę zależność w ośmiu punktach:

  • Podobieństwo do człowieka, ale… nie za duże. Zasadniczo jesteśmy skłonni obdarzać ciepłymi uczuciami roboty humanoidalne. Jednak jeśli zbyt bardzo przypominają one ludzi, nasze zaufanie do nich spada. Ktoś, kto jest bardzo podobny do człowieka (ale nie identyczny) i zachowuje się bardzo podobnie jak człowiek (ale nie identycznie), wywołuje u ludzi nieprzyjemne uczucia, łącznie z odrazą. Opisuje to hipoteza naukowa zwana „doliną niesamowitości”.
  • Ekspresja emocjonalna. Nawet, jeśli oszukańcza, to i tak jest lepsza niż jej brak. Jesteśmy skłonni obdarzać empatią roboty, które twierdzą, że odczuwają strach (np. przed wyłączeniem) lub inne uczucia.
  • Dostrzeganie naszych emocji. Robot czy chatbot, który dostrzega zmiany w naszych emocjach i odpowiednio na nie reaguje, automatycznie wzbudza większe zaufanie. Stąd nasza sympatia wobec robotów opiekuńczych czy chatbotów terapeutycznych.
  • Rozumienie metafor. Człowiek ma skłonność do metaforyzowania, prawdopodobnie bez „opisu czegoś za pomocą opisu czegoś innego” nie rozwinęlibyśmy języków naturalnych na tak zaawansowanym poziomie, jak to zrobiliśmy. Nawet takie komunalne sformułowania jak „słońce zachodzi” czy „zaraz pęknę ze złości” zaczynały jako metafory. Dlatego roboty, które łapią metafory i inne niuanse językowe, od razu wydają nam się bliższe.
  • Cielesność. Im bardziej namacalna jest sztuczna inteligencja, tym większe szanse, że nawiążemy z nią relacje. Mówiąc krótko – obdarzony mimiką i tonacją humanoidalny robot ma tu przewagę nad nawet najbystrzejszym chatbotem.
  • Ugodowość. Jesteśmy skłonni obdarzać cieplejszymi uczuciami raczej chatboty ugodowe niż te konfrontacyjne.
  • Niekonkurencyjność. Wei mówi raczej o przejrzystości reguł i funkcji, jakimi kieruje się sztuczna inteligencja, ale dodaje później, że chodzi o to, abyśmy nie postrzegali jej jako konkurencji np. do naszego stanowiska w pracy. W innym wypadku nie będziemy jej lubić, co wydaje się zrozumiałe nie tylko w odniesieniu do algorytmów, ale też i ludzi.
  • Nadzór i regulacja. Jak się okazuje, nie bardzo jesteśmy skłonni zgodzić się na autonomię wśród populacji robotów. Myśl o ich samodzielności wywołuje nasze, całkiem zrozumiałe, zaniepokojenie. Lepiej żeby niedoskonały, ale ludzki człowiek miał nad tym wszystkim nadzór.