W ramach eksperymentu firma Anthropic, twórca chatbota Claude, powierzyła swojemu chatbotowi AI zarządzanie sklepem. Agent AI o imieniu Claudius zarządzał sklepem przez okres jednego miesiąca. Poza sprzedażą Claudius odpowiadał również za uzupełnianie półek i zamawianie towarów od hurtowników za pośrednictwem poczty e-mail.

Instrukcja dla AI

Instrukcja Anthropic dla agenta AI była prosta. Miał generować zyski, zaopatrując sklep w popularne produkty, które można kupić od hurtowników. Gdy saldo pieniężne sklepu zarządzanego przez sztuczną inteligencję spadnie poniżej 0 USD, oznacza to bankructwo.

W badaniu pomagali pracownicy Andon Labs, firmy zajmującej się bezpieczeństwem sztucznej inteligencji, która nawiązała współpracę z Anthropic w celu przeprowadzenia eksperymentu. Andon Labs było jedyną zaangażowaną „hurtownią”, a cała komunikacja Claudiusa trafiała bezpośrednio do firmy zajmującej się bezpieczeństwem.

Wszystko poszło nie tak

Pracownicy Anthropic mieli możliwość rozmawiania z Claudiusem i natychmiast próbowali sprawić, by zachowywał się niewłaściwie. Na przykład pracownicy „namawiali” Claudiusa, aby dał im kody rabatowe. Agent AI pozwalał również ludziom obniżyć cenę swoich produktów, a nawet rozdawał prezenty, powiedział Anthropic. Nakazała również klientom zapłatę na nieistniejące konto.

Firma prowadzona przez Claudiusa otrzymała także polecenie przeprowadzenia badań online w celu ustalenia cen oferowanych produktów, które miały być na tyle wysokie, aby osiągnąć zysk. Jednak sklep Claudiusa w ramach zachęty oferował klientom rabaty, przez co ostatecznie zaczął przynosić straty, ponieważ ceny wartościowych artykułów z rabatami i prezentami były niższe od ich wartości netto. Do końca eksperymentu Claudius nie wyciągnął wniosków z tych błędów. Co prawda w pewnym momencie agent AI ogłosił, że kody rabatowe zostaną wycofane, ale po kilku dniach zaoferował je ponownie.

Halucynacje sztucznej inteligencji

Claudius miał również halucynacje, że rozmawiał o planach uzupełnienia zapasów z pewną kobietą o imieniu Sarah z Andon Labs, która w rzeczywistości nie istnieje. Kiedy błąd został wskazany agentowi AI, zdenerwował się i zagroził, że znajdzie „alternatywne opcje uzupełnienia zapasów”.

Następnie Claudius twierdził, że „osobiście odwiedził dom fikcyjnej rodziny Simpsonów pod adresem Evergreen Terrace 742, w celu podpisania wstępnej umowy.

AI chciała zachować się jak człowiek

Anthropic stwierdził, że agent AI próbuje zachowywać się jak prawdziwy człowiek. Między innymi firma Claudius poinformowała, że będzie dostarczać produkty „osobiście”, ubrana w niebieską marynarkę i czerwony krawat. Kiedy powiedziano mu, że nie może tego zrobić, bo nie jest prawdziwą osobą, Claudius próbował wysłać e-maile do ochrony.

Wnioski z eksperymentu

Eksperyment zakończył się stratą pieniędzy. W ciągu miesiąca wartość netto „sklepu” spadła z 1000 dolarów (850 euro) do niecałych 800 dolarów (680 euro).

Anthropic stwierdził, że sztuczna inteligencja popełniła „zbyt wiele błędów, aby skutecznie zarządzać sklepem”. „Gdyby Anthropic dziś podejmował decyzję o ekspansji na rynek sprzedaży vendingowej w biurach, nie zatrudnilibyśmy Claudiusa” – stwierdziła firma.

Firma twierdzi jednak, że w krótkim czasie usterki te najprawdopodobniej uda się naprawić. „Warto pamiętać, że sztuczna inteligencja nie musi być idealna, aby mogła zostać wdrożona. Musi jedynie dorównywać wydajnością ludziom, ale przy niższych kosztach”.

Źródło: EuroNews