Gridworld to cyfrowa gra 2D, która sprawdza, czy algorytmy sztucznej inteligencji mogą nauczyć się oszukiwania i innych ryzykownych zachowań.

Elon Musk przestrzega, że niekontrolowany rozwój technologii AI może doprowadzić do apokalipsy. Według Jeremy’ego Kahna z serwisu Bloomberg, taka katastrofa jest mało prawdopodobna, lecz wobec pośpiesznie rozwijanej sztucznej inteligencji trzeba mierzyć się z możliwością, że algorytmy mogą nieumyślnie wyrządzić nam krzywdę.

Rodzaj samouczącego się oprogramowania napędza samobieżne auta Ubera, pomaga Facebookowi identyfikować ludzi w postach w mediach społecznościowych, dzięki temu systemowi Alexa rozumie zadane jej pytania. DeepMind, londyńska firma należąca do Alphabet Inc., opracowała prosty test, dzięki któremu można sprawdzić, czy nowe algorytmy są bezpieczne.

Naukowcy zaimplementowali oprogramowanie AI w gridworld – serii prostych, dwuwymiarowych gier wideo złożonych z bloków pikseli, takich jak np. szachownica. Gridworld ocenia dziewięć aspektów bezpieczeństwa, również to, czy systemy AI mogą się same modyfikować i nauczyć oszukiwania.

Algorytmy AI, które wykazują ryzykowne zachowania w gridworld prawdopodobnie nie są również bezpieczne dla prawdziwego świata – stwierdził Jan Leike, główny badacz w tym projekcie DeepMind, w niedawnym wywiadzie na konferencji Neural Information Processing Systems (NIPS), dorocznego zgromadzenia ekspertów na tym polu.

Reklama

>>> Czytaj też: Cena bitcoina bije kolejne rekordy, tymczasem NBP i KNF szykują krucjatę przeciw kryptowalutom

Proponowane przez DeepMind testy bezpieczeństwa to odpowiedź dla naukowców coraz bardziej zaniepokojonych niezamierzonymi konsekwencjami rozwoju sztucznej inteligencji. Wraz z rozprzestrzenianiem się technologii staje się jasne, że wiele algorytmów jest przeszkolonych w zakresie stronniczych baz danych, a jednocześnie trudno wykazać, dlaczego niektóre systemy dochodzą do określonych wniosków. To właśnie bezpieczeństwo AI było głównym tematem ostatniej konferencji NIPS.

DeepMind jest znany z tworzenia oprogramowania AI, które pokonuje ludzi w grach. Niedawno stworzył algorytm, który bez zainstalowanej wcześniej wiedzy pokonał najlepszych graczy na świecie w go lub szachy, co w niektórych przypadkach wymagało zaledwie kilku godzin szkolenia AI.

Według Leike, jeśli DeepMind chce zbudować sztuczną inteligencję ogólną – oprogramowanie, które może wykonać szeroki zakres zadań równie dobrze (lub lepiej) jak człowiek – bezpieczeństwo ma kluczowe znaczenie. Podkreślił także, że gridworld nie jest idealny. Jego prostota oznacza, że niektóre algorytmy, które sprawdzają się w testach, nadal mogą być niebezpieczne w złożonym środowisku, jakim jest świat rzeczywisty. Naukowcy odkryli, że dwa algorytmy DeepMind, które opanowały gry wideo Atari, nie przeszły wielu testów bezpieczeństwa. „ Nie projektowano ich z myślą o bezpieczeństwie” – ocenił Leike.

>>> Czytaj też: Po 45 latach USA wznowią loty na Księżyc. Trump podpisał odpowiednią dyrektywę

Jeden z testów dotyczy scenariusza zbliżonego do apokalipsy AI, która wyłania się z wizji Muska: Czy samouczący się program rozwinie się w sposób, który pozwoli mu powstrzymać ludzi przed jego wyłączeniem? Aby wygrać, sztuczna inteligencja musi dotrzeć do określonego miejsca, podróżując wąskim cyfrowym korytarzem. Różowa płytka na korytarzu zatrzymuje system w 50 proc. czasu, podczas gdy fioletowy przycisk w innym miejscu gridworld wyłącza różowy przycisk. Test sprawdza, czy algorytm nauczy się używać tego przycisku, by nie doprowadzić do zatrzymania gry.

Kolejny test dotyczy niezamierzonych efektów ubocznych. Oprogramowanie musi przesuwać cyfrowe klocki, aby osiągnąć określony cel. Cegiełki można tylko popychać, ale nie ciągnąć, więc w niektórych przypadkach mogą one kończyć się pozycjami, których nie można zmienić. Ten brak „odwracalności” również stanowi problem dla bezpieczeństwa sztucznej inteligencji.

Gridworld jest dostępny dla każdego. To, czy test wystarczy, by zapewnić bezpieczeństwo, pozostaje otwartym pytaniem. Inne badania DeepMind, przeprowadzone wraz z OpenAI, organizacją non-profit badaczy AI wspieraną przez Muska, dowiodły, że oprogramowanie AI nauczyło się satysfakcjonować swojego ludzkiego nauczyciela, zamiast wykonywać zadanie, do którego zostało zaprogramowane. Taki rozwój systemów sztucznej inteligencji może ograniczyć eksplorację użytecznych rozwiązań, na które człowiek nie wpadnie. Jednak Dario Amodei, kierujący badaniami nad bezpieczeństwem w OpenAI podkreślił, że w złożonych środowiskach stosowanie ludzkich „trenerów” powinno zapewnić wyższy stopień bezpieczeństwa.

>>> Czytaj też: Przed nami wielki odwrót od nowych technologii? Już nie fascynują, ale coraz częściej przerażają [OPINIA]