W książce „Pianola” Kurt Vonnegut roztacza smutną wizję: przyszłość to świat maszyn będących w stanie przewidywać zachowania ludzi. Naprawdę jesteśmy aż tacy nieskomplikowani? Tak łatwo nas rozgryźć?

To zagadnienie stanowi rdzeń zagadnień związanych ze sztuczną inteligencją (SI). Jesteśmy bardziej przewidywalni, niż nam się wydaje. Wyjątkowość maszyn wynika nie z ich technologicznego zaawansowania, a z tego, że człowiek po prostu nie jest aż tak unikalny.

Rozczarowujące.

Ostatnie lata rozwoju SI to właśnie rozwój komputerowych technik prognozowania naszych zachowań. Te techniki radykalnie obniżają koszty wytwarzania dóbr i usług w całej gospodarce. Gdy mówię o tym nieekonomistom, to są oni zawiedzeni, że SI nie idzie w kierunku wytyczonym przez scenarzystów „Star Treka” czy „Westworld”, ale ów spadek kosztów prognozowania ma równie wielkie znaczenie dla gospodarki, co fantazyjne wynalazki z tych seriali. Dzięki niemu zakres czynności, które mogą potencjalnie wykonywać automaty, nieustannie się rozszerza i zaczyna wykraczać poza rutynowe i powtarzalne zadania. SI może skutecznie zajmować się pracami, które dotąd były zarezerwowane dla specjalistów. Wystarczy dostarczyć jej odpowiednie dane.

Czy nie istnieje jednak jakaś nieprzekraczalna dla maszyn granica? Życie jest skomplikowane. Łatwo maszynie rozdysponować towar w centrum logistycznym, trudniej wydać wyrok w sądzie?

Maszyn – sędziów jeszcze nie ma, ale skąd wiemy, że ich nie będzie? W USA już wprowadzono pilotażowe programy, w ramach których SI realizuje niektóre kompetencje sędziów. Chodzi np. o decydowanie, czy aresztant może wyjść za kaucją. Głównym kryterium jest tu ocena, czy po zwolnieniu taka osoba stawi się na przesłuchanie bądź na rozprawę, czy może ucieknie. Jeśli istnieje szansa, że zniknie, nie orzeka się kaucji i podtrzymuje postanowienie o areszcie.

I skąd komputer ma to wiedzieć?

W badaniach nad rozwojem SI doszło w ostatniej dekadzie do przełomu: uznano, że maszyny nie powinny bazować na tworzonych przez człowieka algorytmach, tylko uczyć się zachowywać jak ludzie. W USA o kaucji sądy rozstrzygają dziesiątki tysięcy razy rocznie, istnieje więc ogromna baza danych do nauki dla maszyn. Mogą one prześledzić, jakie decyzje, w jakich warunkach i z jakim rezultatem podejmowali sędziowe, a potem próbować ich naśladować. Inżynierowie poszli dalej – zamiast kopiować ludzkie rozstrzygnięcia, kazali maszynom szacować szanse na to, że aresztant po wpłaceniu kaucji zwieje, i podejmować decyzje na tej podstawie. Okazuje się, że maszyny bywają skuteczniejsze niż sędziowie. Ich decyzje nie są obciążone uprzedzeniami, np. rasowymi. Znacznie częściej niż ludzie zasądzają kaucje Latynosom czy czarnoskórym.

Treść całego wywiadu można przeczytać w piątkowym, weekendowym wydaniu DGP.

>>> Polecamy: Kiedy rozwój sztucznej inteligencji może stać się niebezpieczny? Wywiad z Aleksandrą Przegalińską z MIT