Z Maciejem Chojnowskim rozmawia Anna Wittenberg

Czy przyszłość już tu jest?

Zdecydowanie. I musimy być tego świadomi, bo to kwestia odpowiedzialności za przyszłe pokolenia. To poniekąd fundament etycznego myślenia o technologii.

Reklama

Pytam, bo jeszcze pół roku temu wydawało się, że technologie wykorzystujące AI to konstrukcja z filmów science fiction.

Nie zgodzę się. Przez kilka lat pracowałem w portalu Sztucznainteligencja.org.pl i obserwowałem, jak moi koledzy opisują kolejne nowinki. To wszystko trwa już od dłuższego czasu.

Nigdy jeszcze nie było jednak tak, że narzędzi wykorzystujących AI mogły używać dzieci do pisania wypracowań.

W ostatnim czasie rzeczywiście wielką popularność zyskał chatbot opracowany przez firmę OpenAI. Myślę jednak, że udostępnienie tego narzędzia to do pewnego stopnia chwyt marketingowy. Choć oczywiście przyznaję, że już teraz widać, jak duży potencjał w tym drzemie i zarazem jak duże są ryzyka. Ale też nie przesadzajmy z ekscytacją - czytałem niedawno reportaż o tym, jak próbowano wykorzystać AI w dziennikarstwie. Okazało się, że efekty tylko pozornie były świetne. I teraz zamiast czerpać zyski, trzeba sprawdzać, czy artykuły są zgodne z prawdą, bo robot w wielu miejscach napisał kompletne dyrdymały.

Tymczasem w społecznej świadomości pokutuje obraz podsycany przez myślicieli takich jak Max Tegmark czy Nick Bostrom, że AI najpierw osiągnie poziom ludzki, a następnie pojawi się „superinteligencja”, która zawładnie światem. Oczywiście nie można tego zupełnie wykluczyć, ale dzisiaj mamy dużo bardziej przyziemne problemy z AI.

Czyli poważnego zagrożenia - przynajmniej na razie - nie ma?

To też nie tak. Sztuczna inteligencja niesie ze sobą wiele niebezpieczeństw. Część z nich związana jest dość ściśle ze sposobem działania systemów uczenia maszynowego. Jak choćby ryzyko dyskryminacji wynikające ze skrzywienia algorytmicznego, które jest efektem trenowania AI na niewystarczająco reprezentatywnych danych. Kolejny problem to nieprzejrzystość działania niektórych systemów sztucznej inteligencji. Ale są też kwestie innego rodzaju, które dotyczą naszego funkcjonowania w świecie pełnym nowoczesnych technologii, jak np. malejące poczucie ludzkiej sprawczości. Jeszcze inna sprawa to koncentracja kapitału przez najbardziej zaawansowane firmy technologiczne i monopolizowanie rynków. Tych wyzwań jest naprawdę sporo i mają one różne, nierzadko złożone przyczyny.

Jakie jest miejsce etyki w dyskusji o AI?

Fundamentalne! Choć w Polsce nie ma chyba jeszcze takiej świadomości. Etyka, podobnie jak prawo, tworzy ramy normatywne dla nowych technologii. Obie te dziedziny się przenikają - obecnie trwają prace nad unijnym rozporządzeniem regulującym stosowanie sztucznej inteligencji, tzw. AI Act. Jego projekt powstał właśnie na podstawie wskazówek dotyczących godnej zaufania AI. Ale na gruncie etyki tworzone są również konkretne rozwiązania, które pokazują, jak przekładać na praktykę abstrakcyjne wymogi etyczne czy prawne. Wbrew pozorom etyka sztucznej inteligencji jest więc bardzo użyteczna.

Ale prace nad AI trwają na całym świecie - w obrębie różnych kultur, z różnymi podstawami etycznymi. Czy jest jakaś płaszczyzna, na której możemy się spotkać? Wypracować coś uniwersalnego?

Wszystko zależy od punktu widzenia. Ktoś, kto wierzy w uniwersalizm aksjologiczny, powie, że podstawą są tutaj prawa człowieka. To one zresztą stanowią bazę dla wytycznych dotyczących godnej zaufania sztucznej inteligencji, o których wspomniałem. Natomiast ktoś sceptyczny wobec tej koncepcji, kto traktuje ją np. jak rodzaj kolonializmu kulturowego, zapewne nie przyjmie takiej odpowiedzi. Dlatego proponowane są też inne ujęcia. Amerykańska filozofka Shannon Vallor odwołuje się do tradycji Arystotelesa i etyki cnót, która mniej skupia się na abstrakcyjnych normach, a bardziej na roztropności, czyli mądrości praktycznej pomagającej odnaleźć się w różnych złożonych sytuacjach. Taki mądrościowy model myślenia jest bliski wielu kulturom i tradycjom.

Warto przy tym wyraźnie podkreślić, że w etyce AI nie chodzi o kodowanie moralności w maszynach, ale o to, żeby ludzie, którzy tworzą te rozwiązania, umieli to robić odpowiedzialnie. Oczywiście wśród etyków AI są i tacy, którzy uważają, że trzeba próbować wyposażać maszyny w moralność, ale większość środowiska pozostaje wobec tego raczej sceptyczna.

Cały wywiad z przeczytasz w Magazynie Dziennika Gazety Prawnej i na e-DGP.