Twórcy AI powinni przyjąć odpowiedzialność. Pora na bunt programistów [WYWIAD]

Ten tekst przeczytasz w 4 minuty
7 maja 2023, 08:42
 robot humanoidalny
shutterstock
Jeśli nieskrępowany rozwój modeli językowych zacznie prowadzić do tragedii – np. samobójstw po czatowaniu z wyszukiwarką Bing czy asystentem w Wordzie – to trzeba będzie pamiętać o wszystkich osobach, które są za to odpowiedzialne - mówi w wywiadzie Jan Zygmuntowski. 

Z Janem J. Zygmuntowskim rozmawia Anna Wittenberg

Jan J. Zygmuntowski ekonomista, współprzewodniczący Polskiej Sieci Ekonomii i dyrektor programowy CoopTech Hub, autor książki „Kapitalizm sieci”. Wykłada na Akademii Leona Koźmińskiego w Warszawie
Jan J. Zygmuntowski ekonomista, współprzewodniczący Polskiej Sieci Ekonomii i dyrektor programowy CoopTech Hub, autor książki „Kapitalizm sieci”. Wykłada na Akademii Leona Koźmińskiego w Warszawie

Trzy lata temu z nagłówków nie schodził blockchain, później było metawersum, a od listopada świat śledzi rozwój sztucznej inteligencji. To kolejna bańka mydlana czy tym razem prawdziwy przełom?

Tam z laptopami siedzą moi studenci. Mają spotkanie z inwestorami w sprawie swojej firmy. Jeden rozmawia na Zoomie, drugi ma otwarty ChatGPT i wspomaga się nim w rozmowie. Dzięki temu mają o jeden mózg więcej. To chyba najlepsza odpowiedź.

Karol Marks pisał, że ilość przemienia się w jakość i to właśnie widzimy dzisiaj – wystarczy spojrzeć na liczbę publikacji naukowych dotyczących AI czy gromadzone od lat big data, żeby zobaczyć, że rozwój tych narzędzi nie wziął się znikąd. Dziś po prostu osiągnął punkt krytyczny, w którym przedostały się one do powszechnego użycia. Zainteresowanie modelami generatywnej sztucznej inteligencji to kontynuacja rewolucji, dowód na to, że osiągamy dojrzałość technologiczną. To stawia przed nami poważne wyzwania.

Jakie?

Musimy się zastanowić, jak ograniczać negatywne skutki nasycenia technologią. Dokładnie tak, jak w czasie rewolucji przemysłowej. Lewis Mumford bardzo precyzyjnie opisuje w swojej książce „Technics and Civilization”, że wiązała się ona z fatalnymi warunkami pracy i mieszkania, tonami śmieci zalewającymi miasta. To wszystko można było poprawić, ale do tego musieli zorganizować się obywatele i zmusić państwo do wprowadzenia standardów. Musimy dziś zadziałać, by w czasie, kiedy technologia rozwija się z olbrzymią prędkością, ustanowić dla niej zasady wymiatające z rynku tych, którzy działają szkodliwie, nie zważając na swój wpływ na społeczeństwo i środowisko.

Co jest dzisiaj odpowiednikiem śmieci na ulicach?

Weźmy efekty Facebooka, Twittera, Instagrama, TikToka – mają w tle najbardziej rozbudowane dzisiaj mechanizmy sztucznej inteligencji, które żerują na naszych słabościach behawioralnych. Niektórzy, jak Shoshana Zuboff, sądzą, że stoi za tym jakiś wielki plan, inżynieria społeczna. Ja tak nie uważam. Moim zdaniem to po prostu pochodna modelu biznesowego, który maksymalizuje zysk z naszego czasu spędzonego w smartfonie – firmom zależy, by trzymać nas jak najdłużej, żeby wcisnąć nam więcej reklam. Zanieczyszczeniami są tu uzależnienie od telefonu, ograniczenie czasu spędzanego z innymi ludźmi czy epidemia depresji.

Tymczasem tuż przed tym, jak Microsoft ogłosił, że wprowadza ChatGPT do swojej przeglądarki i edytorów dokumentów, zwolnił zespół ds. odpowiedzialnego AI. Co nam to mówi o rozwoju sztucznej inteligencji?

Takie zespoły odgrywają ważną rolę w badaniu i ujawnianiu problemów związanych z algorytmami i modelami, które są stosowane w biznesie. Mogą one również pomóc w identyfikacji potencjalnych problemów – choćby z dyskryminacją czy innymi wypaczeniami systemów – co może prowadzić do ulepszenia modeli i redukcji ich negatywnych wpływów. Przyczyniają się do lepszego zrozumienia technologii i ich skutków, co zwiększa zaufanie do systemów opartych na sztucznej inteligencji. Istnienie zespołów ds. etyki w firmach było elementem wizji, którą nam przez lata sprzedawano, a która nazywała się samoregulacją. To wielkie kłamstwo, biznes sam się nie ureguluje, bo czemu miałby to robić. Firmy wdrażające rozwiązania oparte na sztucznej inteligencji nie mają w tym żadnego interesu, dlatego państwo musi bardzo surowo wprowadzać demokratyczną kontrolę nad produktem, nie ma innego wyjścia.

CAŁY TEKST W WEEKENDOWYM WYDANIU DGP I NA E-DGP

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: MAGAZYN DGP
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj