Z Janem J. Zygmuntowskim rozmawia Anna Wittenberg
ikona lupy />
Jan J. Zygmuntowski ekonomista, współprzewodniczący Polskiej Sieci Ekonomii i dyrektor programowy CoopTech Hub, autor książki „Kapitalizm sieci”. Wykłada na Akademii Leona Koźmińskiego w Warszawie / Materiały prasowe / fot. Materiały prasowe
Trzy lata temu z nagłówków nie schodził blockchain, później było metawersum, a od listopada świat śledzi rozwój sztucznej inteligencji. To kolejna bańka mydlana czy tym razem prawdziwy przełom?

Tam z laptopami siedzą moi studenci. Mają spotkanie z inwestorami w sprawie swojej firmy. Jeden rozmawia na Zoomie, drugi ma otwarty ChatGPT i wspomaga się nim w rozmowie. Dzięki temu mają o jeden mózg więcej. To chyba najlepsza odpowiedź.

Reklama

Karol Marks pisał, że ilość przemienia się w jakość i to właśnie widzimy dzisiaj – wystarczy spojrzeć na liczbę publikacji naukowych dotyczących AI czy gromadzone od lat big data, żeby zobaczyć, że rozwój tych narzędzi nie wziął się znikąd. Dziś po prostu osiągnął punkt krytyczny, w którym przedostały się one do powszechnego użycia. Zainteresowanie modelami generatywnej sztucznej inteligencji to kontynuacja rewolucji, dowód na to, że osiągamy dojrzałość technologiczną. To stawia przed nami poważne wyzwania.

Jakie?

Musimy się zastanowić, jak ograniczać negatywne skutki nasycenia technologią. Dokładnie tak, jak w czasie rewolucji przemysłowej. Lewis Mumford bardzo precyzyjnie opisuje w swojej książce „Technics and Civilization”, że wiązała się ona z fatalnymi warunkami pracy i mieszkania, tonami śmieci zalewającymi miasta. To wszystko można było poprawić, ale do tego musieli zorganizować się obywatele i zmusić państwo do wprowadzenia standardów. Musimy dziś zadziałać, by w czasie, kiedy technologia rozwija się z olbrzymią prędkością, ustanowić dla niej zasady wymiatające z rynku tych, którzy działają szkodliwie, nie zważając na swój wpływ na społeczeństwo i środowisko.

Co jest dzisiaj odpowiednikiem śmieci na ulicach?

Weźmy efekty Facebooka, Twittera, Instagrama, TikToka – mają w tle najbardziej rozbudowane dzisiaj mechanizmy sztucznej inteligencji, które żerują na naszych słabościach behawioralnych. Niektórzy, jak Shoshana Zuboff, sądzą, że stoi za tym jakiś wielki plan, inżynieria społeczna. Ja tak nie uważam. Moim zdaniem to po prostu pochodna modelu biznesowego, który maksymalizuje zysk z naszego czasu spędzonego w smartfonie – firmom zależy, by trzymać nas jak najdłużej, żeby wcisnąć nam więcej reklam. Zanieczyszczeniami są tu uzależnienie od telefonu, ograniczenie czasu spędzanego z innymi ludźmi czy epidemia depresji.

Tymczasem tuż przed tym, jak Microsoft ogłosił, że wprowadza ChatGPT do swojej przeglądarki i edytorów dokumentów, zwolnił zespół ds. odpowiedzialnego AI. Co nam to mówi o rozwoju sztucznej inteligencji?

Takie zespoły odgrywają ważną rolę w badaniu i ujawnianiu problemów związanych z algorytmami i modelami, które są stosowane w biznesie. Mogą one również pomóc w identyfikacji potencjalnych problemów – choćby z dyskryminacją czy innymi wypaczeniami systemów – co może prowadzić do ulepszenia modeli i redukcji ich negatywnych wpływów. Przyczyniają się do lepszego zrozumienia technologii i ich skutków, co zwiększa zaufanie do systemów opartych na sztucznej inteligencji. Istnienie zespołów ds. etyki w firmach było elementem wizji, którą nam przez lata sprzedawano, a która nazywała się samoregulacją. To wielkie kłamstwo, biznes sam się nie ureguluje, bo czemu miałby to robić. Firmy wdrażające rozwiązania oparte na sztucznej inteligencji nie mają w tym żadnego interesu, dlatego państwo musi bardzo surowo wprowadzać demokratyczną kontrolę nad produktem, nie ma innego wyjścia.

CAŁY TEKST W WEEKENDOWYM WYDANIU DGP I NA E-DGP