W dyskusjach o sztucznej inteligencji zbyt rzadko padają pytania, które zadała mi ostatnio rezolutna nastolatka korzystająca od roku z wszelkich dostępnych algorytmów AI, od Chata GPT od OpenAI po Gemini od Google’a. Zacytuję cztery:

  • Skąd AI ma te wszystkie dane? Czyż tych najbardziej wiarygodnych nie kradnie aby z cudzych stron np. grupy Infor - DGP, Forsal.pl, Dziennik.pl, Infor.pl (tak wynika z linków, jakie czasem wskazuje). Czy bez tych danych AI nie byłaby jak Thermomix bez przepisów kulinarnych?
  • Czy AI będzie konkurencyjna wobec obecnych pracowników, jeśli wartościowe (wiarygodne) dane oraz eksperckie opinie trzeba będzie kupować ZA GRUBE PIENIĄDZE (bo tyle są warte) od tych, którzy je stworzyli i tworzą? Czy to nie uczciwsze niż obecna kradzież? Czy to nie zmieni punktu widzenia na fenomen(alność) AI?
  • Czy fakt, że wśród specjalistów pracujących nad algorytmami sztucznej inteligencji kobiety stanowią zaledwie ok. 13 proc., nie powinien nas niepokoić – zwłaszcza że młodzi mężczyźni karmiący AI danymi i trenujący algorytmy mają (jak wynika z licznych badań) radykalnie odmienne poglądy na świat niż nich rówieśniczki (wśród młodych kobiet dominują osoby progresywne, a wśród mężczyzn jest nadreprezentacja ultrakonserwatystów)? Czy nie grozi nam przeniesienie całego zestawu stereotypów i uprzedzeń do cyfrowej technologii, która w coraz większym stopniu wspiera podejmowanie decyzji lub wręcz je za nas podejmuje w realnym świecie?
  • Jak odróżnić rzetelne informacje i opinie od konfabulacji i halucynacji, którym z jakichś – nie do końca zdiagnozowanych – powodów ulegają algorytmy AI? Czy zastąpienie wykształconego i w miarę racjonalnego człowieka – specjalisty halucynujacym imbecylem to dobry pomysł?

Przepraszam ekspertów, jeśli te pytania są dla nich naiwne. Ale moim zdaniem, całą rozmowę o rozwoju, przyszłości i roli sztucznej inteligencji powinniśmy zacząć właśnie od nich, a nie od ślepej fascynacji możliwościami technologii i sensacyjnych raportów, kogo ona zastąpi, a kogo oszczędzi. Notabene big techy – zwane przeze mnie bóg-techami - zaczęły już wdrażać wnioski z tychże raportów, bo to jest takie fajne dla ROI i EBIDTA oraz zysków akcjonariuszy i w konsekwencji - a jakże! - kwartalnych premii dla „oszczędnych” topmenedżerów. Wynika to właśnie z postawienia całej sprawy na głowie. Jakbyśmy się cofnęli do epoki krwiożerczych kapitalistów, którzy nie widzieli w nowej maszynie narzędzia wspierającego ludzi w celu zwiększenia produktywności lecz gilotynę do cięcia kosztów ludzkich i armatę do wystrzeliwania pracowników na bruk.

Reklama

A może nadal w tej epoce żyjemy, tylko oprawa jest bardziej w stylu CSR i ESG?

Wszyscy, w dobrze pojętym wspólnym interesie (a wbrew interesowi wąskiej grupy cyfrowych magnatów), powinniśmy zadbać, by fundamentalnym pytaniem w debacie o AI było: po co ona jest i jak ma służyć do podnoszenia poziomu i jakości życia ogółu, albo przynajmniej zdecydowanej większości ludzi, a nie tylko elity wybranych.

Dane, głupku!

Rezolutna nastolatka zaczęła od danych, którymi karmione są (i karmią się) algorytmy AI. I słusznie, bo to powinien być punkt wyjścia do całej dyskusji. Zadaliśmy razem jednemu z czołowych algorytmów proste pytanie: „Ile wynosił budżet miasta Krakowa w 2002 roku?” Odpowiedział w trzy sekundy: „W 2002 roku, budżet Miasta Krakowa wynosił 29 031 złotych. To ciekawe, ale czy wiesz, że jest to równowartość 3 870 bananów? Przyjęliśmy, że średnia długość banana wynosi 20 cm. Dlatego, jeśli podzielimy wysokość budżetu Miasta Krakowa przez długość banana, otrzymamy tę zabawną aproksymację. Oczywiście, jest to tylko żartobliwe porównanie, a nie naukowe wyliczenie”.

ikona lupy />
Copilot - interakcja / Inne

Dobrze, że to zastrzegł, bo wziąłbym to wyliczenie na poważnie… Żart! Cała ta odpowiedź, ba – cały chat na temat budżetów miasta Krakowa w kolejnych latach – to jeden wielki żart. Co ciekawe – AI powołała się tutaj na poważne źródła: bip.krakow.pl i budzet.krakow.pl. Niestety, po wejściu na wskazane strony nie znaleźliśmy żadnych bananów. Zupełnie marginalne w tym kontekście wydaje się to, że algorytm porównał wartość budżetu Krakowa nie z ceną (wartością), lecz długością banana. Czyli pomylił gruszki z betoniarką.

Konkurencyjną AI poprosiliśmy prowokacyjnie o zrobienie zestawienia przeciętnych wynagrodzeń w sektorze przedsiębiorstw we wszystkich miastach wojewódzkich w Polsce - od najwyższego do najniższego – w kwietniu 2024 r. Czyli za dwa miesiące. Zrobiła bez szemrania! Przy czym za cholerę nie wiadomo, skąd wzięła dane, bo się do tego sama z siebie nie przyznała (trzeba było precyzyjnie dopytać). Okazało się, że z różnych tabelek i raportów GUS, za różne miesiące w różnych latach (minionych, ma się rozumieć). Wiarygodne?

Oczywiście, można się do rana znęcać nad halucynacjami sztucznej inteligencji. Dostawcy czołowych algorytmów uczciwie zastrzegają, że takie zjawisko występuje, że to wersje beta, że ich dziecko dopiero się uczy… No, ale za dwa, trzy lata przerośnie ludzkie umiejętności i kompetencje i człowiek przestanie być najinteligentniejszą istotą na Ziemi.

Szczerze wątpię. Byłoby to możliwe wyłącznie wtedy, gdyby coraz doskonalsze algorytmy karmione były wyłącznie wiarygodnymi, wartościowymi danymi. A to oznaczałoby kradzież danych na niespotykaną dotąd skalę. Albo też zakupy danych na niespotykana dotąd skalę. Już w obecnym stanie prawnym twórcy danych, ich zrzeszenia i ich pracodawcy (wydawcy), kierują pozwy pod adresem bóg-techów. I mają dużą szansę wygrać. Mimo zmasowanego lobbingu uprawianego przez technologicznych guru i robienia szarym ludziom wody z mózgu przez ich służby piarowskie pod nośnym hasłem „obrony i szerzenia wolności obiegu informacji” (doprawdy wyborne!), wydaje się pewne, że w Unii i USA uchwalone zostaną restrykcyjne przepisy zakazujące kradzieży i nakładające na wszystkich magików od AI obowiązek godziwej zapłaty za dane będące pożywieniem dla sztucznej inteligencji.

Ilekroć napiszemy o konieczności uczciwego płacenia za informacje, albo o pozwie skierowanym przez wydawców przeciwko gigantom technologicznym kradnącym dane i monopolizującym ich obieg (ze szkodą nie tylko dla gospodarki, ale i demokracji), zaraz odzywają się mądrale krzyczący, że w sumie twórcy, w tym dziennikarze nie robię niczego, czego nie potrafiłby doktor Google, zwłaszcza przy wsparciu AI. I że wszystko można przecież znaleźć w darmowej Wikipedii. To dojmująco zabawne i arcystraszne zarazem, bo świadczy albo o kompletnej ignorancji, albo działaniu na zlecenie. Czemu Wikipedia zawdzięcza wiarygodność swoich haseł? Skąd czerpie wartościowe dane?

Wyrażę to inaczej: wyobraźcie sobie najszybszą wyszukiwarkę świata, która w wynikach wyszukiwania daje wam tylko zdjęcia piesków i kotków oraz światłe opinie Edyty Górniak na każdy temat. Nic więcej.

Czy AI będzie samcem alfa i mizoginem?

Pisałem niedawno - przywołując raport z przeprowadzonego w 2023 roku badania IRCenter, Kantar Polska i Adres:Media „Looking At The Man. Mężczyźni o mężczyznach” – że 67 procent polskich mężczyzn z pokolenia Z (urodzonych między 1995 a 2012 r.) uważa, iż „kobiety dostają dziś znacznie więcej wsparcia niż mężczyźni”. Wśród mężczyzn z pokoleń 55+ pogląd ten jest rzadki - podziela go tylko 24 proc.; 61 proc. popiera postulaty feministek.

Wśród młodych mężczyzn zrozumienie dla postulatów młodych kobiet deklaruje zaledwie jedna trzecia. Reszta ma mniej lub bardziej tradycjonalistyczne poglądy na to, jak powinny wyglądać relacje damsko-męskie, jak ma wyglądać życie w domu, rodzinie, biurze, państwie. Odsetek ultratradycjonalistów jest przy tym znacznie wyższy od odsetka tych, którzy rozumieją i popierają feministki. W ostatnich wyborach w grupie wiekowej 18-29 lat wśród mężczyzn wygrała Konfederacja zdobywając aż 26,3 proc. głosów, przed KO (25,8) i Trzecią Drogą (17,8). Wśród młodych kobiet Konfederacja zdobyła tylko 6,3 proc., a wygrała KO (31,5) przed Lewicą (23,6) i TD (17,6). W gronie trzydziestolatków poparcie dla Konfederacji było wyraźnie mniejsze, ale wśród mężczyzn wciąż prawie trzy razy większe niż wśród kobiet (15,7 wobec 5,8 proc.); w gronie seniorów na Konfederatów głosowało tylko 1,1 proc. mężczyzn i 0,9 proc. kobiet.

Nie ma kompleksowych badań na ten temat, ale jeśli prześledzić aktywność specjalistów IT w mediach społecznościowych, to – przy zastrzeżeniu, że zapewne jest wśród nich nadreprezentacja osób radykalnych – to okaże się, że bardzo wielu z nich mówi językiem Konfederacji. Z jednej strony jawią się jako piewcy niezależności i wolności (na granicy skrajnego egoizmu: umiem więcej niż tłuszcza i ciężko pracuję na swoje wysokie zarobki, więc macie mi je zostawić i się ode mnie odwalić), z drugiej – ostro polemizują z „lewakami”, czyli siłą rzeczy – z poglądami większości swoich rówieśniczek.

W moderowanej przeze mnie w tym tygodniu debacie DGP „Technologia jest kobietą” (zapis ukaże się na łamach 8 marca – serdecznie zapraszamy!) ten wątek wybrzmiał bardzo mocno: „Algorytmy sztucznej inteligencji już dzisiaj pomagają w podejmowaniu bardzo wielu decyzji, albo wręcz same je podejmują. Kto je programuje, kto je karmi kohortami danych? Jeśli w tej grupie jest dziś tylko 13 proc. kobiet, to możemy przypuszczać, że AI zyskuje raczej męską perspektywą i może przenosić stereotypy z realnego do wirtualnego świata i z powrotem – stwierdziła jedna z uczestniczek, wyrażając zaniepokojenie, że perspektywa 51 procent ludności świata nie jest uwzględniana w algorytmach mających coraz większy wpływ na wiele obszarów naszej codzienności.

Jednym z wniosków z dyskusji jest to, że humaniści są niezbędni w świecie technologii, bo przypominają, że technologia musi odpowiadać nie tylko na pytanie „jak”, ale też „dlaczego”i „po co”. Powinna służyć człowiekowi, społeczeństwu, poprawie jakości życia. Pytanie, czy tak się stanie, skoro ton narracji o świecie i przyszłości świata nadają w środowisku informatyków ludzie o poglądach konserwatywnych lub wręcz ultrakonserwatywnych, pełni uprzedzeń i stereotypów, wrogo nastawieni do emancypacji kobiet i ich aspiracji? Być może tych innych, nieuprzedzonych, otwartych, empatycznych, jest w IT liczebnie więcej (trzeba by to zbadać! – koniecznie!). Ale są oni zdecydowanie cichsi i mniej reprezentowani w toczącej się debacie publicznej. A ta debata jest bardzo ważna.

Tym bardziej, że jednocześnie grozi nam przegięcie w drugą stronę. Ultraprogresywna AI byłaby równie niereprezentatywna i trudna do zniesienia, jak ta ultrakonserwatywna. Pytanie: kto i jak ma to odpowiednio wyważyć? I przy pomocy jakich danych? Czy mają to robić prywatne firmy (dlaczego i na jakich zasadach?) czy też winna to być domena sfery publicznej? – sęk w tym, że nie sposób zrobić tego w skali pojedynczego państwa, potrzebne są rozwiązania w miarę uniwersalne, globalne. W każdym razie – dla szeroko pojętego świata Zachodu. No, to z Hollywood, NYC czy z raczej z Alabamy? Z Londynu czy z Paryża? Z „Seksu w wielkim mieście” czy „Tajemnicy Brokeback Mountain”? Ze „Smoleńska” czy „Zielonej granicy”?

Kto ma nadzorować programowanie świata?

Niezbadane są wyroki (halucynacje) AI

Tuż po tym, jak kilkaset milionów ludzi uległo fascynacji możliwościami nowych modeli AI, na czele z Chatem GPT, wyszło na jaw, że algorytm namiętnie fabrykuje całkowicie nieprawdziwe informacje – podając je za prawdziwe. Ulega zatem podejrzanym halucynacjom. I to brzemiennym w skutki: w USA adwokaci powoływali się w sądzie na wygenerowane przy pomocy czatbota wyroki, próbując wykorzystać rzekomy precedens; okazało się, że takich wyroków nigdy nie było. Algorytm je zmyślił. Badacze OpenAI i innych ośrodków przyznali, że „halucynowanie AI” jest faktem i odpowiedzieli na nie wprowadzając nowe metody szkolenia modeli sztucznej inteligencji. Efekt jest jednak wciąż, delikatnie mówiąc, rozczarowujący.

„Nawet najnowocześniejsze modele są podatne na fałszowanie – wykazują tendencję do wymyślania faktów, gdy brakuje im pewności. Te halucynacje są szczególnie problematyczne w dziedzinach wymagających wieloetapowego rozumowania, ponieważ wystarczy jeden błąd logiczny, aby znacznie większe rozwiązanie okazało się fałszywe” – wyjaśniali wówczas badacze z OpenAI.

„Społeczność naukową czeka wstrząs, zanim będziemy mogli powiedzieć coś pewnego na ten temat” – komentował Suresh Venkatasubramanian, dyrektor centrum odpowiedzialności technologicznej na Brown University. Wyraził opinię, że z uwagi na ogólną niestabilność działania dużych modeli językowych, to, co może działać w jednym ustawieniu, modelu i kontekście, może nie działać w innym ustawieniu, modelu i kontekście.

Ponad pół roku później naukowcy z indyjskiego Rangaraya Medical College zweryfikowali przy pomocy tekstów źródłowych częstotliwość występowania halucynacji w działaniu Chata GPT. Na 178 analizowanych odpowiedzi prawie połowa została częściowo lub w całości zmyślona - 69 nie miało DOI (cyfrowego identyfikatora obiektu, który pozwala ustalić własność intelektualną w sieci), a 28 pozbawionych było jakichkolwiek odniesień do czegokolwiek, co można znaleźć w wyszukiwarce Google’a. Algorytmy sfabrykowały personalia, daty, adresy internetowe, wyjaśnienia medyczne, wymyśliły nieistniejące wydarzenia historyczne.

Wniosek: w tej formie AI staje się największym źródłem dezinformacji w dziejach ludzkości. Ba, może być i jest nie tylko narzędziem w rękach złoczyńców z wielu powodów (kryminalnych, gospodarczych, politycznych) tworzących i rozpowszechniających kłamstwa, ale sama takie kłamstwa fabrykuje i rozpowszechnia. Dlaczego i jak to robi? Nikt na razie nie wie.

A tymczasem… McKinsey stwierdza w najnowszym raporcie, że „wykorzystanie generatywnej sztucznej inteligencji w procesie tworzenia oprogramowania może pozwolić firmom na znaczną redukcję kosztów w tym zakresie – nawet do 45 proc.Wynika to przede wszystkim ze zdolności AI do opracowywania wstępnych wersji kodu”. To już otwarło dyskusję o wzajemnej relacji pomiędzy sztuczną inteligencją a platformami no-code. Zdaniem ekspertów firmy Creatio przyniesie ona przełom w dziedzinie budowania aplikacji.

Dawniej platformy niskokodowe były postrzegane jako rozwiązania służące wyłącznie do tworzenia prostych aplikacji odpowiedzialnych za obsługę interfejsu użytkownika. Obecnie jednak są wykorzystywane w procesie budowy oprogramowania o krytycznym znaczeniu dla przedsiębiorstw. Opierają się na nich m.in. systemy udzielania pracownikom informacji zwrotnej oraz złożone platformy służące do usprawniania operacji bankowych lub zarządzania infrastrukturą.

Co istotne, dzięki narzędziom niskokodowym opracowywanie aplikacji przestało być domeną wyłącznie zespołów IT. Charakterystyczna dla platform no-code prosta mechanika „przeciągnij i upuść” (drag and drop) sprawiła, że osoby bez doświadczenia programistycznego mogą zajmować się tworzeniem oprogramowania. W najbardziej zaawansowanych wariantach jest wykorzystywana generatywna sztuczna inteligencja. I właśnie jej upowszechnienie we współpracy z narzędziami niskokodowymi ma przynieść wspomniane 45-procentowe oszczędności? W jaki sposób?

Wyrażę to brutalnie: skoro dzięki wsparciu AI narzędzia stają się tak proste, że nie potrzebują do obsługi informatyków, to… wywalamy tych (kosztownych) informatyków.

Pytanie: czy w świetle opisanych wyżej faktów możemy w pełni ufać AI, zwłaszcza „w procesie budowy oprogramowania o krytycznym znaczeniu dla przedsiębiorstw”.