Czy sztuczna inteligencja zniszczy ludzkość

Zacznijmy od tego, co w temacie sztucznej inteligencji w ostatnim czasie coraz bardziej dominuje w przestrzeni publicznej, czyli lęków. Słyszymy – często od osób związanych z branżą technologii - że sztuczna inteligencja może co najmniej wymknąć się spod kontroli człowieka, a nawet doprowadzić do zagłady ludzkości. Czy podziela Pani te obawy?

Brzmi jak scenariusz trzymającego w napięciu filmu science-fiction. Obawy mogą wydawać się zasadne, biorąc pod uwagę postępującą automatyzację i robotyzację, która dokonuje się na naszych oczach. Na szczęście Terminator czy Matrix nam nie grożą. Celem sztucznej inteligencji jest sprawianie, aby komputery mogły uczyć się rozwiązywać problemy i podejmować decyzje na podstawie danych bez zaprogramowania wprost. Innymi słowy, to systemy, które powinny mieć zdolność doskonalenia się na podstawie doświadczeń z przeszłości, czyli danych.

Reklama

Ten ostatni element sprawia, że jeszcze długo nie będziemy na takim etapie, kiedy ziszczenie się bardzo fatalistycznych scenariuszy mogłoby być realne. Ostatnie lata przyniosły wiele głośnych, ale i znaczących sukcesów sztucznej inteligencji, a w niektórych obszarach nawet przełomowych. Algorytmy głębokiego uczenia maszynowego w bardzo wyspecjalizowanych zadaniach, na podstawie dostarczonych im bardzo dużych ilości danych, osiągnęły zbliżone wyniki do ludzi, a nawet wygrywają z najlepszymi ekspertami w gry, takie jak Go. Nadal jednak nie ma takich algorytmów, które dorównałyby ludzkiej elastyczności i zdolności do myślenia oraz działania na przestrzeni wielu dziedzin. Są też domeny, w których człowieka nie da się zastąpić algorytmem lub nie przyniosłoby to oczekiwanej wartości. Dobrym przykładem jest medycyna, gdzie kontakt międzyludzki pacjenta z lekarzem jest bardzo ważny, a skutki błędnej decyzji mogą być tragiczne.

O ile obawy przedstawiane w debacie publicznej związane z autonomiczną, niszczycielską sztuczną inteligencją przyciągają uwagę, uważam, że zrealizowanie się takich scenariuszy jest mało prawdopodobne.

Czego naprawdę powinniśmy się obawiać

A jakie bardziej realne obawy pojawiają się obecnie wśród badaczy sztucznej inteligencji?

Sztuczna inteligencja to przede wszystkim zestaw narzędzi oferujących wiele możliwości, od automatycznego rozpoznawania obiektów na zdjęciach, liczenia ich, przez wykrywanie anomalii, generację tekstu czy nawet gotowego kodu do zastosowania wybranego algorytmu uczenia maszynowego. Biorąc pod uwagę obecne zdolności AI oraz trendy w jej zastosowaniu, wydaje mi się, że możemy wyróżnić trzy grupy takich obaw.

Pierwsza związana jest z samym rozwojem sztucznej inteligencji i jej wdrażaniem. Mimo, iż wiele rozwiązań osiąga zdumiewająco dobre wyniki w publikowanych eksperymentach naukowych, to mogą one okazać się niewystarczające w praktycznym zastosowaniu na dużą skalę. Przykładowo, o ile będziemy bardzo zadowoleni, jeśli prognoza pogody będzie w 90 proc. poprawna, o tyle ta sama skuteczność w wykrywaniu wad narzędzi medycznych na linii produkcyjnej jest nieakceptowalna. Biorąc pod uwagę sam mechanizm działania algorytmów sztucznej inteligencji, opiera się on typowo na interakcji dużej liczby parametrów wraz z ich wstępnymi ustawieniami, a także ilości i jakości danych wsadowych. Wzajemne oddziaływanie tych czynników nie jest jeszcze do końca poznane i stanowi duże wyzwanie dla badaczy oraz praktyków chcących wdrożyć te rozwiązania. Dodatkowo, ograniczenia sprzętowe i finansowe budzą obawy o przyszłe tempo rozwoju ulepszeń i nowych technik.

Nie dość, że nie do końca wiadomo, jak działa mechanizm sztucznej inteligencji, to dodatkowo nie wiadomo, jak może zostać wykorzystana.

Dotykamy tu drugiej grupy obaw, czyli kto i do czego wykorzystuje sztuczną inteligencję. W nieodpowiednich rękach lub nieodpowiedzialnie zastosowana może być źródłem szkód i nadużyć. Zdolność generowania obrazów, dźwięku oraz tekstu daje nowe możliwości przestępcom do podszywania się pod czyjąś tożsamość, wyłudzeń danych czy oszustw finansowych, a także szerzenia dezinformacji. Podobnie, niewystarczająco zabezpieczone modele mogą być podatne na ataki modyfikujące ich działanie lub mające na celu wykradanie wrażliwych danych ze szkodą dla firm, ich pracowników i klientów.

Trzecia grupa obaw tyczy się aspektów ekonomicznych, związanych z ewolucją rynku pracy oraz branż gospodarczych. Sztuczna inteligencja osiąga imponujące rezultaty w obszarach do tej pory zarezerwowanych dla ludzi. Zwłaszcza, że coraz bardziej wybiegają poza proste, powtarzalne czynności. Sztuczna inteligencja obecna jest coraz powszechniej w branżach kreatywnych, badań i rozwoju, oraz w innych opartych na specjalistycznej wiedzy i umiejętnościach. Chodzi tu przede wszystkim o pojawiające się obawy specjalistów czy twórców, takich jak artyści, graficy, aktorzy, mogących odczuwać lęk związany z utratą wartości ich pracy. W tej chwili można dość łatwo i tanio wygenerować unikalny obraz o zadanej zawartości, napisać wiersz czy stworzyć własny film przy użyciu darmowych narzędzi dostępnych online, takich jak ChatGPT, Stable Diffusion, bez konieczności opanowania warsztatu artystycznego.

Idąc dalej, sztuczna inteligencja może przyczynić się do pogłębiania nierówności społecznych związanych z dostępem do tej technologii i umiejętnościami jej wykorzystania. Na szczęście będą też pojawiać się nowe zawody wokół obsługi tej technologii, na przykład ostatnio popularny inżynier podpowiedzi (prompt engineer).

Pod koniec marca setki biznesmenów, inwestorów i ekspertów od sztucznej inteligencji, w tym Elon Musk, wezwało do przynajmniej sześciomiesięcznej przerwy w rozwijaniu systemów AI zdolniejszych od GPT-4. Sygnatariusze tego apelu ostrzegają przed nieprzewidywalnymi skutkami wyścigu o tworzenie coraz potężniejszych modeli. Jak Pani czyta taki apel?

W reakcji na ten apel środowisko naukowe i biznesowe podnosiło często argument, że to próba zyskania przez Elona Muska i innych biznesmenów, naukowców na czasie względem konkurencji, aby nadrobić przegapioną szansę w pionierskim obszarze dużych modeli językowych. Jednak sam Elon Musk przyznał, że taki apel raczej nie będzie miał dużego znaczenia, ani realnego wpływu.

Natomiast sama idea apelu nie jest bezzasadna. W tej chwili bardzo duże modele językowe, jak GPT-4 od OpenAI czy podobne rozwijane przez innych gigantów technologicznych, mają problem ze skalowalnością i unikalnością rozwiązania względem mniejszych alternatyw open-source, trenowanych na podobnym zestawie danych. Są to modele, które charakteryzuje bardzo duża, sięgająca setek miliardów, liczba parametrów, potrzebujących do wytrenowania równie dużej ilości danych, a w związku z tym również mocy obliczeniowej, która odpowiednio przekłada się na potrzeby finansowe. To są wydatki rzędu nawet kilkudziesięciu milionów dolarów. Takie kwoty dla znakomitej większości firm są nierealne. Dlatego apel w pewnym sensie zwraca uwagę na to, w jakim kierunku rozwój sztucznej inteligencji zmierza i czy takie bardzo drogie konkurencyjne modele, które zostaną wytrenowane, będą ostatecznie użyte. Być może jest to niekoniecznie najbardziej rozsądny wydatek względem alternatyw z punktu widzenia społeczeństwa.

Poza tym społeczeństwo może też mieć o wiele mniejszy dostęp do sztucznej inteligencji niż firmy.

To też kwestia, o której poniekąd wspomnieliśmy wcześniej, rozumiana jako dostęp i możliwości rozwoju tej technologii. Jak wynika z badań naszej grupy w MIT FutureTech, opublikowanych niedawno w „Science”, środowiska naukowe skupione na uczelniach przegrywają w wyścigu o rozwój sztucznej inteligencji z naukowcami w sektorze prywatnym, reprezentującymi duże firmy technologiczne.

Pojawia się też ważna kwestia, dotycząca eksploracji i zrozumienia własności tych modeli językowych, które już zostały wytrenowane. Okazuje się, na przykład, że im większy model, tym więcej zadań jest w stanie wykonać z zadowalającym wynikiem. Nadal jednak nie wiadomo, jaka dokładnie liczba parametrów modelu jest konieczna, aby dane właściwości lub umiejętności się pojawiły.

Ważne jest także zgłębienie potencjalnych ryzyk, oraz opracowanie bardziej precyzyjnych środków kontroli tych modeli. Słyszeliśmy na przykład, że ChatGPT jest zdolny do wygenerowania kodu wirusa komputerowego czy przepisu na koktajl mołotowa. Nawet jeśli modelowi zablokowano możliwość bezpośredniego generowania odpowiedzi na tego typu pytania, kreatywnym użytkownikom udawało się obejść te zabezpieczenia.

Czego nas nauczył ChatGPT

Powoli mija okres zachłyśnięcia się ChatemGPT, który dał nam odczuć, czym jest generatywna sztuczna inteligencja. Dowiedzieliśmy się, że ChatGPT może być nie tylko użytecznym narzędziem, ale też może generować nieprawdę i być zagrożeniem dla naszych danych. Jakie wnioski i lekcje na przyszłość?

To prawda, że ChatGPT zyskał w ekspresowym tempie światową popularność, głównie dzięki przyjaznemu interfejsowi użytkownika i prostocie obsługi. Pierwszy kontakt z takim modelem zazwyczaj jest bardzo ekscytujący. Natomiast warto mieć na uwadze, że ten i podobne modele mają swoje ograniczenia. Są narzędziami opartymi na danych z przeszłości, które zostały dostarczone do trenowania. Modele te nie posiadają świadomości, empatii ani pełnego zrozumienia kontekstu. Mogą generować błędne informacje tam, gdzie danych treningowych w danym obszarze było zbyt mało albo nie było ich wcale. Chodzi o tzw. halucynacje modelu, czyli generowanie nieprawdziwych informacji, które sprawiają wrażenie opartych na faktach. Dlatego też umiejętność krytycznej oceny i skrupulatna weryfikacja źródeł informacji będzie jedną z takich dużych lekcji na przyszłość.

Co nas czeka po ChacieGPT? Co będzie kolejną „wielką rzeczą” w obszarze AI?

Zapewne będziemy mieli długą przerwę od takich bardzo imponujących dla przeciętnego użytkownika rzeczy, jakie obecnie oferują duże modele generatywne.

Niemniej jednak, duży potencjał drzemie w znalezieniu sposobu na przezwyciężenie obecnych ograniczeń sprzętowych związanych z półprzewodnikami oraz algorytmami usprawniającymi trening modeli na dużą skalę. To byłby przełom na miarę rozkwitu dziedziny głębokiego uczenia maszynowego z początku poprzedniej dekady. Dałoby to nowe możliwości eksploracji jeszcze większych obliczeniowo problemów niż te, z którymi mierzymy się obecnie przy dużych modelach językowych.

Regulacja sztucznej inteligencji

Prezydent Joe Biden w czasie niedawnej konferencji prasowej z premierem Wielkiej Brytanii Rishim Sunakiem zapowiedział, że USA i Wielka Brytania chcą przewodzić w regulacji prawnej AI na świecie. Unia Europejska też ma swoje pomysły regulacyjne w formie choćby AI Act, w ramach której chciano dopuścić kontrowersyjną możliwość identyfikacji biometrycznej obywateli w czasie rzeczywistym, ale poprawkę tę Parlament Europejski odrzucił. Na jakie kwestie powinniśmy zwracać szczególną uwagę w procesie regulacji sztucznej inteligencji?

Każde działanie, które sprawia, że rządy czy inne organizacje mające wpływ na społeczeństwo wchodzą w posiadanie zbyt dużej ilości danych o obywatelach bez uzasadnionego powodu, trzeba traktować z uwagą i podchodzić do nich bardzo ostrożnie. Dyskusje dotyczące etyki oraz prywatności związane z pozyskiwaniem, dostępem i użyciem takich danych nie są nowe, jednak trudności i dylematy legislacyjne nadal pozostają aktualne.

Natomiast w kwestii regulacji samej sztucznej inteligencji, możemy spojrzeć na ten temat przez pryzmat tego, kto jest właścicielem technologii i kto ma największe możliwości tej rozwijania. W tej chwili prym wiodą Stany Zjednoczone , choć coraz częściej mówi się, że Chiny im dorównują. Natomiast Europa jest głównie konsumentem tych innowacji. Dlatego europejskie działania regulacyjne będą miały na celu przede wszystkim ochronę własnych rynków i konsumentów przed negatywnymi dla nich skutkami, podczas gdy Stany Zjednoczone będą zainteresowane regulacją technologii w taki sposób, aby wzmacniać konkurencyjność swoich firm i zapewnić im ochronę własności intelektualnej. Regulacja jest jednym z klasycznych narzędzi walki konkurencyjnej.

Co powinno zostać uregulowane w pierwszej kolejności?

Horyzontalna regulacja tak szerokiej i trudnej do zdefiniowania technologii jest trudna. Jednak ramy prawne są potrzebne dla wdrożeń zarówno mniej, jak i bardziej skomplikowanych modeli, tak zwanych czarnych skrzynek. Chodzi przede wszystkim o zapewnienie możliwości wglądu i zrozumienie „toku rozumowania” takich modeli decyzyjnych oraz zapewnienie wyjaśnialności tym, którzy zmierzą się z ich konsekwencjami. W tej chwili modele wiedzą więcej o swojej decyzji, niż mogą nam powiedzieć.

Obserwujemy bardzo ostry wyścig biznesu o wykorzystanie AI. Czy jakakolwiek regulacja będzie w stanie sprostać takiej rzeczywistości?

Technologia rozwija się dużo szybciej, niż jakikolwiek system legislacyjny jest w stanie za nią nadążyć, a nawet dobrze zrozumieć. Podobne dylematy mieliśmy wcześniej przy próbach regulacji internetu.

Natomiast sama regulacja jest potrzebna, ponieważ nadaje ramy do wykorzystania i interakcji z nową technologią. Z jednej strony zapewnia użytkownikom i konsumentom prawa i daje jasne możliwości reakcji. Z drugiej strony, wyznacza granice dla firm.

Jakie możliwości ma biznes

Jak firmy będą próbowały wykorzystywać tę technologię?

Zastosowania w biznesie wiążą się z niebagatelnymi inwestycjami jeszcze przed zastosowaniem samych algorytmów. Firmy, zwłaszcza te duże, mają spore możliwości związane z posiadaniem dużej ilości unikalnych danych. Muszą jednak odpowiednio je przygotować, co często okazuje się znacznie bardziej kosztowne, niż zastosowanie algorytmów do ich przetworzenia. Jak wynika z badań, obecnie większość firm jest jeszcze w fazie eksperymentacji, ale są też przykłady dojrzałych produktów, które generują zyski. Należy się też spodziewać rozkwitu nowych firm, startupów, dla których rozwój sztucznej inteligencji to szansa na zaproponowanie i wdrożenie innowacyjnych rozwiązań.

Czy możemy dziś mówić o jakichś konkretnych nowych trendach, jeśli chodzi o sztuczną inteligencję w obszarze rozwoju biznesu?

Jeśli chodzi o konkretne trendy, ta technologia może być pomocna do zautomatyzowania rutynowych, powtarzalnych, ale dobrze zdefiniowanych zadań i procesów biznesowych. Pozwala to na oszczędność czasu i redukcję kosztów, a także zwiększenie efektywności pracy. Na przykład wykorzystanie chatbotów do obsługi prostych zapytań klientów. Zatrudnienie konsultantów do wykonywania tej samej pracy jest nieporównywalnie bardziej kosztowne. Tymczasem chatboty są szybkie, nie męczą się i są dostępne całą dobę.

Duży potencjał mają też systemy oparte o zaawansowaną analizę danych i zachowań użytkowników, klientów zebranych w formie cyfrowej. Na podstawie historycznych informacji o transakcjach czy innych sygnałach behawioralnych, firmy mogą spersonalizować ofertę, ale też wykrywać nieprawidłowości i szybko na nie reagować.

W jakich obszarach Polska może zdobyć przewagi

Do roli USA czy Chin w obszarze sztucznej inteligencji nam daleko, ale być może są obszary, w których Polska może zdobyć pewne nisze lub uzyskać istotne przewagi konkurencyjne?

Będzie to sporym wyzwaniem, jednak odpowiednie inwestycje mogą uaktywnić potencjał, który nasz kraj posiada. Dużym atutem jest to, że mamy wielu uzdolnionych programistów, którzy są doceniani na świecie. Na przykład, Polacy mieli swój udział przy tworzeniu najbardziej zaawansowanych systemów OpenAI, w tym słynnego ChatGPT.

Jeśli chodzi o możliwości budowania przewagi konkurencyjnej Polski w rozwoju sztucznej inteligencji, ważną strategiczną niszę mogą stanowić obszary związane z wojskowością i cyberbezpieczeństwem, gdzie kwestie rozwiązań narodowych mają duże znaczenie. Cieszą informacje, że polskie firmy w ramach współpracy pomiędzy krajami członkowskimi NATO proponują innowacyjne rozwiązania technologiczne w nowych domenach, wychodząc naprzeciw potrzebom całego Sojuszu.

Niekiedy słyszy się o problemie odpływu polskich kadr ds. AI za granicę. Co mogłoby pomóc zatrzymać specjalistów w kraju?

Najpierw należałoby zacząć od analizy, dlaczego polscy specjaliści są przechwytywani przez obce rynki i jakie czynniki temu sprzyjają. Wzrost wynagrodzeń i przyjazny system podatkowy to zazwyczaj jedne z najważniejszych elementów. Choć na podstawie obserwacji przemian, które dokonały się w ostatnich latach, dużą rolę odgrywa też coraz bardziej ugruntowana kultura pracy zdalnej w sektorze IT.

Z kolei do poprawy jest infrastruktura informatyczna. Bez łączy o odpowiednich parametrach trudno pracować ze sztuczną inteligencją. O ile w większych miastach zazwyczaj nie odczuwamy tego problemu, w mniejszych miejscowościach często brakuje dostępu do szerokopasmowego internetu światłowodowego, a nawet komórkowego. Wsparcie gmin do lokalnych inicjatyw wydaje się w tym przypadku lepsze, niż dotychczasowe poleganie na podmiotach prywatnych, dla których duże inwestycje w infrastrukturę nie zawsze są opłacalne.

Patrząc w przyszłość, ważna jest rola systemu edukacji, nie tylko budująca świadomość dostępnych narzędzi sztucznej inteligencji i sposobów interpretacji jej wyników, ale zwłaszcza możliwości jej tworzenia. Specjalistyczne, rzadkie umiejętności są cennym elementem konkurencyjności. Polskie uczelnie zaczęły już wychodzić naprzeciw tym potrzebom, inwestując w opracowanie nowych kierunków studiów związanych ze sztuczną inteligencją, zaawansowaną analityką czy cyberbezpieczeństwem.

Dr Anna Pastwa będzie prelegentem Europejskiego Forum Cyberbezpieczeństwa CYBERSEC 2023, które w dniach 21-22 czerwca odbędzie się w Katowicach. Dziennik Gazeta Prawna jest patronem medialnym konferencji.

BIO: Dr Anna Pastwa – badaczka sztucznej inteligencji, adiunkt na Uniwersytecie Warszawskim związana z Digital Economy Lab (DELab). Obecnie zajmuje się badaniem ekonomicznych i technicznych podstaw rozwoju nowych technologii, takich jak głębokie uczenie maszynowe, w ramach interdyscyplinarnego projektu FutureTech w Massachusetts Institute of Technology (MIT), Computer Science and Artificial Intelligence Laboratory (CSAIL). Uzyskała tytuł doktora ekonomii biznesowej i magistra sztucznej inteligencji na KU Leuven w Belgii. Jej zainteresowania badawcze obejmują m.in. ekonomię sztucznej inteligencji i wpływ przełomowych technologii na wzrost gospodarczy.

ikona lupy />
Anna Pastwa. Fot. Ralitza Soultanova / Materiały prasowe