Choć pojęcie sztucznej inteligencji (AI) jest z nami już od kilku dekad, to chyba jeszcze nigdy nie budziło tak dużych kontrowersji i lęków jak dziś. I jednocześnie można odnieść wrażenie, że na fali swojej popularności pojęcie to zaczęło się trochę rozmywać.

Jako badaczka mam trochę odwrotne impresje, tzn. że sztuczna inteligencja wcale się nie rozmyła, tylko wręcz doprecyzowała się, ukonstytuowała się jako dziedzina naukowa, która ma konkretne metody pracy z różnymi typami danych. Z mojej perspektywy, jako badacza i jako osoby, która ją wdraża, sztuczna inteligencja jest bardzo konkretna i bardzo produkcyjna.

Natomiast ma Pan rację, że istnienie pewien hype na sztuczną inteligencję, który wykracza poza naszą domenę, czyli badaczy i ludzi pracujących z tą technologią. Rzeczywiście wszyscy o tej sztucznej inteligencji mówią, każdy nią chętnie żongluje i przez to powędrowała ona trochę w rewiry popkulturowe. W efekcie AI ma też nieciekawą odsłonę w postaci fake AI, gdy ktoś próbuje nam sprzedawać byle co, twierdząc, że jest to oparte na sztucznej inteligencji tylko dlatego, że jest to bardzo nośny termin w ostatnim czasie.

Czym zatem dla badaczki tego fenomenu jest dziś sztuczna inteligencja?

Dla mnie jest to dyscyplina wiedzy, która co do zasady dąży do budowania sztucznych systemów mających zdolność do przetwarzania informacji w sposób podobny do organizmów żywych - do człowieka najbardziej. W ramach tej wiedzy powstają różne koncepcje tego, jak system, który jest sztuczny, na przykład oparty na krzemie, może się uczyć i adaptować do otoczenia zewnętrznego.

Świętym Graalem sztucznej inteligencji jest to, jak sprawić aby system, który nie jest biologiczny i nie jest organizmem, był w stanie funkcjonować w warunkach zmian – tak jak robimy my. De facto bowiem głównym wymiarem naszej inteligencji jest zdolność odnoszenia się do naszego otoczenia, które się zmienia, wysyła nam różne bodźce i my na te bodźce najczęściej jakoś odpowiadamy. Takie działanie w warunkach zmiany jest dla nas relatywnie łatwe.

A jak wychodzi to maszynom?

To, co się stało w ostatnim czasie w sztucznej inteligencji - powstanie nowych metod, na przykład deep learningu, czyli głębokiego uczenia maszynowego, budowanie wielowarstwowych sieci neuronowych, które świetnie przetwarzają tekst, dźwięk, obraz i uczą się w czasie robić to jeszcze lepiej niż robiły to na początku, to jest pewien przełom, który mówi nam, że ta dziedzina działa, jest produkcyjna, można ją z powodzeniem skalować i za jej pomocą iść dalej w obszarze badań czy funkcjonowania firmy. W tym sensie sztuczna inteligencja chyba jeszcze nigdy nie była bardziej jasna, niż do tej pory, choć oczywiście przed nami jeszcze bardzo wiele zagadek.

Stephen Hawking ostrzegał, że sztuczna inteligencja może być najgorszą rzeczą, jaka przytrafiła się naszej cywilizacji i pełne wykorzystanie potencjału AI może oznaczać kres ludzkości. Jak Pani ocenia takie wypowiedzi?

Myślę, że Stephen Hawking widział po prostu również negatywny potencjał tej technologii i obawiał się, że może być wykorzystana w rożnych celach. Warto jednak dodać, że Hawking przed śmiercią skorygował swoje stanowisko stwierdzając, że to nie sztuczna inteligencja będzie największym zagrożeniem dla przyszłości ludzkości, ale raczej połączenie jej z kapitalizmem i wyzyskiem. Spodziewał się, że sztuczna inteligencja w przyszłości będzie potwornie polaryzować społeczeństwa w wymiarze systemowym.

Z kolei Elon Musk porównał stworzenie sztucznej inteligencji do wynalezienia bomby atomowej.

Elon Musk to osoba, która właściwie stoi za połową najbardziej przełomowych przedsięwzięć w dziedzinie sztucznej inteligencji. Chodzi m.in. o takie przedsięwzięcia, jak OpenAI – firma, którą Musk powołał do życia i później z niej odszedł, a która wypuściła ostatnio algorytm GPT-3. To generator tekstu, który napisał publicystyczny artykuł do „Guardiana” i zrobił to na poziomie człowieka. Można powiedzieć, że to prawdziwa „petarda” w sztucznej inteligencji i współdzieło Muska.

Elon Musk tworzy również Neuralink, czyli najbardziej zaawansowany interfejs mózg-maszyna, który miałby być zdolny do czytania myśli ludzkich i odbierania naszych sygnałów emocjonalnych. I gdybym miała wskazywać, co jest potencjalnie najbardziej kontrowersyjne, ale też najciekawsze w przyszłości sztucznej inteligencji, to byłyby właśnie interfejsy mózg-maszyna.

W tym sensie Musk jest raczej producentem tego rodzaju rozwiązań, więc jego przestrogi o tym, jaka AI może być straszna, mało mi się z tym spinają.

Wśród największych społecznych lęków związanych ze sztuczną inteligencją pojawiają się obawy przed powstaniem czegoś na kształt sztucznej świadomości. Czy jest to w ogóle realna perspektywa?

Odpowiedź jest bardzo krótka: nie. Czołowi badacze i badaczki z tej dziedziny podkreślają, że jest to kwestia 200, 500, a może i 1000 lat. Nie znamy zagadek świadomości, nie wiemy, jak ją stworzyć. Systemy, które mamy dziś, ani przez sekundę nie stały obok świadomości.

Być może jak się przeniesiemy na twory biologiczne, gdzie będziemy mieli do czynienia ze stykiem biologii syntetycznej ze sztuczną inteligencją, to ta świadomość gdzieś się pojawi, ale czy to oznacza, że ją zrozumiemy i powstanie maszyna? Powstanie raczej coś, co będzie pewnym organizmem z jakimś poziomem świadomości – tak jak dziś uważamy, że chyba większość organizmów żywych dysponuje jakąś formą świadomości. Przy czym to, że dopniemy do tego organizmu trochę krzemu, nie pozwoli nam powiedzieć, że sami stworzyliśmy sztuczną świadomość. Raczej będzie to oznaczało, że wpięliśmy się w życie, w biologię. Dlatego ze stricte technologicznego punktu widzenia stworzenie sztucznej świadomości to pieśń bardzo dalekiej przyszłości. Wszyscy ci, którzy mówią, że stanie się to już niedługo, powinni usiąść i napić się wody.

W jakich branżach rozwiązania z zakresu sztucznej inteligencji będą w najbliższym czasie dominowały, a może nawet staną się biznesową koniecznością?

Na pewno logistyka i transport są sektorami niezwykle wdzięcznymi dla AI w tym sensie, że są bardzo algorytmiczne. Procesy w takich branżach jest łatwo przetworzyć na takie, które są zrozumiałe dla sztucznej inteligencji, dzięki czemu mogą one być zoptymalizowane.

Takim sektorem jest również zdrowie publiczne, co było mocno widoczne w czasie pandemii Covid-19. Chodzi m.in. o takie działania, jak predykcja rozwoju pandemii, szukanie szczepionek, szukanie leków również przy pomocy metod sztucznej inteligencji.

Sporo dzieje się także w sektorze prawnym, np. porównywanie umów, generowanie nowych umów czy porównywanie legislacji. W tym obszarze powstaje coraz więcej systemów AI. Sektor finansowy od dawna interesuje się sztuczną inteligencją, a teraz słyszę, że sektor nieruchomości chce wykorzystywać przetwarzanie obrazu, aby oceniać wartość obiektów.

Przeważnie rzeczywistość wyprzedza regulacje prawne, które pojawiają się dopiero po jakimś czasie. Czy na obecnym etapie rozwoju AI widzi Pani konieczność większej ingerencji prawnej w ten obszar?

Rzeczywiście najpierw pojawił się samochód, a dopiero potem pasy i dziś widzimy przestrzenie w obszarze sztucznej inteligencji, które trzeba podregulować, jak choćby kwestię błędu (bias) algorytmicznego. Chodzi tu na przykład o to, że silniki sztucznej inteligencji z powodu danych, które mają na wejściu, mogą kogoś dyskryminować. Takie błędy mogą występować, gdy zastosujemy algorytmy sztucznej inteligencji w rekrutacji.

Innym ważnym obszarem jest sztuczna inteligencja oparta na sieciach neuronowych, która nie do końca jest transparentna. Jest to swoista czarna skrzynka i nie może być ona stosowana w pewnych sektorach wybitnie wrażliwych, takich jak medycyna czy finanse.

Jest również coś do zrobienia w algorytmach wspierających podejmowanie decyzji. Algorytmy te powinny mieć pewną przestrzeń w kompetencji, ale nie powinny wyręczać zupełnie ludzi. To człowiek powinien mieć ostateczną superwizję.

Ponadto tworzyłabym takie regulacje, które wspierają rozwój sztucznej inteligencji i pozwalają na korzystanie z niej. Mam na myśli takie rozwiązania, które nie tylko straszą, ale pozwalają tę sztuczną inteligencję trochę obłaskawiać i z niej biznesowo czy organizacyjnie korzystać.

Sztuczna inteligencja pojawia się wśród technologii, które mogą mieć duże znaczenie dla przebiegu rywalizacji geopolitycznej na świecie. Jak dziś wygląda układ sił w tym obszarze?

Chińczycy są tu mocnym liderem i większość raportów biznesowych mówi o tym, że to właśnie Chiny są najbardziej zaawansowane. Co więcej, mają strategiczne podejście do sztucznej inteligencji i długofalowe plany oraz wiedzą, co chcą osiągnąć do 2050 roku. Ponadto zbierają masę danych, a dziś te dane stanowią o przewadze. Oczywiście nie jest powiedziane, że w przyszłości będzie podobnie. Być może za jakiś czas o przewadze będzie decydował hardware czy nowe algorytmy. Niemniej na ten moment dane to kluczowa sprawa i Chińczycy mają ich ogromne ilości. Do tego dochodzą wielkie nakłady na tę technologię.

Stany Zjednoczone są gdzieś obok, ale na pewno nie są samodzielnym liderem. Ciekawe koncepcje rodzą się również w Arabii Saudyjskiej czy Zjednoczonych Emiratach Arabskich, gdzie chce się przejść z gospodarki opartej o zasoby naturalne na gospodarkę opartą o informacje.

A gdzie jest Europa?

Europa to solidny pociąg dalekobieżny. Nie jest to ekspres, ale ma swoje rozwiązania w zakresie przemysłu, ma różne patenty. Nie jest tak dynamiczna jak USA czy Chiny, ale też z drugiej strony niekiedy takie działanie jest bardziej rozważne, jeśli chcemy mieć koegzystencję ze sztuczną inteligencją, a niekoniecznie wyrywanie się naprzód, aby być pierwszym. Co prawda takie ostrożne podejście jest wolniejsze, ale czasem warto poczekać, aż pewne rozwiązania się ustabilizują.

Jak na tym tle wypada Polska?

Polska produkuje dużo talentów, choć te talenty niekoniecznie później w Polsce pracują. Mamy świetnych informatyków, bardzo dobrych specjalistów od data science. Edukacja w tych dziedzinach jest na relatywnie wysokim poziomie.

Jeśli natomiast chodzi o prace wdrożeniowe, to jeszcze takiego ruchu nie ma. Choć w ostatnim czasie, szczególnie pandemii Covid-19, sporo się wydarzyło, zwłaszcza w sektorze medycznym.

Czy Polska miałaby szanse uzyskać przewagi konkurencyjne we wdrażaniu sztucznej inteligencji w jakimś konkretnym obszarze?

Wskazałabym na przykład na sadownictwo i rolnictwo, które są obszarami bardzo wdzięcznymi zarówno dla internetu rzeczy, jak i sztucznej inteligencji. Gdyby pójść za pomysłem na europejskie specjalności wśród państw członkowskich, to Polska wykorzystując naturalne przewagi i doświadczenie w tych dziedzinach, mogłaby pioniersko wyjść z pomysłami.

Jak mogłoby to wyglądać?

Mogłoby to dotyczyć bardzo wielu rzeczy, na przykład planowania upraw, przewidywań ws. tego, jak postępują zmiany klimatu, jak wygląda dana gleba, jak są warunki do uprawy danego typu roślin. Wszystko to pozwoliłoby na bezpieczniejsze i bardziej rozsądne zużywanie zasobów, takich jak woda czy energia, których w przyszłości może być jeszcze mniej.

BIO: dr hab. Aleksandra Przegalińska-Skierkowska - filozof, futurolog, publicystka, badaczka sztucznej inteligencji z Akademii Leona Koźmińskiego w Warszawie, prowadziła badania w bostońskim Massachusetts Institute of Technology (MIT), autorka i współautorka książek: „Społeczeństwo współpracy”, „Sztuczna inteligencja. Nieludzka, arcyludzka”, „Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję”.

Aleksandra Przegalińska-Skierkowska jest prelegentem VI edycji Europejskiego Forum Cyberbezpieczeństwa Cybersec Global 2020, które odbędzie się online w dniach 28-30 września 2020 roku.