Skandal związany z wykorzystaniem przez firmę Cambridge Analytica danych z Facebooka do wpływania na polityczne decyzje wyborców obrazuje zagrożenia płynące z zastosowań sztucznej inteligencji. To właśnie samouczący się algorytm profilował klientów i dostarczał im odpowiednie komunikaty. Możliwości złowrogiego wykorzystania technologii będą szybko rosły, bo postęp w zakresie sztucznej inteligencji ma charakter geometryczny.
ikona lupy />
Media

Rynek związany z zastosowaniami sztucznej inteligencji dynamicznie rośnie niemal we wszystkich dziedzinach życia. Według danych Bank of America technologie o nią oparte generowały na świecie przychody w wysokości 2 mld dolarów w 2015 roku. Za siedem lat ma to już być 127 mld dolarów. Największe dochody przyniesie technika rozpoznawania i tworzenia obrazów oraz obiektów, strategie tradingowe na rynku finansowym, procesowanie danych pacjentów i analityka predyktywna. Samouczące się maszyny mogą już analizować ogromne bazy danych pochodzące z różnych źródeł i uczyć się zachowań oraz nawyków milionów klientów czy jednostek. To będzie umożliwiało podejmowanie przez nie samodzielnych działań bez konieczności dodatkowego programowania. Twórcy działający w różnych branżach bez trudu dopasują treści do upodobań nawet pojedynczych odbiorców – umożliwią to algorytmy identyfikujące i uczące się preferencji użytkowników.

Wykorzystuje to już Netflix, Spotify czy Amazon. Sztuczna inteligencja sama dopasowuje przekaz reklamowy i jego formę do odbiorcy. Muzyka i gry video, za sprawą programów takich jak Landr, w coraz większej części komponują czy tworzą się same i to po bardzo niskich kosztach. Nowe kreacje w świecie mody to także coraz częściej zasługa uczących się maszyn. Agencja prasowa Associated Press wykorzystuje sztuczną inteligencję do pisania prostych newsów, uwalniając w ten sposób 20 proc. czasu swoich reporterów. To samo narzędzie stosuje amerykański Washington Post. Sztuczna inteligencja (AI) może tworzyć wyrafinowane obrazy i fotografie oraz pisać skrypty do telewizyjnych seriali oglądanych przez miliony widzów, którzy nie mają pojęcia, że ich wolny czas czy zabawę kontrolują algorytmy i uczenie maszynowe.

Światowe Forum Ekonomiczne w oparciu o badania 350 specjalistów z branży AI prognozuje, że już za 45 lat algorytmy prześcigną ludzi w wykonywaniu nawet najbardziej złożonych, intelektualnych zadań. Za dwa lata będą one w stanie wygrać światowy turniej pokera, sześć lat później napisanie eseju w szkole średniej zlecić będzie można odpowiedniej aplikacji. W roku 2028 odpowiednie oprogramowanie skomponuje samodzielnie utwór muzyki pop, doskonale naśladując styl dowolnie wybranego artysty. I to w taki sposób, że nabiorą się na to nawet najwierniejsi fani. W połowie wieku algorytm samodzielnie napisze książkę, która będzie mogła otrzymać nagrodę New York Times’a. Odbiorcy nie będą się musieli czuć oszukani – ich przeznaczeniem jest bycie zadowolonymi konsumentami.

Reklama

Jak widać sztuczna inteligencja wywrzeć może wpływ na każdy aspekt funkcjonowania społeczeństwa i jednostki. Przytoczone zastosowania nie są jednak raczej groźne lub nieetyczne, choć rodzą uczucie odhumanizowania. Wszystko zależy od tego co i w jaki sposób może zostać wykorzystane przez niepowołane ręce - grupy przestępcze czy wrogo nastawione państwa. Rodzi to ogromne wyzwania dla prawa międzynarodowego i istniejących regulacji oraz pytanie, kto będzie je w stanie egzekwować. Raport „Złowrogie Zastosowania Sztucznej Inteligencji”, opracowany przez badaczy z różnych instytucji pod kierownictwem Uniwersytetu Cambridge, skupia się na kilku kluczowych obszarach zagrożeń.

Jeśli algorytmy i roboty będą funkcjonować w oparciu o identyczny system sztucznej inteligencji, nawet pojedynczy atak może siać chaos i zamęt w różnych systemach zarządzania dostawami prądu czy wody. Łatwo można sobie wyobrazić, co by się stało, gdyby w dużej aglomeracji system komputerowy nagle zdecydował o jednoczesnym zapaleniu zielonego światła na wszystkich skrzyżowaniach w mieście. Skutki mogą być poważniejsze niż niejeden atak terrorystyczny, którego z kolei można będzie dokonywać przejmując kontrolę nad autonomicznymi samochodami – osobowymi lub ciężarowymi, lub całą flotą takich pojazdów.

Uczenie się przez algorytmy zachowań ludzkich spowoduje, że odpowiednio sterowane, mogą wcielać się w różne postaci. Rozmówca może mieć przekonanie, że dostał maila od znanej osoby lub rozmawia przez telefon czy Skype z członkiem rodziny lub przyjacielem. Tymczasem rolę tę przejmie podstawiony bot. To nic innego, jak rozszerzona formuła oszustwa zwana phishingiem, ale znacznie groźniejsza, bo takie sztuczne byty mogą za nas uwierzytelniać się w różnych miejscach i instytucjach. To doskonała i szybka droga to pozbawienia ludzi pieniędzy i majątku.

Takie rozwiązania stosowane są już na polu walki. Izrael właśnie przyznał się do ataku na syryjski reaktor atomowy w 2007 roku. Jego skuteczność nie byłaby możliwa bez podstawienia syryjskim radarom sztucznego, wirtualnego obrazu przestrzeni powietrznej, na którym nie było izraelskich myśliwców bombardujących. W sferze cywilnej boty oparte na samouczących się algorytmach mogą manipulować całymi społecznościami, dostarczając im fałszywych informacji w postaci fake newsów czy nagrań video i wpływać propagandowo na wyniki wyborów nawet w stabilnych demokracjach, jak obrazuje przykład USA. Można łatwo skompromitować znanego polityka, pokazując go w nierzeczywistym, niejednoznacznym lub bardzo jednoznacznym kontekście. Służyły temu kontrolowane wycieki sex taśm celebrytów. Badacze z University of Washington w Seattle zaprezentowali z kolei narzędzie, za pomocą którego można w sposób wiarygodny podkładać dowolne treści pod wcześniej nagrane wypowiedzi polityków. Barack Obama brzmiał i wyglądał bardzo przekonująco. Algorytmy mogą podłożyć wypowiedzi polityków pod system wartości wyznawany przez każdego potencjalnego wyborcę, chociażby w oparciu o lajki na Facebooku.

Podobne rozwiązania technologiczne, zwane uprowadzeniem tożsamości, tworzą możliwości szantażowania wielu osób publicznych" dyplomatów, wojskowych czy artystów. Niektórzy z nich będą zmuszeni wynajmować wyspecjalizowane firmy, których zadaniem będzie nieustanne rejestrowanie ich poczynań w trybie 24 godzin na dobę. Ale z pewnością sztuczna inteligencja będzie potrafiła się uporać i z taką barierą. Przestępcom korzystającym z jej usług łatwo będzie też przedstawić wiarygodne alibi udowadniające, że w momencie przestępstwa byli w zupełnie innym miejscu i znajdą na to świadków, którzy mieli do czynienia z syntetycznymi, odbieranymi jak realne, obrazami kryminalisty. Wrogim siłom dana też będzie możliwość wywołania masowej paniki, daleko większej niż ta, która była skutkiem radiowej audycji Orsona Wellesa przed osiemdziesięciu laty. Mieszkańcy New Jersey byli przekonani o inwazji Marsjan i wybuchu autentycznej wojny światów. Skutek: strach, przerażenie, panika i przygotowania do ewakuacji. Taki rozwój wypadków na masową skalę stanowić będzie zagrożenie dla bezpieczeństwa publicznego, a nawet narodowego.

Rozwój sztucznej inteligencji postępuje tak szybko, że utrudnia kontrolę jej szkodliwych zastosowań. Idealnym rozwiązaniem byłoby wynalezienie i rozpowszechnienie w sieci oprogramowania, które wychwytuje i co najmniej oflagowuje fałszywe newsy, przekazy czy obrazy. W takie możliwości obowiązkowo wyposażone byłyby platformy medialne, portale i poczta elektroniczna. Na razie takie koncepcje są w sferze marzeń. Jak mówi Hany Farad, profesor Dartmouth College, twórca tzw. PhotoDNA, technologii która rozpoznaje i blokuje dziecięcą pornografię - jesteśmy o dekady odlegli od momentu uzyskania możliwości technicznych, które dadzą szansę na wiarygodne rozróżnienie obrazów i informacji realnych od fikcji. Na razie różne gremia, w tym autorzy raportu o złowrogich zastosowaniach sztucznej inteligencji, mają raczej tradycyjne rekomendacje, do których należą: współpraca badaczy, polityków i prawników; wprowadzenie wymogu identyfikowania zagrożeń związanych z nowymi zastosowaniami technologii AI; identyfikacja i propagowanie najlepszych praktyk; wreszcie wdrożenie odpowiednich rozwiązań w prawie międzynarodowym i ustawodawstwach krajowych. Należałoby też rozważyć konieczność koncesjonowania rozwiązań z zakresu sztucznej inteligencji. Problem polega na tym, że tym wszystkim nie muszą się specjalnie przejmować potencjalni przestępcy i hakerzy, szczególnie postaci organizacji terrorystycznych i wrogich państw. Wygląda na to, że tradycyjne instrumenty słabo się sprawdzają w kontroli nowych zagrożeń technologicznych. Nie wróży nam to na razie niczego dobrego.

Robot Sophia w czerwcu tego roku po raz pierwszy trafi do Polski. Będzie go można zobaczyć w czasie Impact'2018 13-14 czerwca w Krakowie. Podczas konferencji eksperci będą rozmawiać m.in. o szansach i zagrożeniach związanych z rozwojem sztucznej inteligencji. Dziennik Gazeta Prawna jest partnerem wydarzenia.