Sztuczna inteligencja, biometria, uczenie maszynowe oraz big data to technologie, które w wielu dziedzinach umożliwiają robotyzację i automatyzację podejmowania decyzji, przynosząc wiele korzyści firmom i klientom. Zastosowane w rozwiązaniach militarnych mogą prowadzić do trudnych do przewidzenia konsekwencji. To maszyny będą decydować o życiu i śmierci ludzi i to nie tylko na polu bitwy.

Najprostszy scenariusz może wyglądać tak: w jednej ze światowych metropolii odbywa się konferencja technologiczna. Na sali kilkaset osób. Przemówienia, prezentacje, oklaski. Nagle słychać cichy, ale nieznośny dźwięk. Wszyscy spoglądają pod sufit gdzie unoszą się minidrony. Wystarczy chwila, aby ich sensory dokonały identyfikacji twarzy zebranych. I nagle ta szarańcza dopada z wielką szybkością swoje ofiary – zastygłe w zdumieniu, na darmo rzucające się do ucieczki albo próbujące się skryć pod wąskimi pulpitami. Ktoś próbuje dzwonić z komórki. Na próżno. Urządzenia z wielką precyzją dopadają ofiary i precyzyjnie zadają im śmierć. Zostaje zabitych kilkadziesiąt wybranych osób. Ciemność! Śmierć? Nie! To koniec wideoklipu ostrzegającego przed skutkami rozwoju śmiertelnej broni autonomicznej (LAWS – Lethal Autonomous Weapon Systems). A więc takiej technologii, która wyposaża maszyny w zdolność do wykonania zaprogramowanych zadań bez ludzkiej interwencji. Urządzenia te, przetwarzając dane z otoczenia i z sieci 100 razy szybciej niż człowiek, same dokonują optymalizacji decyzji, tj. kiedy i gdzie ma nastąpić dezaktywacja celu. Wykonują zlecenie, kiedy uznają, że prawdopodobieństwo realizacji jest odpowiednio wysokie. Decyzje te są też szybsze, bo nie towarzyszą im emocje w postaci strachu, wątpliwości, zawahania. To matematyczne zadanie, podobne do gry w szachy, przy rozwiązywaniu którego roboty uczą się same, doskonaląc się w swym fachu. Korzystają z technologii GPS, podczerwieni, czujników ciepła, radarów i sensorów LIDAR (jak w samochodach autonomicznych), technologii rozpoznawania twarzy, zaawansowanych, bo zmieniających się pod wpływem nowych danych, algorytmów i wielu innych.

>>> Czytaj też: USA zainwestują w bazy lotnicze w Europie ponad 200 mln dolarów

Teoretycznie takich „terminatorów” jeszcze nie ma. Na światowym teatrze działań wojennych i misji specjalnych broń automatyczna funkcjonuje, ale ostateczną decyzję o likwidacji terrorysty czy zestrzeleniu pocisku podejmuje wiąż człowiek. W przypadku broni autonomicznej staje się to zbyteczne. Część systemów uzbrojenia łatwo może jednak być przekształcona w autonomiczny sprzęt wojskowy. Na przykład izraelski pocisk Harpy, wystrzeliwany przez wojska lądowe w celu poszukiwania i niszczenia radarów przeciwnika (również ruchomych), dzięki sztucznej inteligencji stosunkowo łatwo może zostać usamodzielniony w podejmowaniu ostatecznych decyzji. Amerykański okręt Sea Hunter ma z kolei zdolność autonomicznej identyfikacji i likwidacji okrętów podwodnych. Umiejętność samodzielnego wykonywania zadań, bez ingerencji człowieka, posiada również brytyjski dron Taranis, który jest niewidzialny dla radarów. W przyszłości można się spodziewać rozwoju całej flotylli takich bezzałogowych jednostek krążących po morzach świata i nad lądem. Prawdopodobnie będzie więcej tajemniczych zaginięć, jakie dotknęły malezyjski samolot pasażerski MH370, czy niedawno argentyński okręt podwodny San Juan, bo sztuczną inteligencję w uzbrojeniu testują też Chiny, Indie, Rosja, Korea Południowa i Niemcy (oczywiście nie ma dowodów, że do losu tych jednostek przyczyniła się nowa broń). Władimir Putin w sierpniu tego roku stwierdził, że kto opanuje wojskowe zastosowania sztucznej inteligencji, będzie władcą świata. Niewątpliwe ma rację.

Protagoniści rozwoju broni autonomicznej wskazują na jej zalety. Rzeczywiście trudno kwestionować jej defensywne zastosowania, na przykład w postaci psów-robotów wykrywających i unieszkodliwiających miny, zagrażające również cywilom. Mówi się o ograniczeniu liczby ofiar, również przypadkowych, w działaniach ofensywnych, bo sprzęt bojowy ma być skierowany przeciw ściśle zdefiniowanym celom i jednostkom. Prowadzenie wojny w oparciu o sztuczną inteligencję może długofalowo być też tańsze – bo zniszczyć cel będzie można za sprawą mniejszej ilości środków wybuchowych użytych w precyzyjny sposób. Poza tym takim robotom nie wypłaca się żołdu. Oblicza się, że całkowite roczne koszty utrzymania jednego amerykańskiego żołnierza w Afganistanie wyniosły łącznie 850 tys. dolarów. Robota bojowego można mieć już za cenę zaledwie ćwierć miliona dolarów. Taki bojownik obdarzony sztuczną inteligencją będzie podejmować decyzje wolne od strachu, paniki, złości czy chęci odwetu, ale ze znacznie większą determinacją i przy zerowym zmęczeniu. Koordynacja działań robotów w warunkach frontowych będzie też znacznie lepsza i szybsza niż w przypadku zawodowych żołnierzy. Amerykański Departament Obrony w dokumencie „Mapa Drogowa dla Systemów Bezzałogowych 2007-2032” stwierdza, że autonomiczne roboty bojowe są wręcz stworzone do prowadzenia „brudnych i niebezpiecznych operacji”, na przykład w warunkach skażenia radiologicznego. Żołnierze idealni? Jednak to raczej życzeniowe myślenie.

Reklama

Wojny robotów mogą szybko eskalować, przynosząc wiele ofiar. Maszyny mogą przecież uznać, że zniszczenia dorównującego im przeciwnika można dokonać najszybciej poprzez zrównanie z ziemią danego obszaru lub kwartału miasta. I to bez żadnych wyrzutów sumienia i litości. Nie ma też gwarancji, czy „inteligentni zabójcy” będą umieli rozróżniać bojowników i terrorystów od zwykłych, broniących swego życia cywili. Przestrzeganie prawnych zasad prowadzenia konfliktów zbrojnych może być co najmniej trudne. Kwestia odpowiedzialności za ofiary to fundamentalny problem moralny – podkreśla amerykański etyk prof. Robert Sparrow. Trudne bowiem w warunkach zdigitalizowanego pola walki będzie ustalenie personalnej odpowiedzialności tak, jak chociażby w odniesieniu do zbrodni wojennych w byłej Jugosławii. Broń autonomiczna anonimizować będzie sprawców – czy mają to być twórcy algorytmów, sztucznej inteligencji, producenci sprzętu, czy dowódcy, którzy skierowali maszyny do walki? Ta rozmyta odpowiedzialność może być więc zachętą do jej używania. Co więcej, nie ma absolutnej pewności, że sztuczna inteligencja nie będzie obciążona błędami, bo przeoczono jakiś drobiazg lub coś się zepsuło, doprowadzając w konsekwencji do nieobliczalnych ofiar.

W sierpniowym liście do Narodów Zjednoczonych ponad 100 osobistości zajmujących się sztuczną inteligencją, do których należeli Elon Musk i Stephen Hawking, ostrzegło przed otwarciem puszki Pandory i uruchomieniem trzeciej, po wynalezieniu dynamitu i bomby atomowej, rewolucji militarnej opartej na autonomicznej broni. Uruchomione przez jej zastosowanie konflikty mogą doprowadzić do wojen o niespotykanym dotąd zasięgu. Nie można też wykluczyć ewentualności przejęcia jej przez dyktatorskie reżimy, które skierować mogą lufy przeciwko własnym społeczeństwom. Zawładnąć robotami mogą wynajęci przez terrorystów hakerzy, doprowadzając do destrukcji na niespotykaną wcześniej skalę. Do wprowadzenia zakazu rozwoju broni autonomicznej wzywają inne organizacje, chociażby w ramach kampanii – Zatrzymać Zabójcze Roboty. Wprowadzenie embarga lub ograniczenie rozwoju broni autonomicznej może być jednak trudne, nie tylko dlatego, ze wyścig zbrojeń trwa cały czas. Egzekucja porozumienia w tym zakresie mogłaby być niemożliwa, bowiem broni autonomicznej nie da się w prosty sposób ani zdefiniować, ani zidentyfikować jak arsenału nuklearnego czy broni konwencjonalnej średniego czy dalekiego zasięgu. Być może puszka Pandory już została otwarta. Ludzkość staje przed ważnym wyzwaniem i trudno na obecnym etapie powiedzieć, czy poradzi sobie z darem jakim jest sztuczna inteligencja i jej zastosowania.