AI w służbie wojska. Jak śmiercionośne roboty zmienią pole walki

Ten tekst przeczytasz w 1 minutę
9 lutego 2023, 06:33
Robot
Robot/ShutterStock
Broń wyposażona w sztuczną inteligencję jest coraz bardziej wyrafinowana. Opinia publiczna jest coraz bardziej zaniepokojona jej rozwojem i zaczyna stawiać pytania o ryzyko technicznych awarii i problem odpowiedzialności – pisze portal The Conversation. 

Rozwój AI wiąże się z różnymi problemami. Doprowadził chociażby do powstania seksistowskich algorytmów i nieudolnych systemów moderacji treści, w dużej mierze dlatego, że ich twórcy nie rozumieli dobrze technologii. Tego rodzaju błędy mogą jednak prowadzić na wojnie do śmierci cywilów czy zaprzepaszczenia szans na powodzenie negocjacji pokojowych. 

Czy potrzebujemy autonomicznej broni? – pytają autorzy artykułu. Sztuczna inteligencja zaczyna przewyższać ludzi w coraz większej liczbie dziedzin – na przykład szachach czy rozpoznawaniu mowy. Nie dziwi więc, że wojska w coraz większej mierze zaczynają bazować na algorytmach. Wiele systemów walki działa już po aktywacji bez udziału człowieka. 

Drony czy nowoczesne pociski rakietowe są wyposażone w komputery stosujące algorytmy do namierzania i likwidowania celów. Na tej zasadzie działa chociażby izraelski system obrony powietrznej Żelazna Kopuła. Istnieje także broń wyposażona w AI, której celem jest atakowanie ludzi. To na przykład wykorzystywane obecnie na Ukrainie drony-kamikadze czy koreańskie roboty-wartowniki (np. SGR-A1). 

Co dalej z robotami?

Krytycy śmiercionośnej autonomicznej broni zwracają uwagę na wiele problemów, które ze sobą niesie. To chociażby kwestia trudności z przypisaniem odpowiedzialności za ataki robotów oraz dehumanizacja zabijania. Jednak z co najmniej dwóch powodów wycofanie tego typu broni z przestrzeni militarnej jest niemożliwe – czytamy w artykule. Po pierwsze, jest już zbyt szeroko dostępna. Po drugie; trudno jest w klarowny sposób zdefiniować ten rodzaj uzbrojenia.

Co możemy zrobić? Opinia publiczna powinna z pewnością naciskać na zakaz wykorzystywania sztucznej inteligencji typu czarna skrzynka (systemów o nieznanym sposobie działania) czy systemów, które nie zostały odpowiednio dobrze przetestowane.  

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: Media
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj