Rozwój AI wiąże się z różnymi problemami. Doprowadził chociażby do powstania seksistowskich algorytmów i nieudolnych systemów moderacji treści, w dużej mierze dlatego, że ich twórcy nie rozumieli dobrze technologii. Tego rodzaju błędy mogą jednak prowadzić na wojnie do śmierci cywilów czy zaprzepaszczenia szans na powodzenie negocjacji pokojowych.

Czy potrzebujemy autonomicznej broni? – pytają autorzy artykułu. Sztuczna inteligencja zaczyna przewyższać ludzi w coraz większej liczbie dziedzin – na przykład szachach czy rozpoznawaniu mowy. Nie dziwi więc, że wojska w coraz większej mierze zaczynają bazować na algorytmach. Wiele systemów walki działa już po aktywacji bez udziału człowieka.

Drony czy nowoczesne pociski rakietowe są wyposażone w komputery stosujące algorytmy do namierzania i likwidowania celów. Na tej zasadzie działa chociażby izraelski system obrony powietrznej Żelazna Kopuła. Istnieje także broń wyposażona w AI, której celem jest atakowanie ludzi. To na przykład wykorzystywane obecnie na Ukrainie drony-kamikadze czy koreańskie roboty-wartowniki (np. SGR-A1).

Reklama

Co dalej z robotami?

Krytycy śmiercionośnej autonomicznej broni zwracają uwagę na wiele problemów, które ze sobą niesie. To chociażby kwestia trudności z przypisaniem odpowiedzialności za ataki robotów oraz dehumanizacja zabijania. Jednak z co najmniej dwóch powodów wycofanie tego typu broni z przestrzeni militarnej jest niemożliwe – czytamy w artykule. Po pierwsze, jest już zbyt szeroko dostępna. Po drugie; trudno jest w klarowny sposób zdefiniować ten rodzaj uzbrojenia.

Co możemy zrobić? Opinia publiczna powinna z pewnością naciskać na zakaz wykorzystywania sztucznej inteligencji typu czarna skrzynka (systemów o nieznanym sposobie działania) czy systemów, które nie zostały odpowiednio dobrze przetestowane.