Roboty i komputerowe systemy nie mają wyjątkowej ludzkiej zdolności do rozumienia złożonego środowiska, w którym pracują i złożonej broni, którą wykorzystują. Im bardziej skomplikowane stają się systemy zbrojeniowe i im więcej autonomii zyskają na polu walki, tym bardziej nieprzewidywalne będą konsekwencje ich działania – pisze Peter Maurer z Międzynarodowego Komitetu Czerwonego Krzyża.

Rządy muszą określić jego zdaniem zakres wykorzystania nowoczesnej broni. Grupa rządowych ekspertów ds. autonomicznych systemów uzbrojenia, która spotkała się w Genewie, była zgodna co do tego, że ludzie muszą zachować kontrolę nad bronią.

Pytanie brzmi – jaki poziom kontroli nad uzbrojeniem musimy zachować, by poruszać się w ramach międzynarodowego prawa i bronić humanitarnych wartości? – zastanawia się Maurer. Jest to kwestia, którą należy szybko rozstrzygnąć. Niektóre rodzaje broni są już bowiem obecnie wyposażone w autonomiczne uruchamiane funkcje, które są wykorzystywane do specyficznych wojskowych zadań – na przykład zestrzeliwania nadlatujących pocisków i rakiet. Po wydaniu odpowiedniej komendy to system wybiera cel i inicjuje kontratak.

Jednak to dopiero początek – podkreśla Maurer. Zakres potencjalnych zastosowań sztucznej inteligencji do celów wojskowych jest znacznie szerszy. Już prowadzone są na dużą skalę badania w zakresie wykorzystania uzbrojonych zrobotyzowanych systemów wyposażonych w SI, które wykorzystują do podejmowania decyzji materiały wideo.

Reklama

Postępy w tym zakresie są tak duże, że środowisko inżynieryjne, naukowe i politycy muszą podjąć szybkie działania w celu prawnego zablokowania możliwości wykorzystania przez wojska potencjalnie niebezpiecznej broni – kończy rozważania Maurer.

>>> Polecamy: Czy Chiny mają to, czego trzeba, aby być światowym supermocarstwem?