Kontrahent Departamentu Obrony USA, firma Allen Control Systems (ACS), opracowała oparty na sztucznej inteligencji autonomiczny zrobotyzowany system broni o nazwie „Bullfrog”, który może celować w małe drony za pomocą zastrzeżonego oprogramowania do wizji komputerowej – podaje portal Futurism. Jak donosi Wired, Departament Obrony przetestował system podczas wydarzenia Technology Readiness Experimentation na początku tego roku, które pozwala wykonawcom takim jak ACS zaprezentować swoje prototypowe technologie Pentagonowi.
Karabin AI do zestrzeliwania dronów
Zdolność do zestrzeliwania dronów jest coraz bardziej istotna, ponieważ małe, bezzałogowe drony stają się coraz bardziej powszechne na polu bitwy. „Podczas rosyjskiej inwazji na Ukrainę widzieliśmy rozprzestrzenianie się dronów po obu stronach konfliktu i czytaliśmy w różnych serwisach informacyjnych, że Ukraińcy strzelali do nich z AK-47 w powietrzu” – powiedział Wired Steve Simoni, współzałożyciel i dyrektor generalny ACS. „Pomyśleliśmy: „To dobry problem dla robotyki”. Trudno jest trafić w coś lecącego tak szybko, ale robot może to zrobić dzięki nowoczesnej wizji komputerowej i algorytmom sterowania AI”.
Zabójcza sztuczna inteligencja
Według Simoniego, celem było całkowite wyeliminowanie ludzi z równania, szczególnie biorąc pod uwagę, jak szybko mogą latać te bezzałogowe drony. System ACS Bullfrog jest częścią znacznie większego trendu. Amerykańskie wojsko pracuje nad całą gamą zdalnie sterowanych i półautonomicznych systemów uzbrojenia do zestrzeliwania dronów przeciwnika z nieba. Na przykład na początku tego roku armia amerykańska rozpoczęła eksperymenty z psami-robotami wyposażonymi w karabiny w ośrodku testowym na Bliskim Wschodzie.
Sztuczna inteligencja tańsza od broni laserowej
Wykonawca twierdzi, że Bullfrog jest niezwykle tani w użyciu, zwłaszcza w porównaniu do znacznie bardziej skomplikowanych i kosztownych systemów broni laserowej. Zanim Bullfrog trafi na pole walki, musi zostać zatwierdzony: istnieją surowe zasady dotyczące używania śmiercionośnej broni autonomicznej. ACS zapewnia, że system jest technicznie zdolny do w pełni autonomicznego działania. „Nasz system jest w pełni autonomiczny, czekamy tylko, aż rząd określi swoje potrzeby” – skomentował Wired Brice Cooper, dyrektor ds. strategii w ACS.
Etyka użycia broni autonomicznej
Nie wiadomo jednak, kiedy i czy w ogóle potrzeby te ulegną zmianie. Wciąż pozostaje wiele drażliwych kwestii etycznych związanych z użyciem takiej autonomicznej broni. „Wszystko, co wykorzystuje robotykę, wymaga oprogramowania do określenia przyjaciela lub wroga, a to budzi obawy w przypadku wszystkiego, co jest zautomatyzowane” – powiedział Wired Mike Clementi, były kongresowy specjalista ds. obrony.