Musk, Hawking i Chomsky ostrzegają: „Nie oddawajmy kontroli nad wojną w ręce robotów”

Ten tekst przeczytasz w 3 minuty
27 lipca 2015, 18:20
Robot
Robot/ShutterStock
Naukowcy z całego świata ostrzegają, że prowadzony obecnie „wyścig zbrojeń AI” może mieć katastrofalne skutki dla ludzkości. Wzywają również ONZ do rozważenia zakazu korzystania z autonomicznych systemów uzbrojenia.

Badacze zajmujący się zagadnieniami sztucznej inteligencji (ang. artificial intelligence – AI) i robotyki wystosowali list otwarty, w którym ostrzegają, że systemy uzbrojenia, które w sposób automatyczny „wybierają i atakują cele bez jakiekolwiek interwencji ze strony człowieka” mogą stać się „Kałasznikowami przyszłości”, napędzając kolejne wojny, terroryzm i prowadząc do globalnej niestabilności. Pod listem naukowców podpisały się największych osobistości świata nauki, biznesu i nowych technologii, a wśród nich Elon Musk, Stephen Hawking, Steve Wozniak oraz Noam Chomsky.

„Sztuczna inteligencja osiągnęła poziom, w którym wdrożenie takich systemów jest - praktycznie, jeśli nie prawnie – możliwe w ciągu najbliższych lat, nie wspominając o dekadach. Stawka jest wysoka: autonomiczne systemu uzbrojenia zostały już powszechnie uznane za trzecią rewolucję w wojskowości: po prochu i broni nuklearnej” – czytamy w opublikowanym liście.

Jego autorzy podkreślają, że choć z jednej strony korzystanie z autonomicznych systemów uzbrojenia może skutkować mniejszymi stratami w ludziach, to z drugiej strony w konsekwencji doprowadzi do zwiększenia liczby konfliktów zbrojnych, jak również do globalnej destabilizacji. Dziś, to właśnie troska o życie ludzkie jest jednym z najważniejszych czynników, który powstrzymuje wiele państw przed rozpoczęciem otwartych działań wojennych.

>>> Czytaj też: Pocisk zmieni kierunek lotu i trafi w ruchomy cel. Niezwykły projekt zrewolucjonizuje wojsko?

- W przeciwieństwie do broni jądrowej, [autonomiczne systemy uzbrojenia] nie wymagają kosztownych lub trudnych do uzyskania surowców, więc szybko staną się dostępne i tanie dla większości liczących się sił militarnych. Wówczas to, kwestią czasu będzie, kiedy pojawią się na czarnym rynku i trafią w ręce terrorystów, dyktatorów chcących lepiej kontrolować swój naród oraz lokalnych watażków dążących do czystek etnicznych - czytamy w liście.

Badacze ostrzegają, że rozwój autonomicznych systemów uzbrojenia może utrudnić dalsze badania nad sztuczną inteligencją i doprowadzić do utraty zaufania społecznego wobec osób i instytucji zajmujących się AI. Autorzy listu wzywają również Organizację Narodów Zjednoczonych do podjęcia odpowiednich działań i rozważenia całkowitego zakazu stosowania ofensywnej autonomicznej broni przez państwa członkowskie ONZ.

W kwietniu w siedzibie ONZ w Genewie odbyła się debata poświęcona zagadnieniu „autonomicznych systemów broni śmiercionośnych”, której uczestnicy zastanawiali się nad zagrożeniami związanymi z rozwojem tej technologii. Obecnie robotyzacji wojska sprzeciwiają się przede wszystkim organizacje pozarządowe, organizacje praw człowieka oraz naukowcy. Po drugiej stronie barykady znajdują się natomiast wielkie militarne potęgi (USA, Rosja, Japonia) oraz finansowane przez nich koncerny i agencje wojskowe.

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: forsal.pl
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj