Człowiek traci kontrolę nad nieludzką technologią?
W Genewie rozpoczęły się rozmowy ONZ na temat w pełni autonomicznej broni. W ocenie cytowanej przez „Rz” dyrektor wykonawczej inicjatywy Stop Killer Robot Nicole Van Rooijen, bez wiążącego prawa międzynarodowego, luka między możliwościami tych systemów a naszą zdolnością do zarządzania nimi pogłębia się z każdym rokiem. Ekspertka alarmuje, że cenę militarnego wykorzystania sztucznej inteligencji zapłacą „cywile w strefach konfliktów oraz obywatele państw autorytarnych i demokratycznych, którzy będą musieli stawić czoła tym nieludzkim technologiom, gdy ich użycie stanie się normą, a prawa człowieka zostaną podważone”.
Choć wciąż nie zostało to oficjalnie potwierdzone, zdaniem ekspertów, sobotni atak na szkołę dla dziewcząt w Minab w Iranie to prawdopodobnie skutek ataku dokonanego przez AI.
Dehumanizacja procesu decyzyjnego
Jak ostrzega rozmówczyni „Rz” Kaja Kowalczewska z Uniwersytetu Wrocławskiego, ekspertka AI Law Tech, AI może prowadzić do eskalowania rozmiarów szkód i liczby ofiar konfliktów zbrojnych.
Już teraz autonomiczne systemy broni są wykorzystywane na Bliskim Wschodzi i w Ukrainie. Samodzielnie namierzają i atakują cele, co – jak wskazuje w rozmowie z „Rz” Marta Stępniak, ekspertka Instytutu Spraw Obywatelskich – prowadzi do dehumanizacji procesu decyzyjnego.