SI w polskim wojsku

Można uznać, że polskie wojsko z opóźnieniem podjęło tematykę sztucznej inteligencji. W 2024 roku rozpoczęto jednak poważne działania mające na celu wdrożenie sztucznych inteligencji do działania w Polsce. Takim krokiem było utworzenie Centrum Implementacji Sztucznej Inteligencji (CISI) – jednostki odpowiedzialnej za wdrażanie rozwiązań opartych na SI.

Dodatkowo przyjęta przez Ministerstwo Obrony Narodowej strategia określa kierunki działań w obszarze SI do 2039 roku, koncentrując się na budowaniu kompetencji, adaptacji technologii oraz ochronie strategicznych zasobów w kontekście rosnących wyzwań technologicznych i militarnych. Już dziś polskie wojsko może wykorzystać SI do:

• rekrutacji żołnierzy;

• podejmowania strategicznych decyzji w tym prognozowania i planowania działań wojennych;

• przetwarzania danych i badań;

• identyfikacji i rozpoznawania obiektów oraz likwidacji celów (z pomocą np. dronów);

• monitorowania zagrożeń;

• transportu osób i obiektów;

• pomocy lekarzom;

• cyberbezpieczeństwa (cyberataki i cyberobrona).

Polowanie bez ludzkiego rozkazu

Drony wyposażone w kamery i superinteligentne procesory SI są już zdolne do samodzielnego podejmowania decyzji o ataku. Drony- kamikadze sterowane SI, są bardziej odporne na działanie systemów walki radiowoelektronicznej, mogą działać w roju i szybciej podejmują decyzje niż ludzki operator. Już konflikt w Libii w 2020 roku pokazał, że to nie science fiction, ale rzeczywistość. W raporcie z marca 2021 r. Panelu Ekspertów ONZ ds. Libii, odnotowano zapewne jeden z pierwszych w historii przypadek zabicia człowieka przez drona bez bezpośredniego rozkazu operatora. Te autonomiczne maszyny mogą "polować" na cele bez bezpośrednich rozkazów operatora, co budzi poważne obawy etyczne i prawne. Niestety te technologie są nadal rozwijane przez producentów uzbrojenia, co może prowadzić do wzrostu liczby cywilnych ofiar wojny.

ikona lupy />
Nad wykorzystaniem dronów z AI pracują wszystkie strony konfliktu na Ukrainie. / ShutterStock / Geran-2 lecące w roju

SI planuje bombardowania - ginie więcej cywili

Izrael wykorzystywał SI w planowaniu bombardowań w Strefie Gazy, stosując systemy takie jak "Lavender" i „The Gospel” do identyfikacji i wyboru celów. Systemy SI uczą się i doskonalą na podstawie zebranych danych. W kontekście militarnym, prowadzi to do szybszego i bardziej precyzyjnego podejmowania decyzji. Izraelskie SI analizują dane, w tym śledzenie telefonów komórkowych, aby lokalizować wrogów, co przyspiesza tempo nalotów. Jednakże eksperci wyrażają obawy, że żołnierze mogą traktować informacje przekazywane przez SI jako bezwzględnie prawdziwe, co prowadzi do niewystarczającego nadzoru ludzkiego nad decyzjami o atakach. Taka zależność od technologii zdaniem ekspertów skutkowała zwiększoną liczbą ofiar wśród ludności cywilnej, zwłaszcza gdy systemy SI popełniają błędy w identyfikacji celów. Szeroko na ten temat pisano m.in. w brytyjskim Time

W związku z tym pojawiają się apele o wprowadzenie międzynarodowych regulacji dotyczących użycia SI w działaniach zbrojnych, aby zapewnić odpowiedzialność i kontrolę nad tymi technologiami oraz minimalizować ryzyko dla ludności cywilnej.

SI w wojnie na Ukrainie

Ukraina wykorzystuje SI w planowaniu operacji wojskowych przeciwko Rosji, korzystając z oprogramowania opracowanego przez firmę Palantir Technologies. Oprogramowanie to analizuje dane z satelitów, dronów, źródeł otwartych i raportów z pola walki, przedstawiając dowódcom opcje dotyczące celów. Eksperci zauważają, że zastosowanie SI ma głównie charakter wspierający i informacyjny, a technologie takie jak artyleryjskie systemy sterowane SI czy drony kierowane SI nie są jeszcze w pełni autonomiczne.

Szpiegowskie modele SI: Wróg rozpoznany w mgnieniu oka

SI jest wykorzystywana nie tylko do identyfikacji wojsk, ale również do identyfikacji przestępców wojennych. SI gromadzą miliony zdjęć z różnych źródeł i identyfikują uczestników działań wojennych na Ukrainie. Sterowane SI systemy rozpoznawania twarzy w rosyjskich miastach pomagają szybko identyfikować i wyłapywać sprawców zamachów i sabotaży. Jednocześnie te same systemy rozpoznawania twarzy działając w powiązaniu z miejskimi kamerami mogą szpiegować obywateli. Istnieją tu zatem obawy dotyczące potencjalnych nadużyć tej technologii w zakresie inwigilacji.

SI w prawnym labiryncie: Kto ponosi winę?

Europejskie rozporządzenie o SI (tzw. AI Act – od Artificial Intelligence Act- ang. Prawo o sztucznej inteligencji) reguluje kwestie odpowiedzialności dostawców modeli SI oraz przejrzystości danych wykorzystywanych do ich trenowania. Wątpliwe jest jednak by te przepisy były stosowane w kontekście działań militarnych?

Tymczasem sztuczna inteligencja staje się nieodłączną częścią nowoczesnych konfliktów zbrojnych. Systemy SI analizują gigantyczne zbiory danych w czasie rzeczywistym, dostarczając bezcennych informacji dowódcom i decydentom. W jakiejś części SI zastępują już tradycyjne metody analizy wywiadowczej. Jednocześnie rozwój SI w wojsku stawia poważne pytania prawne i etyczne. Nadal nie wiemy, kto poniesie odpowiedzialność za błędy popełnione przez autonomiczne systemy uzbrojenia?

ikona lupy />
Unijne zakazy stosowania SI nie dotyczą ich wojskowych zastosowań. / Ministerstwo Cyfryzacji

Na progu powszechnego wprowadzenia SI do polskiej armii, warto pamiętać, że konieczne jest odpowiedzialne wykorzystanie SI, z uwzględnieniem zasad prawa międzynarodowego i ochrony praw człowieka. Nabywane, czy rozwijane przez naszą armię systemy SI powinny dawać możliwość zapewnienia nad nimi odpowiedniej kontroli człowieka.

Sławomir Biliński