Praca nad sztuczną inteligencją rzadko kiedy wymaga konfrontacji z uzbrojonym żołnierzem, który celuje do nas z karabinu. Jednakże, system, który tworzą współzałożyciele CulturePulse, F. LeRon Shults i Justin Lane na zlecenie ONZ, to nie jest zwyczajny model AI. Sceptycy już kręcą głowami, ale uwaga – technologia ta przeszła próbę ognia w regionach innych konfliktów.

CulturePulse nie jest magiczną różdżką

Shults i Lane podpisali kontrakt z ONZ w sierpniu, aby opracować model AI, który – jak mają nadzieję – pomoże analizować rozwiązania konfliktu izraelsko-palestyńskiego. Są świadomi, że twierdzenia o możliwości „rozwiązania kryzysu” przez AI mogą spotkać się z szyderstwem lub wręcz wrogością, zwłaszcza w obliczu codziennych, tragicznych wydarzeń w Gazie. Dlatego szybko klarują, że nie o to chodzi w ich przedsięwzięciu.

Reklama

Model ten nie ma na celu rozwiązania sytuacji, lecz zrozumienie, analizę i wyciąganie wniosków, które mogą wspierać politykę i strategie komunikacyjne.

Konflikt między Izraelem a Palestyną jest wiekowy, by nie rzec – odwieczny, i niezmiernie skomplikowany, a aktualny kryzys tylko tę złożoność pogłębia. Niezliczone próby znalezienia politycznego rozwiązania spełzły na niczym, a ewentualne zakończenie kryzysu będzie wymagało wsparcia nie tylko od zaangażowanych stron, ale prawdopodobnie również szerszej wspólnoty międzynarodowej. To wszystko sprawia, że nie jest możliwe, aby system AI sam przedstawił gotowe rozwiązanie. CulturePulse zamierza zamiast tego wskazać podstawowe przyczyny konfliktu.

Symulacja wielu agentów przez AI

W swoich dotychczasowych projektach model ten potrafił symulować każdą osobę, wyposażając wirtualne jednostki (agentów) w demograficzne dane, przekonania religijne oraz wartości moralne, które odzwierciedlają ich realne odpowiedniki. Model CulturePulse może uwzględniać ponad 80 kategorii dla każdego „agenta”, w tym takie cechy jak gniew, lęk, osobowość, moralność, rodzina, przyjaciele, finanse, inkluzywność, rasizm i mowę nienawiści.

Te modele to całe sztuczne społeczeństwa, z tysiącami lub milionami symulowanych, adaptacyjnych agentów AI, które są ze sobą połączone w sieć, i zaprojektowane w sposób psychologicznie i socjologicznie realistyczny. To rodzaj laboratorium, którym można manipulować na swoim komputerze w sposób, który nigdy nie byłby etycznie dopuszczalny w rzeczywistym świecie.

Aktualny projekt początkowo modeluje aspekty społeczno-ekologiczne regionu izraelsko-palestyńskiego istotne dla konfliktu. Jest nieco mniejszy niż niektóre ich wcześniejsze przedsięwzięcia. Jednakże, w przyszłości model ten mógłby pozwolić ONZ zobaczyć, jak wirtualne społeczeństwo zareagowałoby na zmiany w dobrobycie ekonomicznym, zwiększonej ochronie, zmieniających się wpływach politycznych i tu można dodać szereg innych parametrów. Twórcy modelu twierdzą, że przewiduje on wyniki z ponad 95-procentową pewnością w odniesieniu do rzeczywistych zdarzeń.

To więcej niż uczenie maszynowe?

Shults i Lane twierdzą, że ich model idzie dalej niż tradycyjne uczenie maszynowe i statystyka – umożliwia zrozumienie przyczynowości, gdyż wieloagentowy system AI pozwala prześledzić konflikt, polaryzację czy politykę imigracyjną od podstaw. Pokazuje, co można stworzyć, zanim wypróbuje się to w rzeczywistym świecie.

Rozmowy o AI i wojnie między Izraelem a Hamasem do tej pory skupiały się na zagrożeniach związanych z generatywną AI i dezinformacją. Chociaż te zagrożenia jeszcze się nie zmaterializowały, portale informacyjne zostały już zalane przez dezinformację i fałszywe informacje rozpowszechniane przez wszystkie strony. Zamiast próbować eliminować ten destrukcyjny element, model CulturePulse w przeszłości bezpośrednio włączał tego typu informacje do swojej analizy.

Straszliwe masakry i kryzysy humanitarne w Izraelu i Gazie w ostatnim miesiącu uwydatniły pilną potrzebę znalezienia rozwiązania dla głęboko zakorzenionego konfliktu. Ale jeszcze przed najnowszym wybuchem przemocy w regionie, Program Rozwoju ONZ (UNDP) już badał nowe opcje w poszukiwaniu rozwiązania, podpisując wstępny pięciomiesięczny kontakt z CulturePulse w sierpniu.

Sztuczna inteligencja pomaga w wojnach od 30 lat

Stosowanie technologii sztucznej inteligencji w sytuacjach konfliktowych sięga co najmniej roku 1996, kiedy to uczenie maszynowe zaczęto wykorzystywać do przewidywania miejsc potencjalnych wojen. W kolejnych latach zastosowanie AI w tej dziedzinie rozszerzyło się, obejmując usprawnienie logistyki, szkolenia i innych aspektów misji pokojowych. Lane i Shults wierzą, że mogliby użyć sztucznej inteligencji, aby głębiej zbadać podstawowe przyczyny konfliktów.

Ich pomysł na program AI, który modeluje systemy wierzeń kierujące ludzkim zachowaniem, zaczął się kształtować, kiedy Lane przeniósł się do Irlandii Północnej dziesięć lat temu, aby zbadać, czy modelowanie komputacyjne (formułowanie problemów i ich rozwiązań w postaci umożliwiającej ich efektywną realizację z wykorzystaniem komputera – red.) i poznawcze może być wykorzystane do zrozumienia problemów związanych z przemocą religijną.