Zmiana stanowiskanastępuje wraz z rozpoczęciem współpracy OpenAI z Departamentem Obrony USA.

Jak podał CNBC, wiceprezes OpenAI ds. spraw globalnych Anna Makanju i dyrektor generaln Sam Altman powiedzieli w wywiadzie dla Bloomberg House na Światowym Forum Ekonomicznym, że współpraca z amerykańskim resortem ma dotyczyć między innymi prac nad narzędziami sztucznej inteligencji wykorzystywanymi w zakresie cyberbezpieczeństwa typu open source.

Polityka OpenAI dotycząca broni

Reklama

Przynajmniej do środy na stronie zasad OpenAI firma informowała, że nie zezwala na wykorzystywanie swoich modeli do działań wiążących się z wysokim ryzykiem obrażeń fizycznych, takich jak opracowywanie broni czy działania wojskowe i wojenne.

OpenAI usunął konkretne odniesienia dotyczące wojska. Nie zmienia to jednak polityki firmy, która nadal stanowi, że użytkownicy nie powinni korzystać z usług OpenAI w celu wyrządzenia krzywdy, w tym w celu projektowania lub używania broni.

Obawy pracowników firm technologicznych

Pracownicy praktycznie każdego giganta technologicznego zaangażowanego w kontrakty wojskowe wyrazili w przeszłości obawy dotyczące pracy dla wojska. Kilka lat temu tysiące pracowników Google zaprotestowało przeciwko projektowi Pentagonu. Projekt Maven miał wykorzystywać sztuczną inteligencję Google do analizowania nagrań z monitoringu z dronów.

Także współpraca Microsoftu z wojskiem wywołała reakcję pracowników, którzy protestowali przeciwko kontraktowi dla armii o wartości 480 milionów dolarów. Projekt miał zapewnić żołnierzom zestawy słuchawkowe do rzeczywistości rozszerzonej.

Współpraca w armią wywołała też protesty wśród pracowników Amazona i Google, którzy podpisali list protestujący przeciwko wspólnemu, wieloletniemu kontraktowi z izraelskim rządem i wojskiem o wartości 1,2 miliarda dolarów. W ramach oprotestowanego dokumentowi obaj giganci technologiczni mieliby świadczyć usługi przetwarzania w chmurze, oraz zapewnić narzędzia AI i centra danych.