Big techy powalczą ze szkodliwą AI podczas wyborów. Jest kluczowe porozumienie

Ten tekst przeczytasz w 3 minuty
19 lutego 2024, 11:35
Google
Big techy powalczą ze szkodliwą AI podczas wyborów. Jest kluczowe porozumienie/Shutterstock
Większość największych firm technologicznych na świecie, w tym Amazon, Google i Microsoft, zgodziła się stawić czoła podczas wyborów temu, co nazywają „zwodniczą sztuczną inteligencją”. W piątek na Konferencji Bezpieczeństwa w Monachium ogłoszono Porozumienie techniczne mające na celu zwalczanie szkodliwego wykorzystania sztucznej inteligencji podczas wyborów w 2024 r.

Dwadzieścia firm podpisało porozumienie zobowiązujące je do zwalczania treści wprowadzających w błąd wyborców. Jednak jeden z ekspertów branżowych twierdzi, że dobrowolny pakt „niewiele zrobi, aby zapobiec publikowaniu szkodliwych treści w internecie”. Kwestia ta zyskała na znaczeniu, ponieważ szacuje się, że w tym roku w takich krajach jak USA, Wielka Brytania i Indie będzie głosować nawet cztery miliardy ludzi. Wśród zobowiązań wynikających z porozumienia znajdują się zobowiązania do opracowania technologii w celu „ograniczenia ryzyka” związanego z nieprawdziwymi treściami politycznymi generowanymi przez sztuczną inteligencję oraz do zapewnienia społeczeństwu przejrzystości w zakresie działań podjętych przez firmy. Inne kroki obejmują dzielenie się najlepszymi praktykami i edukowanie opinii publicznej, jak rozpoznać, kiedy mogą zobaczyć zmanipulowane treści. Sygnatariuszami są także platformy mediów społecznościowych X – dawniej Twitter – Snap, Adobe i Meta, właściciel Facebooka, Instagrama i WhatsApp.

Wadliwe porozumienie

Zdaniem dr Deepaka Padmanabhana z Queen's University w Belfaście, który bada wpływ sztucznej inteligencji na procesy wyborcze, porozumienie ma jednak pewne wady. Powiedział on w rozmowie z BBC, że obiecujące jest to, że firmy zdają sobie sprawę z szerokiego zakresu wyzwań, jakie stwarza sztuczna inteligencja. Podkreślił jednak, że muszą podjąć bardziej „aktywne działania”, zamiast czekać na opublikowanie treści, a następnie próbować je usunąć. Może to oznaczać, że „bardziej realistyczne treści pochodzące od sztucznej inteligencji, które mogą być bardziej szkodliwe, mogą pozostać na platformach dłużej” w porównaniu z oczywistymi podróbkami, które są łatwiejsze do wykrycia i usunięcia – zasugerował.

Padmanabhan stwierdził również, że użyteczność porozumienia została podważona, ponieważ brakowało w nim niuansów w zakresie definiowania szkodliwych treści. Podał przykład uwięzionego pakistańskiego polityka Imrana Khana, który podczas pobytu w więzieniu wykorzystywał sztuczną inteligencję do wygłaszania przemówień. – Czy to też należy usunąć? - zapytał. 

Sygnatariusze porozumienia twierdzą, że na ich celowniku będą treści, które „w zwodniczy sposób fałszują lub zmieniają wygląd, głos lub działania” kluczowych postaci w wyborach. Specjalna komisja będzie również próbowała zająć się nagraniami dźwiękowymi, obrazami i filmami, które dostarczają wyborcom fałszywych informacji na temat tego, kiedy, gdzie i jak mogą głosować. - Mamy obowiązek dopilnować, aby narzędzia te nie zostały wykorzystane w wyborach – powiedział Brad Smith, prezes Microsoftu.

W środę zastępca prokuratora generalnego USA Lisa Monaco powiedziała BBC, że sztuczna inteligencja grozi „nasileniem” dezinformacji podczas wyborów. Google i Meta określiły już wcześniej swoje zasady dotyczące obrazów i filmów generowanych przez sztuczną inteligencję w reklamach politycznych.

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: DGP/forsal.pl
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj