Dwadzieścia firm podpisało porozumienie zobowiązujące je do zwalczania treści wprowadzających w błąd wyborców. Jednak jeden z ekspertów branżowych twierdzi, że dobrowolny pakt „niewiele zrobi, aby zapobiec publikowaniu szkodliwych treści w internecie”. Kwestia ta zyskała na znaczeniu, ponieważ szacuje się, że w tym roku w takich krajach jak USA, Wielka Brytania i Indie będzie głosować nawet cztery miliardy ludzi. Wśród zobowiązań wynikających z porozumienia znajdują się zobowiązania do opracowania technologii w celu „ograniczenia ryzyka” związanego z nieprawdziwymi treściami politycznymi generowanymi przez sztuczną inteligencję oraz do zapewnienia społeczeństwu przejrzystości w zakresie działań podjętych przez firmy. Inne kroki obejmują dzielenie się najlepszymi praktykami i edukowanie opinii publicznej, jak rozpoznać, kiedy mogą zobaczyć zmanipulowane treści. Sygnatariuszami są także platformy mediów społecznościowych X – dawniej Twitter – Snap, Adobe i Meta, właściciel Facebooka, Instagrama i WhatsApp.

Wadliwe porozumienie

Zdaniem dr Deepaka Padmanabhana z Queen's University w Belfaście, który bada wpływ sztucznej inteligencji na procesy wyborcze, porozumienie ma jednak pewne wady. Powiedział on w rozmowie z BBC, że obiecujące jest to, że firmy zdają sobie sprawę z szerokiego zakresu wyzwań, jakie stwarza sztuczna inteligencja. Podkreślił jednak, że muszą podjąć bardziej „aktywne działania”, zamiast czekać na opublikowanie treści, a następnie próbować je usunąć. Może to oznaczać, że „bardziej realistyczne treści pochodzące od sztucznej inteligencji, które mogą być bardziej szkodliwe, mogą pozostać na platformach dłużej” w porównaniu z oczywistymi podróbkami, które są łatwiejsze do wykrycia i usunięcia – zasugerował.

Reklama

Padmanabhan stwierdził również, że użyteczność porozumienia została podważona, ponieważ brakowało w nim niuansów w zakresie definiowania szkodliwych treści. Podał przykład uwięzionego pakistańskiego polityka Imrana Khana, który podczas pobytu w więzieniu wykorzystywał sztuczną inteligencję do wygłaszania przemówień. – Czy to też należy usunąć? - zapytał.

Sygnatariusze porozumienia twierdzą, że na ich celowniku będą treści, które „w zwodniczy sposób fałszują lub zmieniają wygląd, głos lub działania” kluczowych postaci w wyborach. Specjalna komisja będzie również próbowała zająć się nagraniami dźwiękowymi, obrazami i filmami, które dostarczają wyborcom fałszywych informacji na temat tego, kiedy, gdzie i jak mogą głosować. - Mamy obowiązek dopilnować, aby narzędzia te nie zostały wykorzystane w wyborach – powiedział Brad Smith, prezes Microsoftu.

W środę zastępca prokuratora generalnego USA Lisa Monaco powiedziała BBC, że sztuczna inteligencja grozi „nasileniem” dezinformacji podczas wyborów. Google i Meta określiły już wcześniej swoje zasady dotyczące obrazów i filmów generowanych przez sztuczną inteligencję w reklamach politycznych.