Tekst, wideo i audio tworzone i przetwarzane przez narzędzia sztucznej inteligencji, takie jak ChatGPT i DALL-E, coraz częściej rozprzestrzeniają się w internecie. KE wzywa teraz dziesiątki firm technologicznych, aby dobrowolnie ułatwiły ludziom odróżnianie faktów od fikcji.

KE walczy o bezpieczeństwo użytkowników Internetu

„Sygnatariusze, którzy świadczą usługi mogące rozpowszechniać dezinformację generowaną przez sztuczną inteligencję, powinni wdrożyć technologię rozpoznawania takich treści i wyraźnie oznaczać je tak, by użytkownicy (byli świadomi, z jakiego rodzaju materiałami mają do czynienia – red.)” – powiedziała wiceprzewodnicząca KE Věra Jourová, podał Brussels Playbook.

Reklama

Ustawa przeciw dezinformacji

Zgodnie z ustawą o usługach cyfrowych (DSA) bardzo duże platformy internetowe i wyszukiwarki, takie jak Meta, Twitter i TikTok, będą musiały identyfikować wygenerowane lub zmanipulowane obrazy, audio i wideo, w tym te znane jako deep fake. Inaczej czekają je wielomilionowe kary.

Tymczasem Parlament Europejski naciska na to, aby podobna zasada wpisana w ustawę o sztucznej inteligencji, miała zastosowanie do wszystkich firm generujących treści AI. Nowe przepisy miałyby wejść w życie w 2025 r.

Jourová chce również, aby firmy takie jak Microsoft i Google, stworzyły zabezpieczenia dla swoich usług AI uniemożliwiające przestępcom wykorzystywanie tych usług do realizacji nielegalnych celów. Dyrektor generalny Google, Sundar Pichai, poinformował ją, że jego firma obecnie opracowuje takie technologie.

Twitter na cenzurowanym w UE

Wiceszefowa KE skrytykowała Twitter za wycofanie się z kodeksu postępowania w zakresie dezinformacji. „Uważamy, że to błąd Twittera” – powiedziała. „Wybrali konfrontację, co zostało bardzo zauważone w Komisji”.

W ramach powyższego kodeksu 44 przedstawicieli mediów społecznościowych, grup sprawdzających fakty i stowarzyszeń reklamowych, prowadzi rozmowy nad najlepszymi sposobami reagowania na problemy, jakie generują nowe technologie.