Meta rozpoczyna oznaczanie treści AI od maja 2024

Ten tekst przeczytasz w 2 minuty
5 kwietnia 2024, 19:59
[aktualizacja 5 kwietnia 2024, 19:59]
Made with AI
Made with AI/Wikimedia Commons
Meta ogłosiła, że każda treść generowana przez AI na jej platformach społecznościowych będzie oznaczona specjalnym dopiskiem 'Made with AI' już od przyszłego roku. Jest to reakcja na coraz głośniejsze głosy ekspertów, takich jak Nicolas Gaudemet z Onepoint, który ostrzega przed lukami w filtracji kontentu i potencjalnym wykorzystaniem AI do celów manipulacyjnych.

Meta (Facebook) planuje oznaczanie treści generowanych przez AI

"Planujemy rozpocząć proces oznaczania treści generowanych przez AI w maju 2024 r." - poinformowała w piątek Monika Bickert, wicedyrektorka odpowiedzialna za politykę treści na platformach społecznościowych należących do konglomeratu Meta (Facebook, Instagram i Threads). Bickert poinformowała, że treści będą oznaczane dopiskiem "Made with AI".

Nowa polityka Mety ma być stosowana przy każdym rodzaju treści, niezależnie czy jest to dźwięk, wideo czy obraz wygenerowany przez sztuczną inteligencję.

Eksperci sceptyczni co do skuteczności filtrowania treści AI

"Filtrowanie jest lepsze niż nic, ale na pewno będą dziury w siatce" - komentuje dla agencji AFP dyrektor ds. AI w consultingu Onepoint Nicolas Gaudemet. Ekspert podał przykład stron, które korzystają z publicznie dostępnych źródeł i nie mają dostępu do takich oznaczeń jak Meta przy tworzeniu treści. Specjalista zaznaczył, że mimo wszystko większość platform generujących treści przy użyciu sztucznej inteligencji "używa tego typu technologii".

Meta kontynuuje usuwanie treści naruszających politykę użytkowników

Korporacja Meta zadeklarowała, że nadal będzie usuwać wszystkiego rodzaju treści, które "ingerują w procesy wyborcze, są oznakami nękania, molestowania w sieci (...) bądź innymi przypadkami łamania polityki użytkowników" firmy.

Inicjatywa na rzecz identyfikacji treści AI w branży technologicznej

Już w lutym tego roku Meta zapowiadała, że wprowadzi identyfikację treści generowanych przez AI, aby walczyć z dezinformacją. Inni liderzy rynku nowych technologii, m.in. Microsoft, Google, OpenAI i Adobe, również zobowiązały się do podobnych działań.

Obawy przed wykorzystaniem AI do rozpowszechniania dezinformacji

Rozwój sztucznej inteligencji rodzi obawy co do możliwego jej użycia w celach dezinformacji. Zwłaszcza biorąc pod uwagę zbliżające się wybory w Stanach Zjednoczonych, które mają odbyć się w listopadzie tego roku. (PAP)

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: PAP
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj