Niepotrzebnie boimy się fałszywych treści od AI? Zaskakująca opinia eksperta

Deepfake
Zagrożenie dezinformacją stwarzane przez generatywną sztuczną inteligencję jest „przesadzone”?/shutterstock
Eksperci ds. cyberbezpieczeństwa boją się, że treści generowane przez sztuczną inteligencję mogą zniekształcić nasze postrzeganie rzeczywistości. Obawy te są jeszcze bardziej niepokojące w roku pełnym kluczowych wyborów. Czy jest się czego obawiać?

CNBC podał, że jeden z czołowych ekspertów ds. cyberbezpieczeństwa idzie pod prąd ogólnemu trendowi sugerując, że zagrożenie, jakie dla demokracji stanowią fałszywe podróbki tworzone przez sztuczną inteligencję, może być „przesadzone”.

Martin Lee, kierownik techniczny grupy wywiadowczo-badawczej ds. bezpieczeństwa Talos firmy Cisco, powiedział CNBC, że według niego deepfakes, choć same w sobie stanowią potężną technologię, nie są tak skuteczne, jak fałszywe wiadomości.

AI ułatwia generowania fałszywych treści

Jednocześnie Lee potwierdził, że nowe narzędzia generatywnej sztucznej inteligencji rzeczywiście są ułatwieniem tworzeniu fałszywych treści. Jednak w jego ocenie, materiały wygenerowane przez sztuczną inteligencję często mogą zawierać powszechnie rozpoznawalne wskazówki sugerujące, że nie zostały one stworzone przez człowieka.

Szczególnie podatne na tego typu wady okazały się treści wizualne, które mogą zawierać anomalie wizualne, np. osobę mającą więcej niż dwie ręce lub kończynę wtopioną w tło obrazu. Natomiast odróżnienie syntetycznie wygenerowanego głosu od klipów głosowych prawdziwych ludzi może okazać się dużo trudniejsze.

Eksperci twierdzą jednak, że sztuczna inteligencja jest nadal tylko tak dobra, jak jej dane szkoleniowe.

Ryzyko dezinformacji

Eksperci powiedzieli CNBC, że spodziewają się, że dezinformacja generowana przez sztuczną inteligencję będzie kluczowym ryzykiem w nadchodzących wyborach na całym świecie.

Tymczasem Matt Calkins, dyrektor generalny firmy Appian zajmującej się technologią dla przedsiębiorstw, uważa, że obecnie sztuczna inteligencja ma dość ograniczoną użyteczność, jednak w przyszłości może stać się bardziej skutecznym i niebezpiecznym narzędziem dezinformacji.

Jak bronić się przed deepfakes

Niezależnie od tego, jak zaawansowana jest sztuczna inteligencja, Lee z Cisco twierdzi, że istnieją pewne wypróbowane i przetestowane sposoby wykrywania dezinformacji i to niezależnie od tego, czy została stworzona przez maszynę, czy przez człowieka.

Lee podpowiada na łamach CNBC, że kiedy napotykamy treści, które wywołują nasze emocje, powinniśmy zatrzymać się i zadać sobie kilak podstawowych pytań. Czy sama informacja jest w ogóle wiarygodna? Czy zostało opublikowane przez renomowane źródło mediów? Czy inne renomowane źródła medialne donoszą o tym samym?

„Jeśli nie, prawdopodobnie jest to kampania oszustwa lub dezinformacji, którą należy zignorować lub zgłosić” - powiedział Lee. 

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: CNBC
oprac. Tomasz Lipczyński
<p><span>W mediach pracuje od ćwierćwiecza. Absolwent Politechniki Warszawskiej. Pierwsze kroki w zawodzie stawiał w Agencji Informacyjnej Boss. Później były dzienniki ekonomiczne, Nowa Europa, Prawo i Gospodarka i Puls Biznesu. Z Inforem (Forsal.pl) związany od 2008 r.</span></p>
Zobacz wszystkie artykuły tego autoraNiepotrzebnie boimy się fałszywych treści od AI? Zaskakująca opinia eksperta »
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj