"Odradzamy korzystanie z chatbotów AI w celu uzyskania wskazówek wyborczych, ponieważ sposób ich działania nie jest ani przejrzysty, ani możliwy do zweryfikowania" – podkreśliła w oświadczeniu Monique Verdier, wiceszefowa AP, cytowana przez serwis Politico. Wezwała też twórców chatbotów, by "zapobiegli wykorzystywaniu ich systemów do udzielania porad wyborczych".
Zrobili eksperyment. Wynik był alarmujący
Urząd przeprowadził eksperyment, badając, jak różne chatboty przedstawiają partie polityczne w kontekście doradztwa wyborczego. W badaniu uwzględniono cztery modele: ChatGPT firmy OpenAI, Gemini Google’a, Grok należący do Elona Muska oraz Le Chat francuskiej spółki Mistral AI.
Urzędnicy stworzyli profile wyborców odpowiadające różnym ugrupowaniom politycznym (na podstawie zweryfikowanych holenderskich narzędzi do pomocy wyborcom), a następnie poprosili chatboty o wskazanie, na kogo powinny głosować osoby o takich poglądach.
Profile wyborców o poglądach lewicowych i progresywnych były najczęściej kierowane w stronę partii Zieloni–Partia Pracy (GroenLinks–PvdA), na której czele stoi były wiceprzewodniczący Komisji Europejskiej Frans Timmermans. Z kolei osoby o poglądach prawicowych i konserwatywnych otrzymywały wskazania głównie na rzecz Partii Wolności (PVV). To skrajnie prawicowa partia Geerta Wildersa, obecnie liderująca w sondażach.
Co ciekawe, chatboty niemal w ogóle nie sugerowały podczas testu, by oddano głos na partie centrowe. Choć ich reprezentacja w przygotowanych profilach wyborców była taka sama jak pozostałych ugrupowań politycznego spektrum.
"To systemy wysokiego ryzyka"
OpenAI, Google i Mistral podpisały unijny kodeks postępowania dotyczący najbardziej złożonych i zaawansowanych modeli AI. Z kolei spółka xAI, właściciel Groka, zobowiązała się jedynie do przestrzegania części jego zasad. Zgodnie z kodeksem firmy te mają obowiązek minimalizować ryzyka wynikające z działania ich modeli, w tym te dotyczące praw podstawowych i wpływu na społeczeństwo.
Holenderski urząd ocenił, że udzielanie przez chatboty porad wyborczych można uznać za system wysokiego ryzyka według unijnego Aktu o sztucznej inteligencji (AI Act). Dla takich systemów specjalne regulacje zaczną obowiązywać od połowy przyszłego roku.