Kobiece głosy są wykorzystywane przez opartych na sztucznej inteligencji asystentach osobistych, instalowanych w większości systemów operacyjnych, obsługujących przenośne urządzenia, jak smartfony czy tablety. Asystentka Siri stworzona została przez Apple, Alexa przez Amazona, a Cortanę w systemach Windows instaluje Microsoft.

Według naukowców UNECSO cyfrowe asystentki są tak zaprogramowane, by były "uległe i służalcze" oraz grzecznie reagowały na zniewagi. Zdaniem ekspertów w ten sposób utrwalane są uprzedzenia płciowe, a twórcy oprogramowania dają przyzwolenie na seksistowskie nękanie.

"Uległość Siri w obliczu słownych nadużyć i służalczość wyrażana przez wielu innych asystentów cyfrowych, w których są głosy młodych kobiet, stanowi potężną ilustrację uprzedzeń płciowych, zakodowanych w produktach technologicznych" - brzmi fragment raportu.

Naukowcy podkreślają, że cyfrowi asystenci głosowi szybko wkroczyli w codzienne życie wielu ludzi i obecnie stanowią prawie jedną piątą wszystkich wyszukiwań w internecie. Mają więc znaczący wpływ na kulturę, a ponieważ technologia oparta na głosie dociera do ogromnej liczby ludzi na całym świecie, feminizacja asystentów cyfrowych może przyczynić się do podtrzymywania i rozprzestrzeniania uprzedzeń płciowych.

"Świat musi zwracać większą uwagę na to, jak, kiedy i czy technologie sztucznej inteligencji są uwarunkowane płcią i, co najważniejsze, kto za to płaci" - powiedziała Saniye Gulser Corat, dyrektor UNESCO ds. równości płci.

W raporcie wezwano firmy do podjęcia działań, które zapobiegałyby podobnym zjawiskom. UNESCO chce, aby zaprzestano tworzenia inteligentnych asystentek cyfrowych, wprowadzono badania opcji neutralnych pod względem płci i zniechęcano programistów do stosowania języka dyskryminacji płci.

W raporcie podkreślono, że w tym roku stworzony został już cyfrowy asystent neutralny głosowo, przez co w jego przypadku uniknięto seksistowskich skojarzeń.

Raport UNESCO został przyjęty z zadowoleniem przez organizacje kobiece, a rzeczniczka magazynu "Womankind" Maria Vlahakis powiedziała, że "algorytmy stosowane w technologiach utrwalają stereotypy dotyczące płci oraz seksistowskie i mizoginistyczne zachowania i odzwierciedlają w technologii społeczną nierówność płci".