Sztuczna inteligencja jest rasistką. Użycie algorytmów może prowadzić do dyskryminacji

Ten tekst przeczytasz w 2 minuty
3 października 2020, 15:17
technologia, sztuczna inteligencja, roboty
<p>technologia, sztuczna inteligencja, roboty</p>/ShutterStock
Coraz częstsze użycie algorytmów może prowadzić do dyskryminacji i powielania stereotypów. Im szybciej to pojmiemy, tym większa szansa, że nie staniemy się niewolnikami statystyk. Chce temu zapobiec Komisja Europejska

Odpowiednia diagnoza to podstawa, od której powinno się zaczynać leczenie. Przewidywanie zdarzeń rynkowych i pozostawianie w budżecie rezerwy na możliwe awarie to cechy dobrego menedżera. Szybka reakcja na potrzeby klienta pozwala firmie wyrobić sobie przewagę nad konkurencją, a analiza statystyczna zachowań społecznych może pomóc rządzącym lepiej planować wydatki i wspierać najbardziej potrzebujących obywateli. Te wszystkie zadania może wprawdzie wykonywać sztab doświadczonych ekspertów, ale człowiek – choćby poświęcił na to lata – nie przyswoi sobie tylu treści i danych, ile w krótkim czasie przetworzy maszyna wspomagana tzw. sztuczną inteligencją (SI).

SI ma być rewolucją porównywalną do wynalezienia elektryczności. Ma zmienić nasze życie na lepsze i gwałtownie przyspieszyć rozwój cywilizacji. Tak przynajmniej przekonują informacje prasowe publikowane przez liczne agencje marketingowe. Tyle że wiele firm już od lat wykorzystuje systemy wspomagane SI, a efekty bywają opłakane. Co rusz słychać doniesienia o tym, jak algorytmy w mediach społecznościowych dyskryminują treści przedstawiające mniejszości etniczne oraz promują materiały kontrowersyjne zamiast rzetelnych i sprawdzonych faktów. Maszyny mają też dyskryminować kobiety na rynku pracy, a w Stanach Zjednoczonych – prowadzić do niesłusznego osadzania Afroamerykanów w więzieniach i odbierania biedniejszym rodzinom dzieci.

Czy jednak maszyna może dyskryminować? Przecież powinna być wolna od ludzkich uprzedzeń i doświadczeń wpływających na ocenę faktów. Kłopot w tym, że za produkcję treści, które są podstawą do nauki SI, najczęściej odpowiada człowiek. I wówczas to jego błędy, troski i traumy skutkują powstaniem stereotypowych, dyskryminujących danych, które maszyna później – pomimo braku własnych emocji – powiela. Innym razem spoglądająca na świat swoim cybernetycznym okiem SI dostrzega potwierdzenie stereotypów. Wówczas jej analizy mogą się niektórym wydać dyskryminujące – choć znajdują potwierdzenie w statystykach.

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: MAGAZYN DGP
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj