Trenowanie macho-robotów. Czy sztuczna inteligencja może mieć uprzedzenia?

Ten tekst przeczytasz w 2 minuty
15 sierpnia 2021, 00:45
Robot
<p>Robot</p>/ShutterStock
Jeden model językowy – nowa technologia AI – może tworzyć miliony tożsamości i rozprzestrzeniać miliardy wiadomości. Dzięki temu nie potrzebujesz już farm trolli, aby podgrzewać destrukcyjne konflikty kulturowe

Margaret Mitchell, badaczka sztucznej inteligencji (AI) z doktoratem w dziedzinie lingwistyki komutacyjnej, przez ponad cztery ostatnie lata pracowała w Google’u. Wcześniej była zatrudniona w Microsofcie, gdzie rozwijała m.in. aplikację, która za pomocą słów miała opisywać świat osobom mających problem ze wzrokiem. To Mitchell ściągnęła do Google’a Timnit Gebru, programistkę, badaczkę, współautorkę głośnej analizy pokazującej, że systemy rozpoznawania twarzy najlepiej radzą sobie z identyfikowaniem białych mężczyzn, są za to znacznie mniej skuteczne w przypadku kobiet i osób innego koloru skóry niż biały. Gebru – z pochodzenia Erytrejka – jako nastolatka uciekła do USA przed wojną i otrzymała tam azyl polityczny. Po zrobieniu doktoratu na Uniwersytecie Stanforda pracowała dla Apple’a.

W Google’u Gebru i Mitchell były liderkami zespołu zajmującego się etycznymi aspektami sztucznej inteligencji. Pierwsza straciła pracę w grudniu zeszłego roku, druga została zwolniona niecałe trzy miesiące później. Badaczki uważają, że pozbyto się ich za to, że głośno mówiły o rasizmie i seksizmie w kulturze korporacyjnej Google’a. Przekonywały też, że brak różnorodności wśród pracowników może powodować, że uprzedzenia twórców oprogramowania znajdą odzwierciedlenie w rozwijanej przez firmę sztucznej inteligencji. Obie od lat są zaangażowane w organizacje wspierające kobiety, czarnych i inne marginalizowane grupy w sektorze technologicznym.

Gebru kierowała w Google’u zespołem naukowców, który przygotował publikację o ryzykach związanych z oprogramowaniem AI, a konkretnie – tzw. dużymi modelami językowymi. To technologia uczenia maszynowego oparta na sztucznych sieciach neuronowych. Jakość pisanego przez AI tekstu jest już ponoć tak wysoka, że trudno odróżnić go od języka ludzkiego. W opracowaniu była m.in. mowa o tym, że modele trenowane na ogromnych bazach danych pozyskanych z internetu mogą propagować uprzedzenia rasowe i płciowe, a także o tym, że są tak skuteczne w manipulowaniu i naśladowaniu języka ludzi, że użytkownicy mogą nie mieć świadomości, iż nie mają kontaktu z człowiekiem – w efekcie istnieje ryzyko, że AI będzie niebezpiecznym narzędziem szerzenia dezinformacji.

CAŁY TEKST ORAZ ROZMOWA Z MARGARET MITCHELL W WEEKENDOWYM WYDANIU DGP I NA E-DGP

fot. Michael O'Donnell/mat. prasowe

Margaret Mitchell badaczka sztucznej inteligencji

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: MAGAZYN DGP
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj