Margaret Mitchell, badaczka sztucznej inteligencji (AI) z doktoratem w dziedzinie lingwistyki komutacyjnej, przez ponad cztery ostatnie lata pracowała w Google’u. Wcześniej była zatrudniona w Microsofcie, gdzie rozwijała m.in. aplikację, która za pomocą słów miała opisywać świat osobom mających problem ze wzrokiem. To Mitchell ściągnęła do Google’a Timnit Gebru, programistkę, badaczkę, współautorkę głośnej analizy pokazującej, że systemy rozpoznawania twarzy najlepiej radzą sobie z identyfikowaniem białych mężczyzn, są za to znacznie mniej skuteczne w przypadku kobiet i osób innego koloru skóry niż biały. Gebru – z pochodzenia Erytrejka – jako nastolatka uciekła do USA przed wojną i otrzymała tam azyl polityczny. Po zrobieniu doktoratu na Uniwersytecie Stanforda pracowała dla Apple’a.
W Google’u Gebru i Mitchell były liderkami zespołu zajmującego się etycznymi aspektami sztucznej inteligencji. Pierwsza straciła pracę w grudniu zeszłego roku, druga została zwolniona niecałe trzy miesiące później. Badaczki uważają, że pozbyto się ich za to, że głośno mówiły o rasizmie i seksizmie w kulturze korporacyjnej Google’a. Przekonywały też, że brak różnorodności wśród pracowników może powodować, że uprzedzenia twórców oprogramowania znajdą odzwierciedlenie w rozwijanej przez firmę sztucznej inteligencji. Obie od lat są zaangażowane w organizacje wspierające kobiety, czarnych i inne marginalizowane grupy w sektorze technologicznym.
Gebru kierowała w Google’u zespołem naukowców, który przygotował publikację o ryzykach związanych z oprogramowaniem AI, a konkretnie – tzw. dużymi modelami językowymi. To technologia uczenia maszynowego oparta na sztucznych sieciach neuronowych. Jakość pisanego przez AI tekstu jest już ponoć tak wysoka, że trudno odróżnić go od języka ludzkiego. W opracowaniu była m.in. mowa o tym, że modele trenowane na ogromnych bazach danych pozyskanych z internetu mogą propagować uprzedzenia rasowe i płciowe, a także o tym, że są tak skuteczne w manipulowaniu i naśladowaniu języka ludzi, że użytkownicy mogą nie mieć świadomości, iż nie mają kontaktu z człowiekiem – w efekcie istnieje ryzyko, że AI będzie niebezpiecznym narzędziem szerzenia dezinformacji.
Reklama
fot. Michael O'Donnell/mat. prasowe
Margaret Mitchell badaczka sztucznej inteligencji