Kiedy rozwój sztucznej inteligencji może stać się niebezpieczny? Wywiad z Aleksandrą Przegalińską z MIT

Ten tekst przeczytasz w 2 minuty
14 czerwca 2018, 16:54
Aleksandra Przegalińska
Aleksandra Przegalińska/Dziennik Gazeta Prawna
Może się okazać, że zawód programisty zostanie bardzo przedefiniowany. Będzie on potrzebny, żeby sieć nadzorować, ale niekoniecznie do tego, żeby ją tworzyć – mówi Aleksandra Przegalińska, badaczka sztucznej inteligencji z MIT Center for Collective Intelligence i Akademii Leona Koźmińskiego.

„Niewątpliwie mocno dyskutowanym obszarem sztucznej inteligencji, który jest z jednej strony bardzo obiecujący, z drugiej potencjalnie niebezpieczny, jest głębokie uczenie maszynowe. To jest już uczenie sieci neuronowej, oparte na bardzo kompleksowych procesach, które może być częściowo nienadzorowane. To znaczy, że ta sieć uczy się sama” – mówi Aleksandra Przegalińska.

Jej zdaniem, ten typ uczenia maszynowego jest jednak czarną skrzynką dla człowieka. „Nie wiemy, co się w tej sieci tak naprawdę dzieje, jak przetwarzana jest informacja, w związku z tym nie rozumiemy, skąd dane rozwiązane do nas przyszło” – tłumaczy ekspertka.

Czy samouczące się maszyny mogą sprawić, że w przyszłości zawód programisty zniknie z rynku? „Wyobrażam sobie, że jeśli zastosowanie deep learningu będzie bardzo szerokie, może się okazać, że rzeczywiście zawód programisty zostanie bardzo przedefiniowany. Będzie on potrzebny, żeby sieć nadzorować, ale niekoniecznie do tego, żeby ją w ogóle tworzyć” – przekonuje Przegalińska.

Ekspertka MIT Center for Collective Intelligence odniosła się też do nowych możliwości asystenta głosowego Google Duplex, który jest w stanie prowadzić rozmowę z człowiekiem w taki sposób, że rozmówca nie jest w stanie zorientować się, że prowadzi konwersację ze sztuczną inteligencją (posłuchaj nagrania tutaj).  Prezentacja Google wywołała obawy o kwestie etyczne.

„Pełna transparentność jest konieczna. Mój zespół badawczy, rozpięty między MIT i Akademią Koźmińskiego, postawił sobie za cel zbudowanie technologii, która pozwoliłaby odnaleźć bota, kiedy nie jesteśmy pewni, z kim właściwie rozmawiamy, czyli wykryć, że ta rozmowa odbywa się z asystentem głosowym” - zapowiada Przegalińska.

Zobacz całą rozmowę:

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: forsal.pl
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj