„Niewątpliwie mocno dyskutowanym obszarem sztucznej inteligencji, który jest z jednej strony bardzo obiecujący, z drugiej potencjalnie niebezpieczny, jest głębokie uczenie maszynowe. To jest już uczenie sieci neuronowej, oparte na bardzo kompleksowych procesach, które może być częściowo nienadzorowane. To znaczy, że ta sieć uczy się sama” – mówi Aleksandra Przegalińska.

Jej zdaniem, ten typ uczenia maszynowego jest jednak czarną skrzynką dla człowieka. „Nie wiemy, co się w tej sieci tak naprawdę dzieje, jak przetwarzana jest informacja, w związku z tym nie rozumiemy, skąd dane rozwiązane do nas przyszło” – tłumaczy ekspertka.

Czy samouczące się maszyny mogą sprawić, że w przyszłości zawód programisty zniknie z rynku? „Wyobrażam sobie, że jeśli zastosowanie deep learningu będzie bardzo szerokie, może się okazać, że rzeczywiście zawód programisty zostanie bardzo przedefiniowany. Będzie on potrzebny, żeby sieć nadzorować, ale niekoniecznie do tego, żeby ją w ogóle tworzyć” – przekonuje Przegalińska.

Ekspertka MIT Center for Collective Intelligence odniosła się też do nowych możliwości asystenta głosowego Google Duplex, który jest w stanie prowadzić rozmowę z człowiekiem w taki sposób, że rozmówca nie jest w stanie zorientować się, że prowadzi konwersację ze sztuczną inteligencją (posłuchaj nagrania tutaj).  Prezentacja Google wywołała obawy o kwestie etyczne.

„Pełna transparentność jest konieczna. Mój zespół badawczy, rozpięty między MIT i Akademią Koźmińskiego, postawił sobie za cel zbudowanie technologii, która pozwoliłaby odnaleźć bota, kiedy nie jesteśmy pewni, z kim właściwie rozmawiamy, czyli wykryć, że ta rozmowa odbywa się z asystentem głosowym” - zapowiada Przegalińska.

Zobacz całą rozmowę:

Kiedy sztuczna inteligencja może stać się niebezpieczna?

więcej
Wideo