- Nie podzielam nurtu katastroficznego, jeśli chodzi o nowe technologie i sztuczną inteligencję – mówi Aleksandra Przegalińska. - Można na to spojrzeć z drugiej strony. Sztuczna inteligencja wspiera nas już dzisiaj w diagnostyce bardzo rzadkich chorób, może proponować nowe lekarstwa na raka, może zmieniać pozytywnie naszą logistykę, edukację, turystykę, sektor prawny i finansowy. Myślę, że to jest kwestia spojrzenia na to, czym sztuczna inteligencja jest, a czym może się stać, jeśli wyląduje w niepowołanych rękach – dodaje.

Jak w takim razie pogodzić rozwój sztucznej inteligencji z etyką? Czy maszyna jest w stanie rozumieć kwestie etyczne? - Myślę, że użycie pojęcia „rozumie” w kontekście maszyn jest już problematyczne. Ja stoję na stanowisku, że dzisiaj, w 2019 roku, maszyna nie rozumie nic, co nie znaczy, że nie jest inteligentna. Jest w stanie przetwarzać informacje – mówi Przegalińska.

- Na przykład, jeśli damy jej polecenie, żeby zachowywała się w dany sposób, to ta maszyna będzie mniej więcej w stanie potem ten kod egzekwować. Jeśli jej powiemy: „Nie dyskryminuj jakiejś grupy ze względu na jakieś cechy i jeśli zidentyfikujesz w swojej bazie danych taki podmiot, to traktuj go tak, jakby tych cech nie było”, to ona będzie w stanie w ten sposób działać. Czyli maszyna nie rozumie kwestii etycznych, co nie znaczy, że w świecie etyki nie może się poruszać – tłumaczy nasza rozmówczyni.

Zobacz całą rozmowę:

Reklama