Vyacheslav Polonski z Oxford Internet Institute oraz Jane Zavalishina, prezes Yandex Data Factory, przygotowali analizę, jak nauczyć roboty moralności. Od lat eksperci ostrzegają przed nieprzewidzianymi skutkami sztucznej inteligencji (AI) na społeczeństwo. Ray Kurzweil przewiduje, że do 2029 roku inteligentne maszyny będą w stanie przechytrzyć ludzi. Stephen Hawking argumentuje, że „kiedy ludzie rozwiną pełną AI, wystartuje ona sama i przeprojektuje się w coraz szybszym tempie”. ElonMusk ostrzega, że sztuczna inteligencja może stanowić „fundamentalne zagrożenie dla istnienia ludzkiej cywilizacji”. W mediach mnoży się od przestrzegających opinii alarmistów.

Najczęściej w następstwie tych dystopijnych proroctw, głoszone są apele o bardziej etyczną implementację systemów sztucznej inteligencji. Twierdzi się, że inżynierowie powinni w jakiś sposób wyposażyć systemy autonomiczne poczuciem etyki. Zdaniem niektórych ekspertów od AI, możemy uczyć naszych przyszłych robotników-władców, jak odróżniać dobro od zła, stworzyć coś w rodzaju „dobrego Samarytanina sztucznej inteligencji”, który będzie działał zawsze i pomoże ludziom w niebezpieczeństwie.

Chociaż ta przyszłość nadejdzie za dziesięciolecia, dziś już mają miejsce wątpliwości: w jaki sposób, jeśli w ogóle, osiągniemy poziom inteligencji maszyn? Obecnie najważniejsze jest to, że istniejące dzisiaj słabe podmioty zbiorowej inteligencji wymagają pilnej uwagi co do sposobu, w jaki podejmują decyzje moralne w praktycznych sytuacjach dnia codziennego. Jest to istotne np. wtedy, gdy algorytmy mają postanowić, kto uzyska pożyczkę lub kiedy samojezdne auto musi obliczyć wartość życia ludzkiego w niebezpiecznej sytuacji.

Uczenie maszyn etyki jest skomplikowane, ponieważ nie sposób obiektywnie przekazać moralności w mierzalnych danych, które może przetworzyć komputer. W dylematach moralnych ludzie często polegają na własnych odczuciach, a nie na skomplikowanych kalkulacjach kosztów i korzyści. Roboty potrzebują obiektywnych wskaźników, które można jednoznacznie zmierzyć i zoptymalizować.

Reklama

Po eksperymentach z nauką w grach wideo Atari, DeepMind Alphabet zdołał pokonać najlepszego gracza w Go – człowieka. Tymczasem OpenAI zgromadził „życiowe” doświadczenia, aby pokonać najlepszych graczy w turnieju Valve Dota 2, jednym z najbardziej popularnych zawodów e-sportowych na świecie.

W rzeczywistych sytuacjach problemy z optymalizacją są znacznie bardziej złożone. Na przykład, jak nauczyć robota algorytmicznie maksymalizować uczciwość lub przezwyciężać uprzedzenia rasowe i genderowe? Maszyny da się nauczyć, co jest uczciwe, chyba, że inżynierowie projektujący system sztucznej inteligencji mają precyzyjną koncepcję tego, czym właśnie jest sprawiedliwość.

>>> Czytaj też: Młodzież jest coraz bardziej trzeźwa. Bo przez Messengera się nie napijesz

Doprowadziło to niektórych inżynierów do obawy, że naiwne zastosowanie algorytmów do codziennych problemów może wzmocnić strukturalną dyskryminację i odtworzyć błędy w danych, na których są oparte. W najgorszym przypadku algorytmy mogą odmawiać usług mniejszościom, utrudniać zatrudnienie lub wybierać niewłaściwego kandydata politycznego.

Bazując na doświadczeniach z uczenia maszyn, wyodrębniono trzy sposoby, jak projektować bardziej etyczne maszyny.

1. Definicja zachowania etycznego

Naukowcy oraz sztuczna inteligencja muszą formułować wartości etyczne jako parametry kwantyfikowalne. Innymi słowy, muszą oni dostarczać maszynom wyraźnych odpowiedzi i reguł decyzyjnych dla wszelkich potencjalnych dylematów etycznych, jakie roboty mogą napotkać. Wymagałoby to zgody między ludźmi na najbardziej etyczny sposób postępowania w danej sytuacji – to zadanie trudne, ale nie niemożliwe. Na przykład Niemiecka Komisja Etyki ds. Automatyzowanej Jazdy zaleciła, aby tak implementować specyficzne wartości etyczne samojezdnym autom, by priorytetowo traktowały ochronę życia ludzkiego. W razie nieuniknionego wypadku samochód nie powinien mieć możliwości wyboru, czy zabić osobę w oparciu o indywidualne cechy, takie jak wiek, płeć czy fizyczna/mentalna kondycja.

2. Crowdsourcing naszej moralności

Inżynierowie muszą zebrać wystarczającą ilość danych na temat jednoznacznych środków etycznych, aby odpowiednio szkolić algorytmy AI. Nawet po zdefiniowaniu określonych wskaźników dla naszych wartości etycznych, system sztucznej inteligencji może w dalszym ciągu mieć trudności z ich wykorzystaniem, jeśli nie ma wystarczających, obiektywnych danych. Uzyskanie odpowiednich danych jest trudne, ponieważ normy etyczne nie zawsze mogą być ujednolicone. Różne sytuacje wymagają różnych podejść etycznych, a w niektórych sytuacjach może nie być jednego etycznego działania – przykładem może być śmiercionośna broń autonomiczna, która jest obecnie rozwijana przez wojsko. Jednym ze sposobów rozwiązania tego problemu byłoby pozyskanie potencjalnych rozwiązań dylematów moralnych od milionów ludzi. Projekt Moral Machine MIT pokazuje, w jaki sposób dane z crowdsourcingu mogą być wykorzystywane do efektywnego szkolenia maszyn w podejmowaniu lepszych decyzji moralnych na przykładzie aut samojezdnych.

3. Transparentna AI

Decydenci polityczni muszą wdrożyć wytyczne, dzięki którym stanowiska dotyczące etyki AI stają się bardziej przejrzyste. Jeśli systemy sztucznej inteligencji popełniają błędy lub mają niepożądane konsekwencje, nie możemy zaakceptować wymówki: „algorytm zawinił”. Pełna transparentność algorytmów jest technicznie nie do utrzymania (i, szczerze mówiąc, niezbyt przydatna). Sieci neuronowe są po prostu zbyt złożone, by mogły być badane przez ludzkich inspektorów. Zamiast tego powinna istnieć większa przejrzystość w zakresie sposobu, w jaki inżynierowie określają wartości etyczne przed ich zaprogramowaniem, a także wyniki, jakie sztuczna inteligencja wytworzyła w wyniku tych wyborów. Na przykład dla aut samojezdnych może to oznaczać, że szczegółowe rejestry wszystkich automatycznych decyzji są przechowywane tak, aby zapewnić ich etyczną odpowiedzialność.

Ignorując temat etyki w systemach sztucznej inteligencji, możemy postawić się w niebezpiecznej sytuacji, w której pozwolimy algorytmom decydować, co jest najlepsze dla nas. AI staje się coraz bardziej wszechobecna w społeczeństwie, a cena bezczynności może być ogromna.

Nie można zakładać, że maszyny są z natury zdolne do moralnego zachowania. Ludzie muszą nauczyć roboty, czym jest moralność, jak można ją zmierzyć i zoptymalizować. Dla inżynierów AI może to wydawać się trudnym zadaniem. W końcu definiowanie wartości moralnych jest wyzwaniem, z jakim ludzkość boryka się przez całą swoją historię. Inżynierowie nie mogą zbudować „dobrego Samarytanina AI”, o ile nie mają formuły dla dobrego samarytańskiego człowieka.

>>> Czytaj też: Rząd wyda miliard złotych na polskie e-auto