Badanie „AI Ethics Study” przeprowadzone przez EY i think tank The Future Society pokazuje rozbieżne opinie dotyczące kwestii legislacyjnych i ryzyk dostrzeganych na gruncie etycznym pomiędzy przedsiębiorstwami, które pracują nad sztuczną inteligencją, oraz regulatorami i ekspertami.

Według raportu zdaniem decydentów najważniejsze zagadnienie natury etycznej przy wykorzystaniu sztucznej inteligencji w rozwiązaniach rozpoznających twarz (na przykład w celu weryfikacji na lotniskach, w bankach czy hotelach) to bezstronność i unikanie uprzedzeń. Nie jest to jednak kwestia, która znalazła się na liście priorytetów firm. W ich zestawieniu najbardziej istotnych wyzwań, kwestie uprzedzeń i bezstronności znalazły się dopiero na szóstym miejscu. Najistotniejsza w opinii firm jest natomiast prywatność i prawa do danych. To zagadnienie znalazło się również wysoko - bo na drugim miejscu - wśród decydentów.

Bezpieczeństwo i ochrona to z kolei druga pod względem ważności etycznych kwestia, która zdaniem firm wymaga uwagi przy rozwiązaniach wykorzystujących sztuczną inteligencję do rozpoznawania twarzy. Pierwszą trójkę priorytetów dla obu badanych grup zamyka transparentność.

EY wskazuje, że firmy i decydenci różnią się jednak nie tylko wskazaniami najważniejszych do uregulowania kwestii w zakresie zastosowania sztucznej inteligencji, ale w badaniu widać również, że inne jest samo podejście do wyzwań etycznych stawianych przez AI. Podczas gdy decydenci wyraźnie identyfikują kilka najważniejszych do uregulowania obszarów i nadają im największą wagę, firmy nie polaryzują tak wyraźnie wyzwań – nadając każdemu z nich podobną ważność.

"W skali globalnej, nad wykorzystaniem sztucznej inteligencji w swoich przedsięwzięciach pracuje obecnie prawie 70 proc. firm. Chcą one przede wszystkim oferować najnowocześniejsze i najbardziej innowacyjne rozwiązania, dlatego skupiają się głównie na ich efektywności i wartości, które niosą dla użytkownika końcowego. Firmom trudno więc priorytetyzować którekolwiek z wyzwań etycznych, ponieważ wszystkie – zarówno kwestie bezstronności czy uprzedzeń, ale i zabezpieczeń danych są równie istotne" - oceniła cytowana w raporcie Justyna Wilczyńska-Baraniak z EY.

Reklama

Wskazała ona, że definiując wyzwania etyczne, przedsiębiorcy mają na uwadze kwestie techniczne, implementacyjne i biznesowe, które nie znajdują się na radarach decydentów. "Badanie EY pokazuje, że 66 proc. decydentów uważa, że regulatorzy nie rozumieją złożoności technologii opartej na sztucznej inteligencji i wyzwań biznesowych z nią związanych. Rozdźwięk między ryzykami dostrzeganymi przez legislatorów i regulatorów a firmami wynika więc przede wszystkim z innej perspektywy postrzeganych wyzwań" - zauważyła ekspertka.

Przypomniała też, że decydenci patrzą na nie zdecydowanie szerzej, mając na uwadze szerszą grupę interesariuszy. "Firmy koncentrują się przede wszystkim na wyzwaniach – w tym biznesowych - dla nich samych i branż, w których działają. Patrzą na te kwestie również w innym horyzoncie czasowym – nie ma wątpliwości co do tego, że firmy szukają rozwiązań tu i teraz, odpowiadających na obecne wyzwania, podczas gdy legislatorzy i regulatorzy posługują się zdecydowanie bardziej odległym horyzontem czasowym" – dodała.

Jak wskazują autorzy raportu, różne punkty widzenia na najistotniejsze do rozwiązania kwestie etyczne związane z rozwojem sztucznej inteligencji to istotne wyzwanie legislacyjne. Według badania, 55 proc. ankietowanych przedsiębiorców wykorzystujących technologię AI oczekuje, że zostanie stworzony jeden zestaw uniwersalnych zasad, na który zgodzi się większość krajów i który będzie łatwy do zaimplementowania, niezależnie od jurysdykcji. Jednocześnie tylko 21 proc. decydentów spodziewa się takiego rozwiązania, natomiast większość – 66 proc. - uważa, że jeden zestaw uniwersalnych zasad powstanie, ale poszczególne kraje będą go implementować w zależności od własnych uwarunkowań. Ankietowani przedstawiciele firm niemal dwukrotnie częściej niż przedstawiciele legislatorów i regulatorów wskazywali również, że poszczególne kraje bądź regiony stworzą własne zasady etyczne.

Co więcej, 6 na 10 przedstawicieli firm uważa, że znacznie korzystniejszym rozwiązaniem byłoby stworzenie tych zasad przez samych zainteresowanych, czyli firmy i branże, które sztuczną inteligencję wykorzystują na co dzień w swojej działalności. Z taką tezą zgadza się natomiast wyłącznie 24 proc. decydentów.

Jak wskazała Justyna Wilczyńska-Baraniak, przedsiębiorcy często uważają, że prawo nie nadąża za rozwojem nowych technologii. "Mówią tak również gremialnie (90 proc.) polskie firmy, które były pytane o to w badaniu przeprowadzonym kilka miesięcy temu przez EY Law. Co więcej, to właśnie sztuczna inteligencja wskazywana jest jako największe wyzwanie prawne. To efekt braku przepisów – nawet w zakresie samej definicji sztucznej inteligencji - które w sposób jasny regulowałyby kwestie związane z tą technologią" - zauważyła.

Badanie EY i The Future Society zostało przeprowadzone pod koniec 2019 i na początku 2020 roku w 55 krajach, wśród 71 legislatorów, regulatorów i doradców w zakresie sztucznej inteligencji oraz 284 firm wykorzystujących tę technologię. Ankietowani proszeni byli o wskazanie i uszeregowanie 11 najważniejszych zagadnień etycznych w odniesieniu do 12 rozwiązań technologicznych wykorzystujących sztuczną inteligencję.