Lęk przed sztuczną inteligencją jest bezzasadny – dziś ona nie wie nawet, że w grze pokonała człowieka. Do w pełni świadomej SI, do tak często przywoływanego Skynetu z filmów o Terminatorze, dzielą nas długie lata. Zresztą na sztuczną inteligencję należy spojrzeć inaczej, to kolejna technologia, która może nam pomóc - mówi w wywiadzie Michał Wroczyński, współzałożyciel i szef CEO and Fido AI – Poland, kognitywista, specjalista od sztucznej inteligencji.

„Szkoda, że cię matka nie wyabortowała” – tak do mnie pisał jeden z internautów.

To mowa nienawiści. Niezrozumiała dla typowej sztucznej inteligencji, bo każde słowo tego zdania – gdyby je zapisać pojedynczo – nie jest niczym złym. Można wytrenować system na tym konkretnym przykładzie, ale jeśli to wyrażenie ciut się zmodyfikuje, to system już nie będzie w stanie prawidłowo go rozpoznać. Dopiero w całości, w danej konstrukcji gramatycznej, okazuje się hejtem. Pani jako osoba dorosła może zgłosić taki przypadek Facebookowi, Twitterowi czy pójść na policję. Ale dziecko, które jest szykanowane przez rówieśników, zazwyczaj nikomu się nie skarży, bo boi się konsekwencji. Mówię o tym, bo w Stanach ogromna liczba dzieci jest szykanowana, ale nie na boisku czy korytarzu szkolnym, tylko w internecie. 20 proc. z tych dzieci myśli o samobójstwie, a 2,5 proc. je popełnia. Z badań wynika, że cyberbullying, cybernękanie, zwiększa ryzyko popełnienia samobójstwa przez dzieci. A cybernękanie w internecie jest proste, pisze się zdanie i naciska się guzik „wyślij”. I już. Każdego dnia 160 tys. dzieci w Stanach nie idzie do szkoły z powodu cyberbullyingu. Niestety, także w Polsce coraz częściej mamy do czynienia z tym zjawiskiem. Problem tej przemocy to złożone zjawisko, którym się zajmujemy i pracujemy nad tym, żeby go rozwiązywać.

W jaki sposób?

Naszym celem jest zapobieganie przemocy, a nie tylko tropienie tych, którzy się tej przemocy dopuścili. Nie jesteśmy od karania i cenzury, jesteśmy od prewencji. Proszę sobie wyobrazić, że dzieciak pisze do innego dzieciaka: „Nie zasługujesz na to, by żyć”. Ale zanim to wyśle, sztuczna inteligencja wysyła mu wiadomość w rodzaju: „To szykanowanie. Zastanów się, czy na pewno chcesz wysłać taki tekst. Przemyśl to. Może chcesz zobaczyć wideo, jak to może zranić twojego kolegę”. Jest też możliwość zablokowania tego posta, a nawet zablokowania konta takiego użytkownika.

Reklama

To inwigilacja.

To nie jest inwigilacja. W czasach, kiedy Google wie więcej o nas od nas samych, to świadome użycie części tych informacji, by zapobiec przemocy. W USA w wielu placówkach edukacyjnych jest tak, że większość dzieci, szczególnie małych, korzysta ze szkolnych komputerów. Nauczyciele „ręcznie” próbują sprawdzać, co one piszą na forach, na portalach społecznościowych, na czatach. I mimo że wszystko jest kontrolowane i dzieci o tym wiedzą, to i tak hejtują i szykanują innych. Zaczęliśmy współpracę z jedną z największych japońskich korporacji, żeby chronić dzieciaki przed cyberbullyingiem. My chcemy działać prewencyjnie – zapobiegać, a nie karać. Nie chodzi nam o wykrycie złego dziecka, tylko o to, aby zapobiec tragedii.

Ale tylko po angielsku.

Wcześniej pracowaliśmy w języku polskim i też mieliśmy klientów. Polska gramatyka i kontekst to inne zagadnienie niż w języku angielskim.

Polski jest trudniejszy?

Nie, dla ludzi jest zdecydowanie trudniejszy, ale dla komputerów – prostszy. Mamy niesamowite bogactwo informacji zakodowane w końcówkach, których używamy w różnego rodzaju odmianach. Angielski tego nie ma – jest językiem pozycyjnym, gdzie najważniejszy jest szyk zdania. Dlatego jest bardzo trudny do nauki dla komputerów. Ale jeszcze wrócę do epidemii nienawiści w internecie. Jako były lekarz przypomnę, że zanim wynaleźliśmy środki masowego transportu, epidemie chorób szerzyły się powoli. Dyliżanse, statki, pociągi, samoloty – i się zaczęło. I podobnie jest z siecią – im jest powszechniejsza i szybsza, tym zjawisko jest coraz mocniej obecne. Ale teraz sprawa mowy nienawiści nabrzmiała do tego stopnia, że jest uznawana za największy problemem Doliny Krzemowej. Dla wielkich firm internetowych hejt to pięta achillesowa. Ani Google, ani Twitter, ani FB sobie z nim nie radzą. Nie potrafią nic z nim zrobić, tylko Google przez hejt traci mnóstwo pieniędzy. Ten problem był przez lata ignorowany, a teraz mówi się o tym, że umiejętne wykorzystywanie mowy nienawiści doprowadziło do brexitu czy do wybrania na prezydenta USA Donalda Trumpa.

A czy może odegrać rolę w wyborach samorządowych i parlamentarnych w Polsce?

Szacuję, że nawet 30 proc. hejtu w polskim internecie to płatny trolling. Jest jakaś dyskusja merytoryczna o polityce i nagle pojawia się wpis atakujący. Tylko po to, żeby rozbić dyskusję, zaszczuć jej uczestników. W takich przypadkach mówi się o zamachu na demokrację. Kiedy pojawiają się negatywne emocje, łatwiej się nami manipuluje. Złość to lęk, a kiedy się boimy, to nie myślimy racjonalnie i nie głosujemy racjonalnie.

>>> CAŁY WYWIAD W WEEKENDOWYM WYDANIU DGP