- Grozi nam fala plagiaryzmu
- Uniwersytety zakazują korzystania z ChatGPT
- ChatGPT jako współautor
- Tak rodzi się postęp?
- AI wkracza do sądów
Im więcej zastosowań znajdują algorytmy typu ChatGPT, tym większe wątpliwości budzą. Nie chodzi tylko o generowanie kontentu w postaci treści pisanych i mówionych, ale także obrazów, muzyki i innych form twórczości zarezerwowanej do tej pory dla człowieka. To rodzić może wiele ryzyk i zagrożeń.
Grozi nam fala plagiaryzmu
Wiele stosujących generatywną sztuczną inteligencję, której przykładem jest ChatGPT, przedsiębiorstw i instytucji nie do końca zdaje sobie też sprawę, jak na ich organizację wpływać będą narzędzia AI. Najszybciej wątpliwości dotyczące zastosowań ChatGPT pojawiły się w zakresie działalności akademickiej zarówno dydaktycznej, jak i naukowej. Okazało się, że algorytm wyszkolony na miliardach danych pochodzących z internetu z łatwością zdaje egzaminy medyczne, prawnicze i kończące studia biznesowe MBA, a jego możliwości z czasem mogą być jeszcze większe. Algorytm może też za studentów pisać eseje z różnych przedmiotów, a to podważa sens wykorzystywania narzędzia sprawdzania wiedzy i umiejętności analitycznych, stosowanego od stuleci.
Niestety wielu uczniom i studentom praktycznie pod każdą szerokością geograficzną bardziej zależy na zdobyciu pozytywnych stopni niż wiedzy i umiejętności, a funkcjonujące programy antyplagiatowe mogą nie wykrywać prawdziwego autora wykonanych zadań i prac, zresztą używa się ich głównie w odniesieniu do prac dyplomowych. Światowej edukacji i nauce grozić może fala plagiaryzmu, skutkująca obniżeniem jakości kształcenia.
Uniwersytety zakazują korzystania z ChatGPT
Część światowych uniwersytetów - od Seulu przez Londyn, Paryż, po San Francisco - zakazało stosowania ChatGPT w całości lub części działalności akademickiej, inne wprowadziły dokładne wytyczne dotyczące jego zastosowania.
W Wielkiej Brytanii przystąpiono do aktualizacji najbardziej popularnego programu antyplagiatowego, który ma być w stanie wykryć znamiona stosowania sztucznej inteligencji w pracach studenckich i naukowych. Czy zakończy się to powodzeniem, okaże się do końca kwietnia, gdy aktualizacja ma zostać zakończona. Na razie nie wiadomo, ile ta operacja będzie kosztowała i w jaki sposób płacić za nią będą uniwersytety.
ChatGPT jako współautor
W międzyczasie niektórzy autorzy prac naukowych, aby nie być posądzonymi o plagiat, zaczęli podawać ChatGPT jako współautora swoich dzieł albo umieszczać algorytm w spisie bibliografii publikowanych prac, które, co trzeba przyznać, mogą być znacznie pełniejsze i bardziej reprezentatywne. Jednak takiemu działaniu przeciwstawia się Elsevier, jedno z największych wydawnictw prac naukowych i jednocześnie platforma, która je udostępnia. Według tej instytucji należy jednak w wydawnictwach i pracach naukowych odnotować fakt korzystania z algorytmu w procesie zbierania i analizy źródeł. Kopiowanie treści generowanych przez algorytm może jednak zostać uznane za plagiat, tym bardziej, że cześć z nich może być chroniona prawami autorskimi, a więc naraża osoby je łamiące na działania prawne.
Tak rodzi się postęp?
Z drugiej strony należy zauważyć, że stosowanie generatywnej inteligencji w nauce przyczyniać się będzie do szybszego rozpowszechniania wiedzy, badania naukowe mogą więc być prowadzone znaczne szybciej i dawać lepiej zweryfikowane rezultaty. A to wszystko sprzyjać będzie naukowemu postępowi.
Dotyczy to także, a może przede wszystkim nauk medycznych. Generatywna sztuczna inteligencja ma tu duże pole do działania, również poza pracami naukowymi. Może być stosowna do streszczania dyskusji w czasie konsyliów lekarskich i wywiadów z pacjentami, a także stawiania wstępnych diagnoz opartych na wielu danych klinicznych (np. tysiącach zdjęć) dotyczących dużej liczby przypadków podobnych schorzeń, których specjaliści nie są w stanie zanalizować. Jednak z uwagi na to, że w algorytmach zdarzają się błędy ostateczna diagnoza i wybór metody leczenia musi zawsze należeć do lekarzy.
Poprzez szybszy dostęp do informacji i ich analizy sztuczna inteligencja przyśpieszy też opracowywanie leków i nowych terapii, pozwoli zrozumieć istotę i przyczyny wielu chorób, co zaowocuje zdefiniowaniem spersonalizowanych bardziej adekwatnych metod leczenia. To także utoruje drogę do wykorzystania robotów medycznych i lepszego ich wytrenowania, zmniejszając ryzyko komplikacji pooperacyjnych. Gorzej, że z narzędzi sztucznej inteligencji korzystać będą sami chorzy, podejmując na podstawie generowanych wyników działania, które mogą się okazać dla nich co najmniej niekorzystne.
AI wkracza do sądów
Inną istotną dziedziną zastosowania aplikacji opartych na generatywnej sztucznej inteligencji jest prawo. Tu algorytmy mogą wyręczyć prawników w wielu rutynowych czynnościach, w tym identyfikacji i przygotowaniu niezbędnych dokumentów procesowych znacznie szybciej niż zrobią to zatrudnieni asystenci.
Sędziowie w niektórych krajach już wykorzystują sztuczną inteligencję do ferowania wyroków. Ma ona być bardziej obiektywna niż człowiek. Niestety algorytmy, podobnie do ludzi, mogą generować sądy oparte na uprzedzeniach, bo odzwierciedlą treści funkcjonujące w internecie, więc jedne grupy przestępców taktować łagodniej niż inne.
Amerykańska dziennikarka Julia Angwin wykazała przed kilku laty, że amerykański system COMPAS wydaje nie zawsze sprawiedliwe wyroki. System określa prawdopodobieństwo wystąpienia recydywy, co wpływa na wysokość wydanego wyroku. Dziennikarskie śledztwo, którego wyniki opublikowano na portalu ProPublica wykazało, że tylko 20 proc. skazanych, dla których algorytm przewidywał wysokie prawdopodobieństwo powrotu na drogę przestępstwa, faktycznie na nią wróciło. Co więcej, aplikacja dwa razy łagodniej traktowała białych przestępców niż czarnych i Latynosów. Uprzedzenia rasowe występują najczęściej w algorytmach na świecie, ale nie są jedyne. Przykładowo, również miejsce zamieszkania może być obciążeniem, choć niekoniecznie wiąże się z dokonanym występkiem, a algorytmy nie będą bardziej obiektywne niż dane, na których je wytrenowano. A znaczna ich cześć może być wypaczona lub nieprawdziwa.
Internet kipi od fałszywych informacji
Badania Centralnego Urzędu Statystycznego Irlandii wskazują, że ponad 60 proc. informacji zamieszczanych w internecie w 2022 roku mogło być mało wiarygodnych lub wręcz fałszywych. Do podobnych wniosków prowadzą badania Yahoo. Najszybciej spośród mediów społecznościowych, bo sześć razy szybciej niż gdziekolwiek indziej fałszywe treści podlegają rozpowszechnieniu na Facebooku. Tylko w trzecim kwartale 2020 roku takich wpisów było prawie 2 miliardy. Trzeba też wziąć pod uwagę, że ponad 40 proc. globalnego ruchu w internecie generują boty. Z raportu firmy Imperva wynika, że te o złośliwym charakterze, a więc wykonujące oszukańcze zadania, stały w 2021 roku za prawie 28 proc. działań w sieci. Mogą one wykradać i rozpowszechniać wrażliwe dane osobowe, z których korzystać mogą generatywne algorytmy. To otwiera drzwi do wielu przestępstw, fałszywych oskarżeń, szantażu, a więc krzywdy wielu osób, które umożliwi także technologia deep fake.
Konieczny audyt algorytmów
Etyczne ryzyka nie przekreślają zalet generatywnej sztucznej inteligencji. Ma ona szansę znacznie przyśpieszyć procesy innowacyjne, praktycznie w każdej dziedzinie nauki i biznesu, ale korzystanie z niej musi mieć charakter odpowiedzialny. W badaniu przeprowadzonym przez MIT Sloan Management Review 80 procent respondentów – menedżerów globalnych firm zgodziło się, że wprowadzenie tzw. odpowiedzialnej sztucznej inteligencji (RAI) powinno być priorytetem działań zarządów firm. Na razie jednak zaledwie jedna czwarta z nich przyznała, że wdrożyła już odpowiednie programy w tym zakresie. Pojawiają się w tym kontekście postulaty obowiązkowego audytu algorytmów, o potencjalnie wysokim ryzyku na dużą skalę, które miałyby przeprowadzać licencjonowane firmy lub regulatorzy rynku. Zasady takiego audytu i odpowiedzialności twórców lub podmiotów stosujących narzędzia generatywnej sztucznej inteligencji mogą znaleźć się w przygotowywanej przez Unię Europejską dyrektywie (AI Liability Directive). Trudno jednak zakładać, że rozwiąże to wszystkie problemy, tym bardziej, że innowacje technologiczne znacznie wyprzedzają wdrażane regulacje.