W „Katarze” (1976) Stanisława Lema pewien emerytowany amerykański astronauta pomaga w śledztwie dotyczącym serii osobliwych zgonów w Neapolu: gwałtowną śmierć ofiar, mężczyzn koło pięćdziesiątki, poprzedzał za każdym razem atak ostrej psychozy. Poszukiwania sprawcy bądź sprawców – na przekór rozlicznym hipotezom – nie przynoszą rezultatów. Finalnie okazuje się, że w całej sprawie nie chodziło o zbrodnię popełnioną ludzką ręką, lecz o złożony zbieg okoliczności: potrzebne były alergia, reumatyzm, łysienie, skłonność do jedzenia migdałów oraz zażywania kąpieli siarkowych. Określone połączenie tych czynników wywoływało u ofiar nagłą reakcję fizjologiczną – napad halucynacyjnej, samobójczej furii.

Jeszcze niedawno mieliśmy się bać terrorystów, potem kryzysów ekonomicznych i globalnego ocieplenia. Następnie pandemii, a ostatnio także detonacji broni jądrowej. Do tej listy – jako kolejna szansa na zagładę ludzkości – dołączyła sztuczna inteligencja.

Panikę sieją politycy, analitycy, dziennikarze, ale także osoby związane z dużymi firmami technologicznymi, wróżbici, różnego pokroju eksperci. Postęp technologii AI jest widoczny dla każdego dzięki ChatGPT. Każdy na świecie może wpisać tekst i dostać odpowiedź tekstową. Inne modele oferują wytwory graficzne. Stworzono też film reklamę, czysto syntetycznie, bez udziału aktorów, choć przedstawia on ludzi (nieprawdziwych). To robi wrażenie. Nowo powołany francuski start-up AI zdobył ponad stumilionowe dofinansowanie w mniej niż tydzień. Co akurat zrozumiałe: stworzyli go byli pracownicy firm rozwijających AI. Takich ludzi jest niewielu i niekoniecznie są rutynowo kształceni na uniwersytetach, nawet jeśli za chwilę polskie uczelnie zechcą wskoczyć do wagoniku AI i powołają setki nowych specjalności, tak jak to było z marketingiem i zarządzaniem, dziennikarstwem, a obecnie jest z cyberbezpieczeństwem.

Postęp od 2017 r. jest ogromny i idą za nim pieniądze – być może odpływające z mniej trafionych trendów. Nowe metody (w rodzaju ChatGPT) generują wartość od początku, natychmiast. Ludzie zwyczajnie ich używają, gdyż usprawnia to pracę. Ale – jak mówią Amerykanie – „hold your horses”, bo warto zachować pewną dozę ostrożności wobec doniesień, ostrzeżeń, wezwań, odezw, dezyderatów itd.

Reklama

Na początku czerwca „zaniepokojeni” amerykańscy senatorowie wystosowali list do Marka Zuckerberga, szefa Meta, w związku z „wyciekiem” (a faktycznie: celowym udostępnieniem) dużego modelu językowego (LLM). Senatorowie zwracają uwagę na „potencjalne ryzyka” oszustw, naruszeń prywatności itd. Żądają informacji o tym, w jaki sposób „oszacowano ryzyka” związane z publikacją modelu AI/LLM.

CAŁY TEKST W WEEKENDOWYM WYDANIU MAGAZYNU DGP

Łukasz Olejnik

Niezależny badacz i konsultant cyberbezpieczeństwa, fellow Genewskiej Akademii Międzynarodowego Prawa Humanitarnego i Praw Człowieka, były doradca ds. cyberwojny w Międzynarodowym Komitecie Czerwonego Krzyża w Genewie, autor książki „Filozofa cyberbezpieczeństwa”