Odkąd w listopadzie 2022 r. firma OpenAI wypuściła ChatGPT, temat sztucznej inteligencji nie schodzi z czołówek serwisów informacyjnych. Google Trends, czyli narzędzie, w którym można zobaczyć zainteresowanie słowami kluczowymi w internecie, pokazuje, że AI jest wyszukiwane już niemal tak często jak kryptowaluty w chwili, kiedy osiągały największe wyceny.

Rozwój sztucznej inteligencji z pewnością zmieni biznesowy krajobraz. Ponieważ jednak dziś jeszcze jest na wczesnym etapie, trudno ocenić jego prawdziwe konsekwencje.

Model biznesowy

Reklama

– Najważniejsze dziś pytanie to: jak będzie można zarobić na generalnej sztucznej inteligencji? Odpowiedź brzmi: nikt tego nie wie – mówił Eric Schmidt, współzałożyciel i były prezes Google podczas konferencji CEO Summit, organizowanej przez „The Wall Street Journal”. Schmidt odnosił się do takiego etapu rozwoju sztucznej inteligencji, w którym osiąga ona poziom przewyższający zdolności człowieka. Taka technologia jeszcze nie istnieje, ale zdaniem byłego prezesa Google jej rozwój to tylko kwestia czasu (choć świat naukowy nie jest co do tego zgodny – część naukowców twierdzi, że osiągnięcie takiego pułapu stoi pod dużym znakiem zapytania).

Ponieważ nie wiemy jeszcze, z czym tak naprawdę przyjdzie nam się mierzyć, ciężko jest projektować związane z AI modele biznesowe.

Zdaniem Schmidta powoli wyłaniają się jednak pewne trendy. – Wygląda na to, że będzie można monetyzować modele doradcze – prognozował. – Każde kolejne pokolenie liderów jest coraz bardziej przebodźcowane informacjami. Jest dla mnie jasne, że rozwój AI powinien przynieść jakiegoś asystenta menedżera. Dla takich osób najważniejsze jest zobaczyć pełen obraz tego, co się dzieje w spółce i na tej podstawie podejmować decyzje – mówił, dodając że AI jest dobrym narzędziem, by takich metaanaliz dostarczać.

Inne rozwiązania, w których AI będzie najbardziej przydatna, wskazywał Scott Galloway, profesor marketingu na New York University Stern School of Business. Zapytany w czasie WSJ CEO Summit, jaką branżę poleciłby dzisiejszym 20-latkom wchodzącym na rynek pracy, stwierdził zdecydowanie, że będzie to pogranicze technologii AI i medycyny. A jego intuicję potwierdzają i analitycy, i wielki biznes. Jak szacuje think tank CB Insights, rynek takich usług jest wart 11 bln dol. Już dziś wchodzą w niego wielkie korporacje – Apple stawia na osobiste urządzenia monitorujące stan zdrowia, Microsoft usługi chmurowe dla medycyny, a Amazon – spersonalizowaną opiekę zdrowotną. Wszystko w oparciu o sztuczną inteligencję, która zdolna jest analizować wielkie zbiory danych.

Jak przygotować swoje dzieci do życia w warunkach, jakich nie możemy przewidzieć? Odpowiedział na to Elon Musk. Jego zdaniem kluczowe są trzy czynniki: – Po pierwsze istotna jest szeroka wiedza ogólna. Trzeba przynajmniej wiedzieć, czego nie wiesz. Po drugie rozwijanie obszarów, którymi dziecko jest bardzo zainteresowane i przejawia silne umiejętności. Po trzecie – podstawowe zrozumienie technologii – stwierdził.

Relacje międzyludzkie

– Staniesz się bogatszy, a twoje dzieci bardziej samotne i pogrążone w depresji – oceniał Galloway. Skąd taka diagnoza? Jego zdaniem widać to wśród najmłodszych już dziś. – Social media dały iluzję otoczenia przez przyjaciół, ale bez odczuwania przyjaźni – mówił profesor i dodawał, że AI oferująca boty konwersacyjne jeszcze to wyobcowanie pogłębi.

Diagnozował, że będzie to dotyczyło zwłaszcza młodych mężczyzn. Kiedy bowiem relacje przenoszą się do sieci, zmniejsza się ich szansa np. na wejście w związek. Galloway przywołał przykład Tindera, gdzie przeciętny mężczyzna potrzebuje przejrzeć tysiąc kobiecych profili, by umówić się na jedną kawę. W przypadku kobiet problem jest dużo mniejszy.

Zdaniem Gallowaya konsekwencją tego, że mężczyźni nie wchodzą w związki jest obniżająca się dzietność. Problemy, które to powoduje, diagnozował Eric Schmidt: – Będzie bardzo dużo pracy, ale coraz mniej pracowników – przewidywał. Jego zdaniem rewolucja AI może pomóc w złagodzeniu negatywnych efektów tego trendu, bo podniesie efektywność osób, które na rynku pracy pozostaną.

Gdzie w świecie zdominowanym przez technologię szukać relacji? – Co trzeci związek zaczynał się do niedawna w miejscu pracy – przypominał Galloway i przekonywał, że zwłaszcza najmłodsi pracownicy powinni wykonywać swoje zadania z biura. Nie tylko zresztą z powodu relacji społecznych, ale także procesu uczenia się. Relacjonował, że kiedy sam zaczynał pracę, po każdym spotkaniu jego mentor zabierał go do pokoju i dawał informację zwrotną: – Czasem upominał: co to było? Po co to mówiłeś? Bądź cicho i słuchaj. Czasem chwalił: o, to było naprawdę dobre – wspominał Galloway, sugerując, że podobna sytuacja jest niemożliwa do odtworzenia na komputerze.

Twitter, Amazon, Disney, Apple czy Microsoft – to tylko niektóre z firm, które w ostatnim czasie kazały wrócić pracownikom do biura. Przynajmniej na część tygodnia. Choć pracownicy narzekali, może nie było to jednak pozbawione sensu?

Wybory w 2024 roku

Rozwój sztucznej inteligencji to także wyzwania krótkoterminowe. Jednym z obszarów, w których może przynieść zmianę już niedługo, jest polityka.

– Jedną z rzeczy, na które powinniśmy uważać, jest to, że AI będzie używana do manipulowania opinią publiczną – przekonywał Elon Musk w trakcie WSJ CEO Summit. – Boję się, że wpłynie na wybory – przyznał.

Podobnego zdania był zresztą Eric Schmidt, który przypomniał, że w 2024 r. wiele ważnych elekcji będzie odbywać się na całym świecie, w tym: wybory prezydenckie w USA, parlamentarne w Indiach czy te do europarlamentu. – Siła dezinformacji jest bardzo wysoka, może zdestabilizować demokrację – przekonywał i przypomniał, że strona rosyjska wykorzystywała tę metodę już wcześniej. – Jeśli prześledzić, jak działają Rosjanie, ich technika sprowadzi się do tego, by obie strony sporu mniej ufały rządowi – mówił Schmidt. Dodał, że jeszcze kilka lat temu rozprzestrzenianie dezinformacji było trudniejsze, bo trzeba było robić to ręcznie.

Rosyjscy dziennikarze śledczy ujawnili, że od 2013 r. w Sankt Petersburgu działa Agencja Badań Internetowych. Została później nazwana „fabryką trolli”, bo jej głównym celem jest szerzenie rosyjskiej narracji, rozpowszechnianie fałszywych informacji, wywoływanie skrajnych postaw społecznych i politycznych.

Schmidt przyznał, że także w USA działa wiele osób rozprzestrzeniających dezinformację w social mediach, traktując to jako sposób na łatwy zarobek. – Nie kieruje nimi moralny kompas, po prostu płacono im za robienie złych rzeczy – przyznał. – Ale dziś nie wymaga to wiele wysiłku– dodał. A to zasługa rozwiązań opartych na sztucznej inteligencji, które pomogą zautomatyzować rozprzestrzenianie dezinformacji.

– Platformy o tym rozmawiają, ale nie podejmują odpowiednich kroków. Nie wiedzą np., kim są ich użytkownicy – zaznaczył i dodał, że nie można pociągnąć do odpowiedzialności za rozsiewanie treści osób ukrywających się za fałszywymi loginami. Zwrócił też uwagę na problem botów, czyli zautomatyzowanych użytkowników. – Jestem za wolnością słowa, ale dla ludzi – powiedział.

Już mieliśmy pierwsze przykłady ekspansji botów. Rozprzestrzeniały się na zarządzanym przez Muska Twitterze. Konto podszywające się pod Bloomberga (posiadające wykupiony niebieski znaczek zweryfikowanego użytkownika) podało informację zawierającą obraz płonącego Pentagonu. Użytkownicy początkowo dali się nabrać i wiadomość zaczęła rozchodzić się w serwisie. Zanim sprawę zdementowano, giełdowy indeks S&P500 stracił 30 punktów. – Z boku to może wyglądać niewinnie, ale grając z dźwignią, ktoś mógł tu dużo zarobić – komentował Przemysław Gerschmann, autor książki „Śladami Warrena Buffetta”.

Do sieci trafił też pierwszy wyborczy filmik spreparowany za pomocą AI. Kiedy Joe Biden ogłosił, że będzie ubiegał się o reelekcję, republikanie odpowiedzieli przygotowanym przy użyciu AI spotem „Co jeśli najsłabszy prezydent zostanie ponownie wybrany?”. A w tle pojawiły się apokaliptyczne wizje.

Regulacje

Kluczowym problemem, z jakim spotyka się obecnie rozwój sztucznej inteligencji, są regulacje. Prezesi amerykańskich firm technologicznych, które wypuściły na rynek wielkie modele językowe (podstawa działania np. ChatGPT), starają się przekonać regulatorów do wprowadzenia ram prawnych dla AI. – Masz dżina, który może zmienić się w cokolwiek – opisuje swoje podejście do tej technologii Elon Musk. – Jest niezerowa szansa, że AI nas zabije. Myślę, że jest tak bliska zeru, jak to możliwe, ale niezerowa – przekonywał na WSJ CEO Summit.

Jeszcze niedawno podpisywał się pod tym, by prace nad wielkimi modelami językowymi wstrzymać na pół roku. Kiedy jednak podpisany przez niego apel nie spotkał się z entuzjazmem, sam otworzył spółkę rozwijającą AI i ściągnął inżynierów, którzy wcześniej robili to dla Google. – Są OpenAI i Microsoft, Google i Deep Mind – powinien być trzeci koń w tym wyścigu – mówił Musk i przyznał, że dążenie do synergii między X.AI, Twitterem i Teslą (wszystkie należą do niego) „wydaje się możliwe”.

Sam Altman, prezes OpenAI, zeznając w Kongresie, wyraźnie stwierdził, że popiera regulację sztucznej inteligencji. Według niego w Stanach Zjednoczonych powinna zostać utworzona specjalna agencja rządowa, której głównym zadaniem byłoby przyznawanie licencji na duże modele językowe, ale też cofanie tych licencji, jeśli nie spełniałyby określonych przez rząd standardów.

Christina Montgomery z IBM również poparła wprowadzenie pewnych regulacji. Jednak jej propozycja różniła się od tej, którą forsował Altman. Wskazała, że nadszedł czas, aby uregulować szczególne przypadki wykorzystania sztucznej inteligencji, a nie samą technologię. Podkreśliła również, że należy oceniać ryzyko związane z wykorzystaniem systemów opartych na sztucznej inteligencji i regulować ich użycie.

Choć USA zaczynają dopiero dyskusję o regulacjach, prace nad takimi są zaawansowane w UE. Ich założenia są podobne do tych, o których mówiła Montgomery. Logika AI Act opiera się na analizie ryzyka, jakie stwarza zastosowanie tej technologii. Z tej perspektywy akt dzieli systemy AI na cztery kategorie i dla każdej wyznacza ramy działania.

Obecnie Parlament Europejski prowadzi negocjacje w sprawie tych regulacji. Planuje się, że prace zostaną zakończone do końca bieżącego roku, a sam AI Act wejdzie w życie w 2025 r.

Są pewne sprawy, w których panuje powszechna zgoda – np. w kwestii zakazu wprowadzania systemów kredytu społecznego, które mogą dyskryminować ludzi lub grupy na podstawie wrażliwych danych, takich jak informacje o naszych zachowaniach (np. zakupy). Część rozwiązań (w tym przypisanie systemów do konkretnych kategorii) budzi jednak wiele kontrowersji i jest przedmiotem silnych lobbingowych zachowań. W końcówce maja do Brukseli przyleciał rozmawiać o regulacjach Sam Altman i prezes Google Sundar Pichai.

– Musisz być ostrożny, kiedy prosisz rząd o pomoc – ironizował w czasie WSJ CEO Summit Eric Schmidt, przekonując, że obawia się w temacie AI zbyt daleko idących regulacji, które sprawią, że świat Zachodu zostanie wyprzedzony przez Chiny. Państwo Środka faktycznie staje do rywalizacji w temacie AI, na razie jednak jest ograniczone przez dostęp do mikroprocesorów i innych wysokospecjalistycznych technologii. Według Schmidta nadrobienie luki to tylko kwestia czasu.

Elon Musk obawia się, że rządy zaczną używać AI jako broni. – Będą dysponować bronią, która reaguje na polu bitwy szybciej, niż jakikolwiek człowiek by mógł. Myślę, że w przyszłości wojna będzie wojną dronów – ocenił. ©℗