Minęły dwa lata odkąd OpenAI wypuściło ChatGPT i rozpoczęło gorączkę złota dla sztucznej inteligencji. Miliardy dolarów napływają do firm skupionych na sztucznej inteligencji i firm z nią powiązanych, obiecując, że technologia ta przyspieszy (lub prawdopodobnie zniszczy) każdy aspekt współczesnego życia – pisze CNN.
Sztuczna inteligencja przyciąga inwestorów, sceptycy ostrzegają
Narracja z Doliny Krzemowej jest taka, że pociąg AI opuścił stację i każdy inteligentny inwestor powinien wskoczyć do niego, zanim te produkty staną się „superinteligentne” i zaczną rozwiązywać wszystkie problemy świata. Kluczem do tej narracji jest obietnica, że duże modele językowe (LLM), takie jak ChatGPT, będą ulepszane w tempie wykładniczym.
Niektórzy sceptycy AI od lat ostrzegają przed „prawami skalowania” – ideą, że można stale poprawiać wyniki modelu, po prostu wrzucając do niego więcej danych i mocy obliczeniowej. Są to jednak nie tyle prawa, co domysły. Prawda jest taka, że nawet naukowcy, którzy budują modele LLM, nie rozumieją w pełni, jak one działają.
Opóźnienia i rozczarowujące wyniki nowej technologii
Według co najmniej trzech raportów z zeszłego tygodnia, niektóre z wiodących modeli językowych wydają się wykolejać – donosi CNN. Serwis informacyjny The Information zacytował anonimowych pracowników OpenAI, którzy powiedzieli, że niektórzy badacze firmy uważają, że jej kolejny flagowy model sztucznej inteligencji, Orion, „nie jest niezawodnie lepszy od swojego poprzednika w obsłudze niektórych zadań”. Bloomberg podał, że Orion „wypadł słabo” i „jak dotąd nie jest uważany za tak duży krok naprzód w stosunku do istniejących modeli OpenAI, jak GPT-4 w stosunku do GPT-3.5”.
Reuters donosi, że „naukowcy z głównych laboratoriów sztucznej inteligencji napotykają na opóźnienia i rozczarowujące wyniki w wyścigu o wydanie dużego modelu językowego, który przewyższa model GPT-4 OpenAI”.
Nawet Marc Andreessen, inwestor venture capital, który kiedyś napisał esej zatytułowany „Dlaczego sztuczna inteligencja uratuje świat”, powiedział niedawno w podcaście, że dostępne modele „w pewnym sensie osiągają ten sam pułap możliwości”. Dyrektor generalny OpenAI, Sam Altman, zdawał się odpierać te doniesienia, publikując w zeszłym tygodniu na X, że „nie ma ściany”, do której AI mogłoby dotrzeć.
Punkt zwrotny w rozwoju sztucznej inteligencji
Nawet fanatycy AI twierdzą, że możliwe jest, że osiągnęliśmy punkt zwrotny. „Od jakiegoś czasu nie widzieliśmy przełomowego modelu” – powiedział Gil Luria, dyrektor zarządzający w grupie inwestycyjnej D.A. Davidson. „Częściowo wynika to z faktu, że wyczerpaliśmy wszystkie ludzkie dane, więc po prostu rzucenie większej ilości obliczeń na te same dane może nie przynieść lepszych wyników”.
Ważne jest, by zrozumieć ograniczenia modeli. Aby maszyny AI działały jak ludzie, trzeba je trenować za pomocą ludzkich danych – zasadniczo wykorzystując każdy fragment tekstu lub dźwięku w Internecie. Gdy model pochłonie to wszystko, nie pozostanie nic „prawdziwego”, na czym można by go trenować.
To plateau niekoniecznie oznacza koniec rozwoju branży sztucznej inteligencji. Ale z pewnością nie jest to dobre dla obietnic złożonych inwestorom. Nvidia, główny producent chipów wyceniany na prawie 3,5 biliona dolarów, i inni główni gracze AI prawdopodobnie nie będą musieli od razu martwić się kwestią skalowania. Ale jeśli rzeczywiście uderzyliśmy w ścianę skalowania, „może to oznaczać, że firmy technologiczne o dużej kapitalizacji przeinwestowały” i możliwe jest, że w najbliższej przyszłości mogą zmniejszyć skalę – powiedział Luria.
Wycena oparta na fałszywych przesłankach
Wśród krytyków bańki AI jest Gary Marcus, emerytowany profesor NYU: „LLM nie znikną, nawet jeśli ulepszenia się zmniejszą, ale ekonomia prawdopodobnie nigdy nie będzie miała sensu... Kiedy wszyscy zdadzą sobie z tego sprawę, bańka finansowa może szybko pęknąć; nawet Nvidia może ucierpieć, gdy ludzie zdadzą sobie sprawę, w jakim stopniu jej wycena opierała się na fałszywych przesłankach”.