A te pracują w serwerach tworzących ogromne centra danych. Każde z nich zużywa mnóstwo energii elektrycznej, ponieważ bezemisyjne rozwiązania w tej branży nie są jeszcze powszechnie wykorzystywane. Oznacza, że „przyuczanie” algorytmów sztucznej inteligencji do wykonywania określonych zadań może wiązać się z olbrzymimi emisjami CO2.

Sukces ChatGPT od OpenAI spowodował, że takie tuzy, jak Microsoft czy Alphabet, opracowują własne konkurencyjne systemy sztucznej inteligencji i chatboty. Szkolenie jednego modelu może pochłonąć więcej energii elektrycznej niż 100 amerykańskich domów przez cały rok. Mimo to sektor AI rozwija się bardzo szybko i nie zachowuje przy tym pełnej transparentności. Dlatego trudno jest dokładnie oszacować, czy technologiczni giganci zużywają więcej energii z wysokoemisyjnych elektrowni węglowych i gazowych, czy z farm solarnych i wiatrowych.

Większa przejrzystość w służbie ochrony klimatu

Reklama

Naukowcy badający temat AI twierdzą, że potrzeba większej przejrzystości w zakresie zużycia energii i emisji dla różnych modeli sztucznej inteligencji. W czasach, gdy Zachód stara się maksymalnie ograniczyć produkcję CO2, informacje te pomogłyby ustalić, które działania, np. badanie leków na raka, warto rozwijać z pomocą tej technologii, a jakie na obecnym etapie będą jedynie szkodzić klimatowi.

Doskonale pokazuje to przykład oprogramowania GPT-3. Ten model językowy wykorzystuje uczenie maszynowe do tworzenia tekstów, które mają przekonać czytelnika, że napisał je realny człowiek. Z opublikowanego w 2021 roku raportu, na jaki powołują się Josh Saul i Dina Bassw z Bloomberg.com wynika, że osiągnięcie takiego poziomu rozwoju zajęło algorytmowi od OpenAI 1,287 gigawatogodzin. To mniej więcej tyle samo energii elektrycznej, ile zużyło 120 amerykańskich domów w 2021 roku.

Według tego samego artykułu kolejne „doszkalanie” algorytmu wygenerowało 502 tony CO2, czyli tyle, ile blisko 110 amerykańskich samochodów emituje rocznie. Dane te dotyczą tylko jednego modelu sztucznej inteligencji. Dla porównania AI od Google w ciągu roku spala około 2,3 terawatogodzin rocznie, czyli mniej więcej tyle samo energii elektrycznej, co wszystkie domy w mieście wielkości Atlanty.

Jak osiągnąć zerową emisyjność?

Według naukowców najwięcej energii sztuczna inteligencja zużywa na początku „nauki”. Potem trzeba ją regularnie poddawać swoistemu treningowi - bez tego nie byłaby na bieżąco z aktualnymi wydarzeniami. „Jeśli nie przeszkoliłbyś (z ang. retrain - przyp. red.) swojego modelu, nie wiedziałby o Covid-19” – twierdzi Emma Strubell, profesor na Carnegie Mellon University, jedna z pierwszych badaczy, którzy przyjrzeli się problemowi poziomu zużycia energii przez sztuczną inteligencję.

Dodatkowo AI są coraz większe. GPT-3 OpenAI wykorzystuje 175 miliardów parametrów lub zmiennych, których system sztucznej inteligencji nauczył się podczas pierwotnego szkolenia i bieżącego uzupełniania „wiedzy”. Jego poprzednikowi „wystarczało” zaledwie 1,5 miliarda. Modele sztucznej inteligencji stają się coraz większe, dlatego firmy je tworzące starają się je ulepszać, by działały coraz wydajniej. Co może oznaczać, że będą one odpowiedzialne za coraz mniejsze emisje dwutlenku węgla.

Co na to najwięksi w branży AI?

Na razie jednak pozostajemy w sferze obietnic i deklaracji składanych przez technologicznych gigantów. Google oświadczył, że dąży do zerowej emisji netto w całej swojej działalności do 2030 roku. Spółka korzysta również ze sztucznej inteligencji do poprawy efektywności energetycznej w swoich centrach danych: technologia bezpośrednio zarządza chłodzeniem w tych obiektach.

OpenAI natomiast zwiększył wydajność interfejsu programowania aplikacji dla ChatGPT, przez co zmniejszył zużycie energii elektrycznej i obniżył cenę dla klientów. „OpenAI działa na platformie Azure i ściśle współpracujemy z zespołem firmy Microsoft w celu poprawy wydajności i lepszego wykorzystania dużych modeli językowych”- poinformował rzecznik firmy w oświadczeniu.

Microsoft natomiast stawia na energię odnawialną i podejmuje inne kroki, aby osiągnąć swój cel zmniejszenia emisji dwutlenku węgla do 2030 roku. „W ramach naszego zobowiązania do tworzenia bardziej zrównoważonej przyszłości Microsoft inwestuje w badania mające na celu pomiar zużycia energii i wpływu sztucznej inteligencji na emisję CO2, jednocześnie pracując nad sposobami zwiększenia wydajności dużych systemów, zarówno pod względem szkolenia, jak i zastosowania” – podała spółka.

Im szybciej tym lepiej dla klimatu

Większość centrów danych używa procesorów graficznych do trenowania modeli AI, a komponenty te należą do najbardziej energochłonnych w branży układów scalonych. Według raportu opublikowanego przez analityków Morgan Stanley na początku tego miesiąca, duże modele wymagają dziesiątek tysięcy procesorów graficznych, a program szkoleniowy trwa od kilku tygodni do kilku miesięcy.

Nvidia, jeden z największych producentów kart graficznych twierdzi, że zwielokrotniają one proces szkolenia AI. „Wykorzystując procesory graficzne, znacząco przyspiesza się proces uczenia się sztucznej inteligencji niż (przy wykorzystaniu innych - red.) procesorów. Jest to także 20 razy bardziej energooszczędne w przypadku niektórych zadań AI i do 300 razy wydajniejsze w przypadku dużych modeli językowych, które są niezbędne dla generatywnej sztucznej inteligencji” – oświadczyła Nvidia.

Według Sashy Luccioni, badaczki w firmie zajmującej się sztuczną inteligencją Hugging Face, jedną z większych tajemnic sztucznej inteligencji jest całkowita emisja dwutlenku węgla związana z działaniem procesorów graficznych. Chociaż Nvidia ujawniła swoje bezpośrednie i pośrednie emisje związane z energią, nie ujawniła wszystkich emisji, za które pośrednio odpowiada, uważa Luccioni, która poprosiła o te dane do swoich badań. Pełna analiza tych danych może ujawnić fakt, że procesory graficzne spalają tyle samo, co całkowite emisje małego kraju, dodała ekspertka.