Zapotrzebowanie AI na prąd wkrótce zrówna się ze zużyciem energii Irlandii

System WIRE, służy do wymiany informacji handlowych, technicznych i rozliczeniowych energii elektrycznej.
System WIRE, służy do wymiany informacji handlowych, technicznych i rozliczeniowych energii elektrycznej. / Fot. Unsplash.com
Czy AI potrzebuje dużo prądu do pracy? Zdecydowanie tak i jej zapotrzebowanie stale rośnie.

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Często słyszymy o uzasadnionych obawach dotyczących nowej fali generatywnej sztucznej inteligencji - od pracy ludzkiej, którą może zastąpić, po jej potencjał do tworzenia fałszywych informacji. Ale jednym z obszarów, który często jest pomijany, jest ogromna ilość energii elektrycznej, którą te systemy zużywają. W nieodległej przyszłości technologia może konsumować tyle samo energii elektrycznej, co cały kraj.

Alex de Vries, badacz z Vrije Universiteit w Amsterdamie, jest autorem raportu "Rosnący ślad energetyczny sztucznej inteligencji", który bada wpływ systemów AI na środowisko.

De Vries zauważa, że faza szkoleniowa dużych modeli językowych jest często uważana za najbardziej energochłonną i dlatego była przedmiotem badań dotyczących zrównoważonego rozwoju w dziedzinie AI.

Sztuczna inteligencja zużywa ogromne ilości prądu

Po szkoleniu modele są wdrażane do środowiska produkcyjnego i rozpoczynają fazę wnioskowania. W przypadku ChatGPT obejmuje to generowanie odpowiedzi na bieżąco na zapytania użytkowników. 

Mało badań poświęcono fazie wnioskowania, ale De Vries uważa, że są przesłanki, że ten okres może znacząco przyczynić się do kosztów cyklu życia modelu AI.

Według firmy badawczej SemiAnalysis, OpenAI wymagało 3617 serwerów Nvidia HGX A100, z sumą 28 936 GPU (procesory graficzne), aby obsługiwać ChatGPT, co sugeruje zapotrzebowanie na energię wynoszące 564 MWh dziennie. Dla porównania, szacuje się, że w fazie szkolenia GPT-3 zużyto 1287 MWh, więc zapotrzebowanie na energię w fazie wnioskowania było znacznie wyższe.

Google, które poinformowało, że 60% konsumpcji energii związaną z AI od 2019 do 2021 roku pochodziło z wnioskowania, integruje już funkcje AI ze swoją wyszukiwarką. W lutym przewodniczący Alphabet, John Hennessy, powiedział, że pojedyncza wymiana użytkownika z usługą wyszukiwania zasilaną przez AI "prawdopodobnie kosztuje dziesięć razy więcej niż standardowe wyszukiwanie słów kluczowych".

SemiAnalysis szacuje, że wdrożenie AI podobnej do ChatGPT do każdego pojedynczego wyszukiwania w Google wymagałoby 512 821 serwerów A100 HGX, i łącznie 4 102 568 GPU. 

Przy zapotrzebowaniu na moc wynoszącym 6,5 kW na serwer, przekładałoby się to na dzienne zużycie energii elektrycznej wynoszące 80 GWh i roczne zużycie wynoszące 29,2 TWh, czyli mniej więcej tyle, ile zużywa co roku cała Irlandia.

Taki scenariusz jest mało prawdopodobny, aby miał miejsce w najbliższym czasie, choćby dlatego, że Nvidia nie ma zdolności produkcyjnych, aby dostarczyć ponad pół miliona serwerów HGX, a Google musiałoby wydać na nie 100 mld dolarów.

Nvidia produkuje najwięcej chipów do AI

Oprócz hipotetycznych rozważań, w raporcie zauważono, że oczekuje się, że lider rynku, Nvidia, dostarczy w 2023 roku 100 000 swoich serwerów AI. Działając z pełną mocą, te serwery miałyby łączne zapotrzebowanie na prąd wynoszące 650 – 1020 MW, zużywając do 5,7 – 8,9 TWh energii elektrycznej rocznie. 

Jest to ilość prawie znikoma w porównaniu z rocznym zużyciem energii przez centra danych (205 TWh). Jednak do 2027 roku Nvidia może wysyłać 1,5 miliona jednostek serwerów AI, zwiększając ich roczne wskaźniki zużycia energii do 85,4 – 134 TWh. To mniej więcej tyle, ile zużywa kraj taki jak Argentyna, Holandia czy Szwecja.

"Byłoby zalecane, aby programiści nie tylko skupiali się na optymalizacji AI, ale także krytycznie rozważali konieczność korzystania z AI w pierwszej kolejności, ponieważ nie jest prawdopodobne, aby wszystkie aplikacje odniosły korzyści z AI, lub że korzyści zawsze przeważą nad kosztami" — powiedział De Vries.

ZOBACZ RÓWNIEŻ