Technológia

Miért fogyasztanak annyi energiát a mesterséges intelligencia adatközpontjai?

A mesterséges intelligencia adatközpontjai akár tízszer annyi áramot fogyasztanak, mint a hagyományos létesítmények, ami a nagy energiaigényű GPU-knak, a hatalmas hűtőrendszereknek és a non-stop üzemelésnek köszönhető. Mivel a globális adatközpontok áramigénye várhatóan megduplázódik 2030-ra, a mesterséges intelligencia energiaigénye világszerte átalakítja az elektromos hálózatokat.

R
Redakcia
3 perc olvasás
Megosztás
Miért fogyasztanak annyi energiát a mesterséges intelligencia adatközpontjai?

A probléma nagysága

Valahányszor valaki kérdést tesz fel egy MI chatbotnak, képet generál, vagy okosasszisztenst használ, egy számítási láncreakció indul el egy adatközpontban valahol a világon. Ez az egyetlen MI-lekérdezés körülbelül tízszer annyi áramot fogyaszt, mint egy hagyományos Google-keresés – körülbelül 0,3 wattórát a 0,0003 kilowattórához képest. Ha ezt megszorozzuk a napi milliárdnyi kéréssel, a számok elképesztővé válnak.

A globális adatközpontok áramfogyasztása megközelítőleg 415 terawattóra (TWh) volt 2024-ben, ami a világ teljes áramfogyasztásának körülbelül 1,5%-át teszi ki a Nemzetközi Energiaügynökség (IEA) szerint. Egyedül az Egyesült Államokban az adatközpontok 183 TWh-t fogyasztottak – ami a nemzeti áramfogyasztás több mint 4%-a. Az IEA előrejelzése szerint ez a szám 2030-ra megduplázódik, évente körülbelül 15%-kal növekedve, ami négyszer gyorsabb, mint az összes többi ágazat áramigényének együttes növekedése.

Miért ilyen energiaigényesek a GPU-k?

A fő mozgatórugó maga a hardver. A weboldalakat és adatbázisokat futtató hagyományos szerverek 300 és 500 watt között fogyasztanak. Egy mesterséges intelligenciára optimalizált, grafikus processzorokkal (GPU-kkal) teli szerver 3000-5000 wattot vagy még többet fogyaszt – akár tízszer annyit, a MIT kutatói szerint.

Egy nagyméretű MI-modell betanításához több ezer GPU-ra van szükség, amelyek hetekig vagy hónapokig közel teljes kihasználtsággal futnak. A betanítás során a GPU-k jellemzően körülbelül 93%-os kapacitással működnek, ami hatalmas, folyamatos energiafelvételt eredményez, amit a hagyományos számítástechnikai terhelések soha nem közelítettek meg. Még a betanítás után is minden MI-válasz, amelyet a felhasználó kap, következtetést igényel – azaz az adatok futtatását a kész modellen keresztül –, ami együttesen még több energiát fogyaszt, mint maga a betanítás, ahogy a használat skálázódik.

Hűtés: A rejtett energiaadó

A GPU-k és a CPU-k az adatközpont villanyszámlájának körülbelül 60%-át teszik ki. A többi nagy része a hűtésre megy el. A szerverek intenzív hőt termelnek, és ahogy a mesterséges intelligencia egyre nagyobb energiasűrűséget követel, a hűtési igények is ezzel párhuzamosan nőnek.

A legtöbb létesítmény párologtató hűtésre támaszkodik, ami a víz és az energiahatékonyság közötti kompromisszumot jelenti. Egyetlen nagy adatközpont napi ötmillió gallon vizet is elfogyaszthat – ami egy 50 000 fős város szükségleteinek felel meg a Brookings Intézet szerint. Észak-Virginiában, a világ legnagyobb adatközpont-folyosóján a létesítmények 2023-ban közel kétmilliárd gallon vizet fogyasztottak, ami 63%-os növekedés 2019-hez képest.

Hogyan reagál a Big Tech?

Az iparág számos stratégiát követ a növekvő ökológiai lábnyom kezelésére:

  • Atomenergia: A Meta több mint hat gigawattnyi atomenergiára kötött szerződést, ami körülbelül ötmillió otthon ellátásához elegendő. A Microsoft és az Amazon hasonló kötelezettségeket vállalt.
  • Fejlett hűtés: A közvetlenül a chipre irányuló és a folyadékhűtési technológiák 20-90%-kal csökkenthetik a vízfogyasztást, és akár 18%-kal is csökkenthetik a létesítmények energiaigényét, az éghajlattól és a tervezéstől függően.
  • Szoftveres hatékonyság: Az olyan technikák, mint a modellkvantálás és a desztilláció zsugorítják a MI-modelleket, így kevesebb számításra van szükség lekérdezésenként, csökkentve az energiafelhasználást válaszonként.
  • Megújuló energia beszerzése: A nagy felhőszolgáltatók megígérték, hogy áramfogyasztásuk 100%-át megújuló energia vásárlásával fedezik, bár a kritikusok megjegyzik, hogy ez gyakran könyvelési kompenzációkra támaszkodik, nem pedig közvetlen tiszta energiára.

Mi következik?

A pálya egyértelmű. Az IEA előrejelzése szerint az Egyesült Államok és Kína adja majd a globális adatközpontok áramfogyasztásának közel 80%-át 2030-ig, és csak az Egyesült Államok fogyasztása körülbelül 130%-kal fog emelkedni. A Meta tervezett louisianai Hyperion kampuszához legalább öt gigawattra lesz szükség – ami New Orleans áramfogyasztásának háromszorosa –, ami arra készteti a helyi közműszolgáltatót, hogy felgyorsítsa az új gáztüzelésű erőművek építését.

Ahogy a mesterséges intelligencia beépül mindenbe, az egészségügyi diagnosztikától az autonóm járművekig, a kérdés már nem az, hogy az adatközpontok átalakítják-e az elektromos hálózatokat, hanem az, hogy a társadalmak milyen gyorsan tudják kiépíteni az energia infrastruktúrát, hogy lépést tartsanak.

Ez a cikk más nyelveken is elérhető:

Kapcsolódó cikkek