Technologie

Jak datová centra pro umělou inteligenci spotřebovávají tolik energie

Každý dotaz na umělou inteligenci spotřebuje mnohem více elektřiny než standardní vyhledávání na webu. S tím, jak se datová centra globálně množí, se umělá inteligence stává jedním z nejrychleji rostoucích faktorů poptávky po elektřině – s významnými důsledky pro elektrické sítě, náklady na energii a klima.

R
Redakcia
Share
Jak datová centra pro umělou inteligenci spotřebovávají tolik energie

Skrytá energie za každou odpovědí umělé inteligence

Když zadáte otázku do chatbota s umělou inteligencí, odpověď se zdá být okamžitá a nehmotná. Ve skutečnosti čerpá z obrovských bank specializovaných procesorů umístěných v budovách o velikosti skladů, které běží nepřetržitě – a spotřebovávají obrovské množství elektřiny a vody jen proto, aby udržely své obvody chladné.

Podle Mezinárodní energetické agentury (IEA) spotřebuje jediný dotaz ve stylu ChatGPT zhruba desetkrát více elektřiny než běžné vyhledávání Google. Standardní vyhledávání na webu spotřebuje přibližně 0,0003 kilowatthodin; dotaz na umělou inteligenci může spotřebovat kolem 0,0026 kWh. Jednotlivě jsou tato čísla nepatrná – ale vynásobená miliardami denních požadavků se sčítají do ohromující energetické náročnosti průmyslového rozsahu.

Co se děje uvnitř datového centra

Datové centrum je v podstatě továrna na výpočty. Řady serverů – účelově postavené čipy zvané GPU (grafické procesorové jednotky) a novější akcelerátory umělé inteligence – provádějí matematické operace, které pohánějí velké jazykové modely a generátory obrázků. Tyto čipy generují intenzivní teplo, které musí být neustále odváděno.

Přibližně 60 % elektřiny datového centra jde přímo na provoz serverů. Zbytek napájí chladicí systémy – chladiče, ventilátory a v novějších zařízeních smyčky kapalinového chlazení, které vedou vodu přímo přes procesory. Environmental and Energy Study Institute odhaduje, že datová centra spotřebovala v roce 2023 zhruba 560 miliard litrů vody pouze pro účely chlazení.

Účinnost se měří metrikou zvanou Power Usage Effectiveness (PUE) – poměr celkového výkonu zařízení k výkonu IT zařízení. Perfektní skóre je 1,0; většina hyperscale zařízení (provozovaných společnostmi Google, Microsoft, Amazon) dosahuje 1,1–1,2, zatímco starší podniková datová centra mohou dosáhnout 1,5 nebo vyšší, čímž plýtvají o polovinu více energie na chlazení.

Proč se umělá inteligence liší od dřívějších výpočetních systémů

Tradiční servery zvládají relativně nenáročné úkoly – ukládání souborů, obsluhu webových stránek, provoz databází. Trénink a inference umělé inteligence jsou výpočetně mnohem náročnější. Trénink velkého jazykového modelu od nuly může spotřebovat tolik elektřiny jako stovky transatlantických letů. Dokonce i inference – generování jediné odpovědi – vyžaduje hustou kaskádu násobení matic napříč miliardami parametrů.

Počet serverů akcelerovaných pro umělou inteligenci roste o 30 % ročně v poptávce po energii, podle IEA, ve srovnání s pouhými 9 % u konvenčních serverů. Do roku 2030 by se podíl umělé inteligence na celkové spotřebě elektřiny v datových centrech mohl zvýšit z dnešních 5–15 % až na 50 %.

Rozsah problému

Globální spotřeba elektřiny datovými centry činila v roce 2024 zhruba 415 terawatthodin (TWh) – přibližně 1,5 % veškeré elektřiny spotřebované na Zemi. Základní projekce IEA předpokládá, že toto číslo se do roku 2030 více než zdvojnásobí na 945 TWh, což odpovídá celkové roční spotřebě elektřiny Japonska.

Spojené státy jsou epicentrem výstavby. Pew Research uvádí, že datová centra v USA již nyní představují přibližně 4 % národní spotřeby elektřiny, přičemž se předpokládá, že do roku 2028 dosáhne 7–12 %. V Irsku by datová centra mohla spotřebovat 32 % celkové elektřiny země do roku 2026, což zatíží síť, která nikdy nebyla navržena pro tak koncentrované průmyslové zatížení.

Carbon Brief poznamenává, že datová centra a sítě pro přenos dat dohromady představují zhruba 1 % globálních emisí CO₂ – podíl, který roste v souladu s poptávkou.

Může efektivita držet krok?

Technologický průmysl tvrdí, že vylepšení hardwaru a softwaru zmírní nejhorší dopady. Novější čipy pro umělou inteligenci jsou výrazně účinnější než jejich předchůdci a techniky komprese modelů snižují náklady na inference. Interní data společnosti Google, publikovaná MIT Technology Review, naznačují, že typický dotaz Gemini AI spotřebuje kolem 0,24 watthodin – zhruba energii potřebnou k provozu mikrovlnné trouby po dobu jedné sekundy – což je mnohem méně než dřívější odhady nejhoršího případu.

Scénář IEA s „vysokou účinností“ předpokládá, že poptávka datových center by mohla být v roce 2035 o 20 % nižší než v základním scénáři, pokud budou široce přijaty hardwarové zisky a chytřejší architektury modelů. Poptávka však také roste rychleji než zlepšení účinnosti, což znamená, že absolutní spotřeba bude stále podstatně růst.

Co to znamená pro síť – a vaše účty

Energetické společnosti a provozovatelé sítí se snaží držet krok. Datová centra se staví rychleji, než je možné povolit a připojit nové elektrárny. Výsledkem je tlak na stávající infrastrukturu, potenciální rizika spolehlivosti během špičkové poptávky a tlak na růst cen elektřiny pro domácnosti a podniky v okolí.

Dohody o obnovitelné energii – přímé dohody o nákupu energie mezi technologickými giganty a větrnými nebo solárními farmami – se staly preferovanou odpovědí průmyslu na obavy z uhlíku i omezení sítě. Intermitence obnovitelných zdrojů však znamená, že datová centra často stále čerpají z fosilních paliv, když nesvítí slunce nebo nefouká vítr.

Energetická otázka umělé inteligence je v konečném důsledku otázkou veřejné politiky: jak se společnosti rozhodnou napájet digitální infrastrukturu, která se rychle stává stejně nezbytnou jako silnice nebo vodovodní systémy.

Tento článek je dostupný také v jiných jazycích:

Zůstaňte v obraze!

Sledujte nás na Facebooku a nic vám neunikne.

Sledujte nás na Facebooku

Související články