Jak centra danych AI pochłaniają tak dużo energii?
Każde zapytanie do sztucznej inteligencji zużywa znacznie więcej energii elektrycznej niż standardowe wyszukiwanie w internecie. Wraz z globalnym wzrostem liczby centrów danych, AI staje się jednym z najszybciej rosnących czynników napędzających popyt na energię elektryczną – co ma poważne konsekwencje dla sieci energetycznych, kosztów energii i klimatu.
Ukryta moc kryjąca się za każdą odpowiedzią AI
Kiedy wpisujesz pytanie do chatbota AI, odpowiedź wydaje się natychmiastowa i lekka. W rzeczywistości korzysta ona z ogromnych banków wyspecjalizowanych procesorów umieszczonych w budynkach wielkości magazynów, które działają przez całą dobę – zużywając ogromne ilości energii elektrycznej i wody tylko po to, by utrzymać chłód obwodów.
Według Międzynarodowej Agencji Energetycznej (IEA), pojedyncze zapytanie w stylu ChatGPT zużywa około dziesięć razy więcej energii elektrycznej niż konwencjonalne wyszukiwanie w Google. Standardowe wyszukiwanie w internecie zużywa około 0,0003 kilowatogodziny; zapytanie AI może zużywać około 0,0026 kWh. Indywidualnie liczby te są niewielkie – ale pomnożone przez miliardy codziennych zapytań, składają się na oszałamiający popyt na energię na skalę przemysłową.
Co się dzieje wewnątrz centrum danych
Centrum danych to zasadniczo fabryka obliczeń. Rzędy serwerów – specjalnie zbudowane chipy zwane GPU (jednostki przetwarzania grafiki) i nowsze akceleratory AI – wykonują operacje matematyczne, które napędzają duże modele językowe i generatory obrazów. Te chipy generują intensywne ciepło, które musi być stale odprowadzane.
Około 60% energii elektrycznej centrum danych trafia bezpośrednio do zasilania serwerów. Pozostała część zasila systemy chłodzenia – chillery, wentylatory, a w nowszych obiektach pętle chłodzenia cieczą, które doprowadzają wodę bezpośrednio do procesorów. Environmental and Energy Study Institute szacuje, że centra danych zużyły w 2023 roku około 560 miliardów litrów wody tylko na cele chłodzenia.
Efektywność mierzy się za pomocą wskaźnika zwanego Power Usage Effectiveness (PUE) – stosunku całkowitej mocy obiektu do mocy urządzeń IT. Idealny wynik to 1,0; większość obiektów hiperskalowych (prowadzonych przez Google, Microsoft, Amazon) osiąga 1,1–1,2, podczas gdy starsze korporacyjne centra danych mogą osiągać 1,5 lub więcej, marnując o połowę więcej energii na chłodzenie.
Dlaczego AI różni się od wcześniejszych obliczeń
Tradycyjne serwery obsługują stosunkowo lekkie zadania – przechowywanie plików, obsługę stron internetowych, uruchamianie baz danych. Trenowanie i wnioskowanie AI są obliczeniowo znacznie bardziej intensywne. Trenowanie dużego modelu językowego od podstaw może zużyć tyle energii elektrycznej, co setki lotów transatlantyckich. Nawet wnioskowanie – generowanie pojedynczej odpowiedzi – wymaga gęstej kaskady mnożeń macierzy na miliardach parametrów.
Zapotrzebowanie na energię serwerów akcelerowanych dedykowanych AI rośnie o 30% rocznie, według IEA, w porównaniu do zaledwie 9% w przypadku konwencjonalnych serwerów. Do 2030 roku udział AI w całkowitym zużyciu energii elektrycznej przez centra danych może wzrosnąć z dzisiejszych 5–15% do nawet 50%.
Skala problemu
Globalne zużycie energii elektrycznej przez centra danych wyniosło w 2024 roku około 415 terawatogodzin (TWh) – około 1,5% całej energii elektrycznej zużytej na Ziemi. Bazowa prognoza IEA przewiduje, że liczba ta wzrośnie ponad dwukrotnie do 945 TWh do 2030 roku, co odpowiada całemu rocznemu zużyciu energii elektrycznej w Japonii.
Stany Zjednoczone są epicentrum tej rozbudowy. Pew Research donosi, że amerykańskie centra danych odpowiadają już za około 4% krajowego zużycia energii elektrycznej, a prognozuje się, że do 2028 roku liczba ta osiągnie 7–12%. W Irlandii centra danych mogą zużywać 32% całkowitej energii elektrycznej kraju do 2026 roku, obciążając sieć, która nigdy nie została zaprojektowana do tak skoncentrowanych obciążeń przemysłowych.
Carbon Brief zauważa, że centra danych i sieci transmisji danych razem odpowiadają za około 1% globalnej emisji CO₂ – udział rosnący wraz z popytem.
Czy efektywność nadąży?
Branża technologiczna argumentuje, że ulepszenia sprzętu i oprogramowania złagodzą najgorsze skutki. Nowsze chipy AI są znacznie bardziej wydajne niż ich poprzednicy, a techniki kompresji modeli zmniejszają koszty wnioskowania. Wewnętrzne dane Google, opublikowane przez MIT Technology Review, sugerują, że typowe zapytanie Gemini AI zużywa około 0,24 watogodziny – mniej więcej tyle energii, co uruchomienie kuchenki mikrofalowej na jedną sekundę – znacznie mniej niż wcześniejsze szacunki w najgorszym przypadku.
Scenariusz „wysokiej efektywności” IEA przewiduje, że zapotrzebowanie centrów danych może być o 20% niższe w 2035 roku niż w scenariuszu bazowym, jeśli zostaną powszechnie przyjęte zyski sprzętowe i inteligentniejsze architektury modeli. Ale popyt rośnie również szybciej niż poprawa efektywności, co oznacza, że bezwzględne zużycie nadal znacznie wzrośnie.
Co to oznacza dla sieci – i Twoich rachunków
Przedsiębiorstwa użyteczności publicznej i operatorzy sieci starają się nadążyć. Centra danych są budowane szybciej niż można uzyskać pozwolenia i podłączyć nowe elektrownie. Skutkiem jest presja na istniejącą infrastrukturę, potencjalne ryzyko niezawodności podczas szczytowego zapotrzebowania oraz presja na wzrost cen energii elektrycznej dla gospodarstw domowych i pobliskich firm.
Umowy na energię odnawialną – bezpośrednie umowy zakupu energii między gigantami technologicznymi a farmami wiatrowymi lub słonecznymi – stały się preferowaną odpowiedzią branży zarówno na obawy dotyczące emisji dwutlenku węgla, jak i ograniczenia sieci. Ale przerywany charakter energii odnawialnej oznacza, że centra danych często nadal czerpią energię z paliw kopalnych, gdy słońce nie świeci lub wiatr nie wieje.
Kwestia energii AI jest ostatecznie kwestią polityki publicznej: jak społeczeństwa zdecydują się zasilać infrastrukturę cyfrową, która szybko staje się tak samo niezbędna jak drogi czy systemy wodociągowe.