Dlaczego centra danych AI zużywają tak dużo energii?
Centra danych AI zużywają nawet dziesięciokrotnie więcej energii elektrycznej niż tradycyjne obiekty, głównie ze względu na energochłonne procesory graficzne (GPU), rozbudowane systemy chłodzenia i całodobową pracę. Prognozuje się, że globalne zapotrzebowanie centrów danych na energię elektryczną podwoi się do 2030 roku, a ślad energetyczny sztucznej inteligencji zmienia krajobraz sieci energetycznych na całym świecie.
Skala problemu
Za każdym razem, gdy ktoś zadaje pytanie chatbotowi AI, generuje obraz lub korzysta z inteligentnego asystenta, w centrum danych gdzieś na świecie uruchamia się reakcja łańcuchowa obliczeń. To pojedyncze zapytanie AI zużywa mniej więcej dziesięć razy więcej energii elektrycznej niż tradycyjne wyszukiwanie w Google – około 0,3 watogodziny w porównaniu z 0,0003 kilowatogodziny. Pomnóż to przez miliardy codziennych zapytań, a liczby stają się oszałamiające.
Globalne zużycie energii elektrycznej przez centra danych osiągnęło w przybliżeniu 415 terawatogodzin (TWh) w 2024 roku, co stanowi około 1,5% całkowitego zużycia energii elektrycznej na świecie, według Międzynarodowej Agencji Energetycznej (IEA). W samych Stanach Zjednoczonych centra danych zużyły 183 TWh – ponad 4% krajowego zużycia energii elektrycznej. IEA prognozuje, że liczba ta podwoi się do 2030 roku, rosnąc w tempie około 15% rocznie, cztery razy szybciej niż zapotrzebowanie na energię elektryczną ze wszystkich pozostałych sektorów łącznie.
Dlaczego GPU są tak energochłonne?
Głównym czynnikiem jest sam sprzęt. Tradycyjne serwery obsługujące strony internetowe i bazy danych pobierają od 300 do 500 watów. Serwer zoptymalizowany pod kątem AI, wyposażony w procesory graficzne (GPU), pobiera od 3000 do 5000 watów lub więcej – nawet dziesięć razy więcej energii, według badaczy z MIT.
Szkolenie dużego modelu AI wymaga tysięcy procesorów graficznych działających z niemal pełnym wykorzystaniem przez tygodnie lub miesiące. Podczas szkolenia procesory graficzne zazwyczaj działają z wydajnością około 93%, utrzymując ogromny, ciągły pobór mocy, do którego tradycyjne obciążenia obliczeniowe nigdy się nie zbliżyły. Nawet po szkoleniu każda odpowiedź AI, którą otrzymuje użytkownik, wymaga inferencji – procesu przepuszczania danych przez gotowy model – co łącznie zużywa jeszcze więcej energii niż samo szkolenie, w miarę wzrostu skali użytkowania.
Chłodzenie: Ukryty podatek energetyczny
Procesory graficzne i CPU odpowiadają za około 60% rachunku za energię elektryczną centrum danych. Znaczna część reszty idzie na chłodzenie. Serwery generują intensywne ciepło, a wraz ze wzrostem gęstości mocy przez AI, zapotrzebowanie na chłodzenie rośnie w ślad za tym.
Większość obiektów opiera się na chłodzeniu wyparnym, które zamienia wodę na efektywność energetyczną. Pojedyncze duże centrum danych może zużywać pięć milionów galonów wody dziennie – co odpowiada potrzebom miasta liczącego 50 000 mieszkańców, według Brookings Institution. W Północnej Wirginii, największym na świecie korytarzu centrów danych, obiekty zużyły prawie dwa miliardy galonów wody w 2023 roku, co stanowi wzrost o 63% w porównaniu z 2019 rokiem.
Jak reagują Big Techy
Branża realizuje kilka strategii zarządzania swoim rosnącym śladem:
- Energia jądrowa: Meta podpisała umowy na ponad sześć gigawatów energii jądrowej, co wystarcza do zasilenia około pięciu milionów domów. Microsoft i Amazon podjęły podobne zobowiązania.
- Zaawansowane chłodzenie: Technologie chłodzenia bezpośrednio do chipu i chłodzenia zanurzeniowego mogą zmniejszyć zużycie wody o 20–90% i obniżyć zapotrzebowanie obiektu na energię nawet o 18%, w zależności od klimatu i projektu.
- Efektywność oprogramowania: Techniki takie jak kwantyzacja i destylacja modelu zmniejszają modele AI, dzięki czemu wymagają mniej obliczeń na zapytanie, zmniejszając zużycie energii na odpowiedź.
- Zamówienia energii odnawialnej: Główni dostawcy usług w chmurze zobowiązali się do zrównoważenia 100% zużycia energii elektrycznej zakupami energii odnawialnej, chociaż krytycy zauważają, że często opiera się to na kompensatach księgowych, a nie na bezpośredniej czystej energii.
Co dalej
Trajektoria jest jasna. IEA prognozuje, że Stany Zjednoczone i Chiny będą odpowiadać za prawie 80% globalnego wzrostu zużycia energii elektrycznej przez centra danych do 2030 roku, przy czym samo zużycie w USA wzrośnie o około 130%. Planowany kampus Hyperion firmy Meta w Luizjanie będzie wymagał co najmniej pięciu gigawatów – trzy razy więcej niż zużycie energii elektrycznej w Nowym Orleanie – co skłoniło lokalny zakład energetyczny do przyspieszenia budowy nowych elektrowni gazowych.
W miarę jak AI staje się integralną częścią wszystkiego, od diagnostyki opieki zdrowotnej po autonomiczne pojazdy, pytanie nie brzmi już, czy centra danych przekształcą sieci energetyczne, ale jak szybko społeczeństwa mogą zbudować infrastrukturę energetyczną, aby nadążyć za tym tempem.