Jak działają centra danych AI – i dlaczego pochłaniają tyle energii
Centra danych AI zużywają ogromne ilości energii elektrycznej i wody do działania i chłodzenia tysięcy serwerów. Wyjaśniamy, jak działają, dlaczego popyt gwałtownie rośnie i co to oznacza dla sieci energetycznych i rachunków za media.
Maszynownia sztucznej inteligencji
Za każdym razem, gdy zadajesz chatbotowi AI pytanie, generujesz obraz lub korzystasz z narzędzia opartego na chmurze, Twoje żądanie trafia do centrum danych – obiektu wielkości magazynu wypełnionego tysiącami wyspecjalizowanych serwerów. Budynki te stanowią fizyczny kręgosłup rewolucji AI, a ich apetyt na energię elektryczną i wodę zmienia rynki energetyczne na całym świecie.
Co się dzieje wewnątrz centrum danych
Nowoczesne centrum danych AI mieści rzędy szaf serwerowych zawierających procesory graficzne (GPU) i inne akceleratory zoptymalizowane pod kątem masowych obliczeń równoległych wymaganych przez modele AI. Trenowanie pojedynczego dużego modelu językowego może wymagać tysięcy procesorów graficznych działających w sposób ciągły przez tygodnie lub miesiące. Nawet po wytrenowaniu każde zapytanie użytkownika – zwane inferencją – wymaga obliczeń w czasie rzeczywistym.
Całe to przetwarzanie generuje ogromne ciepło. Bez stałego chłodzenia chipy przegrzałyby się i uległy awarii w ciągu kilku minut. Wtedy w grę wchodzi drugi ważny zasób: woda.
Dlaczego potrzebują tak dużo wody
Woda przewodzi ciepło około 30 razy wydajniej niż powietrze, co czyni ją preferowanym medium chłodzącym dla obliczeń o dużej gęstości. Większość dużych centrów danych wykorzystuje jakąś formę chłodzenia wyparnego, gdzie ciepła woda pochłania ciepło z serwerów, a następnie jest chłodzona w wieżach przez parowanie. Proces ten jest energooszczędny, ale wymaga dużych ilości wody – pojedynczy obiekt hiperskalowy może zużywać do 5 milionów galonów wody dziennie, co odpowiada dziennemu zapotrzebowaniu miasta liczącego 50 000 mieszkańców, według Lincoln Institute of Land Policy.
Nowsze systemy zamkniętego obiegu recyrkulują wodę w szczelnych rurach, zmniejszając zużycie słodkiej wody nawet o 70%. Niektórzy operatorzy eksperymentują również z chłodzeniem immersyjnym, zanurzając całe serwery w nieprzewodzącej cieczy, aby całkowicie wyeliminować straty związane z parowaniem.
Problem z energią elektryczną
Centra danych zużyły około 176 terawatogodzin (TWh) energii elektrycznej w 2023 r. – około 4,4% całkowitej energii w USA, według Departamentu Energii USA. Lawrence Berkeley National Laboratory przewiduje, że liczba ta może osiągnąć od 325 do 580 TWh do 2028 r., czyli 6,7–12% całej amerykańskiej energii elektrycznej.
Koncentracja geograficzna jest uderzająca. W „Alei Centrów Danych” w Wirginii obiekty te zużywają już 26% całkowitej energii elektrycznej stanu. W regionie środkowoatlantyckim gwałtowny wzrost popytu spowodował 800% wzrost hurtowych cen energii podczas aukcji mocy w 2024 r., przy czym oczekuje się wzrostu stawek dla gospodarstw domowych o 20–30% do końca lat 20. XXI wieku, jak podaje Consumer Reports.
Sprzeciw społeczności i reakcja polityczna
Rosnące koszty mediów wywołały falę sprzeciwu. Ogólnokrajowe badanie wykazało, że 78% Amerykanów obawia się, że budowa nowych centrów danych zwiększy ich rachunki za energię. Grupy aktywistów w ponad 24 stanach zorganizowały się przeciwko proponowanym obiektom, powołując się na hałas, wyczerpywanie się zasobów wody, użytkowanie gruntów i przeciążone sieci energetyczne.
Ustawodawcy reagują. Do początku 2026 r. prawodawcy w ponad 30 stanach wprowadzili ponad 300 ustaw dotyczących wpływu centrów danych, od moratoriów na budowę po zmienione wymagania dotyczące ulg podatkowych. Maine stało się pierwszym stanem, który całkowicie ograniczył budowę dużych centrów danych, według The National Desk.
Co dalej
Branża realizuje kilka ścieżek w celu zmniejszenia swojego śladu. Bardziej wydajne architektury chipów obiecują zapewnić taką samą wydajność AI przy mniejszym zużyciu energii. Firmy technologiczne intensywnie inwestują w umowy na energię odnawialną i badają energię jądrową, w tym małe reaktory modułowe, w celu dostarczania dedykowanej czystej energii elektrycznej. Naukowcy zaprezentowali również algorytmy, które mogłyby zmniejszyć zużycie energii przez AI nawet 100 razy, jednocześnie poprawiając dokładność.
Niemniej jednak podstawowe napięcie pozostaje: wraz ze wzrostem możliwości AI i przyspieszeniem adopcji rośnie również infrastruktura fizyczna wymagana do ich obsługi. To, jak społeczeństwa zrównoważą korzyści płynące ze sztucznej inteligencji z jej rzeczywistymi kosztami zasobów, będzie jednym z najważniejszych pytań politycznych nadchodzącej dekady.