Technologie

Warum KI-Rechenzentren so viel Energie verbrauchen

KI-Rechenzentren verbrauchen bis zu zehnmal mehr Strom als herkömmliche Anlagen, was auf energiehungrige GPUs, massive Kühlsysteme und einen Rund-um-die-Uhr-Betrieb zurückzuführen ist. Da sich der globale Strombedarf von Rechenzentren bis 2030 voraussichtlich verdoppeln wird, verändert der Energiebedarf künstlicher Intelligenz die Stromnetze weltweit.

R
Redakcia
4 Min. Lesezeit
Teilen
Warum KI-Rechenzentren so viel Energie verbrauchen

Das Ausmaß des Problems

Jedes Mal, wenn jemand einem KI-Chatbot eine Frage stellt, ein Bild generiert oder einen intelligenten Assistenten verwendet, wird in einem Rechenzentrum irgendwo auf der Welt eine Kettenreaktion von Berechnungen ausgelöst. Diese einzelne KI-Abfrage verbraucht etwa zehnmal mehr Strom als eine herkömmliche Google-Suche – etwa 0,3 Wattstunden im Vergleich zu 0,0003 Kilowattstunden. Multipliziert man das mit Milliarden von täglichen Anfragen, werden die Zahlen schwindelerregend.

Der globale Stromverbrauch von Rechenzentren erreichte im Jahr 2024 schätzungsweise 415 Terawattstunden (TWh), was etwa 1,5 % des weltweiten Gesamtstromverbrauchs entspricht, so die Internationale Energieagentur (IEA). Allein in den Vereinigten Staaten verbrauchten Rechenzentren 183 TWh – mehr als 4 % des nationalen Stromverbrauchs. Die IEA prognostiziert, dass sich diese Zahl bis 2030 verdoppeln wird und jährlich um etwa 15 % wächst, viermal schneller als die Stromnachfrage aller anderen Sektoren zusammen.

Warum GPUs so energiehungrig sind

Der Hauptgrund ist die Hardware selbst. Herkömmliche Server, auf denen Websites und Datenbanken laufen, verbrauchen zwischen 300 und 500 Watt. Ein KI-optimierter Server, der mit Grafikprozessoren (GPUs) ausgestattet ist, verbraucht 3.000 bis 5.000 Watt oder mehr – bis zu zehnmal so viel Leistung, so MIT-Forscher.

Das Training eines großen KI-Modells erfordert Tausende von GPUs, die wochen- oder monatelang nahezu voll ausgelastet laufen. Während des Trainings arbeiten GPUs typischerweise mit etwa 93 % Kapazität und halten einen enormen, kontinuierlichen Stromverbrauch aufrecht, den herkömmliche Computer-Workloads nie erreicht haben. Auch nach dem Training erfordert jede KI-Antwort, die ein Benutzer erhält, Inferenz – den Prozess, Daten durch das fertige Modell zu schleusen –, was in der Summe noch mehr Energie verbraucht als das Training selbst, wenn die Nutzung skaliert.

Kühlung: Die versteckte Energiesteuer

GPUs und CPUs machen etwa 60 % der Stromrechnung eines Rechenzentrums aus. Ein Großteil des Restes entfällt auf die Kühlung. Server erzeugen intensive Hitze, und da KI die Leistungsdichte erhöht, steigt der Kühlbedarf im gleichen Maße.

Die meisten Anlagen setzen auf Verdunstungskühlung, die Wasser gegen Energieeffizienz eintauscht. Ein einzelnes großes Rechenzentrum kann fünf Millionen Gallonen Wasser pro Tag verbrauchen – das entspricht dem Bedarf einer Stadt mit 50.000 Einwohnern, so die Brookings Institution. In Northern Virginia, dem weltweit größten Rechenzentrumskorridor, verbrauchten die Anlagen im Jahr 2023 fast zwei Milliarden Gallonen Wasser, ein Anstieg von 63 % gegenüber 2019.

Wie die großen Technologieunternehmen reagieren

Die Branche verfolgt mehrere Strategien, um ihren wachsenden ökologischen Fußabdruck zu bewältigen:

  • Atomkraft: Meta hat Verträge über mehr als sechs Gigawatt Atomenergie abgeschlossen, genug, um etwa fünf Millionen Haushalte mit Strom zu versorgen. Microsoft und Amazon haben ähnliche Zusagen gemacht.
  • Fortschrittliche Kühlung: Direct-to-Chip- und Immersionskühlungstechnologien können den Wasserverbrauch um 20–90 % senken und den Strombedarf der Anlage je nach Klima und Design um bis zu 18 % reduzieren.
  • Software-Effizienz: Techniken wie Modellquantisierung und -destillation verkleinern KI-Modelle, sodass sie weniger Berechnungen pro Abfrage benötigen, wodurch der Energieverbrauch pro Antwort sinkt.
  • Beschaffung erneuerbarer Energien: Große Cloud-Anbieter haben zugesagt, 100 % ihres Stromverbrauchs durch den Kauf erneuerbarer Energien zu decken, obwohl Kritiker anmerken, dass dies oft auf bilanziellen Ausgleichsmaßnahmen und nicht auf direkter sauberer Energie beruht.

Wie es weitergeht

Die Richtung ist klar. Die IEA prognostiziert, dass die Vereinigten Staaten und China bis 2030 fast 80 % des globalen Stromwachstums von Rechenzentren ausmachen werden, wobei allein der US-Verbrauch um etwa 130 % steigen wird. Der von Meta geplante Hyperion-Campus in Louisiana wird mindestens fünf Gigawatt benötigen – das Dreifache des Stromverbrauchs von New Orleans – was das lokale Versorgungsunternehmen dazu veranlasst, den Bau neuer Gaskraftwerke zu beschleunigen.

Da KI in alles eingebettet wird, von der Gesundheitsdiagnostik bis hin zu autonomen Fahrzeugen, stellt sich nicht mehr die Frage, ob Rechenzentren die Stromnetze umgestalten werden, sondern wie schnell die Gesellschaften die Energieinfrastruktur aufbauen können, um Schritt zu halten.

Dieser Artikel ist auch in anderen Sprachen verfügbar:

Bleib auf dem Laufenden!

Folge uns auf Facebook für die neuesten Nachrichten und Artikel.

Folge uns auf Facebook

Verwandte Artikel