Technologie

Wie KI-Rechenzentren so viel Energie verbrauchen

Jede KI-Anfrage verbraucht weitaus mehr Strom als eine herkömmliche Websuche. Da die Zahl der Rechenzentren weltweit rasant zunimmt, entwickelt sich KI zu einem der Haupttreiber des steigenden Strombedarfs – mit erheblichen Folgen für Stromnetze, Energiekosten und das Klima.

R
Redakcia
Share
Wie KI-Rechenzentren so viel Energie verbrauchen

Die verborgene Energie hinter jeder KI-Antwort

Wenn man eine Frage in einen KI-Chatbot eingibt, fühlt sich die Antwort sofortig und schwerelos an. In Wirklichkeit greift sie auf riesige Mengen spezialisierter Prozessoren zurück, die in lagerhausgroßen Gebäuden untergebracht sind und rund um die Uhr laufen – und dabei enorme Mengen an Strom und Wasser verbrauchen, nur um ihre Schaltkreise zu kühlen.

Laut der Internationalen Energieagentur (IEA) verbraucht eine einzelne Anfrage im ChatGPT-Stil etwa zehnmal mehr Strom als eine herkömmliche Google-Suche. Eine Standard-Websuche verbraucht etwa 0,0003 Kilowattstunden; eine KI-Eingabeaufforderung kann etwa 0,0026 kWh verbrauchen. Einzeln betrachtet sind diese Zahlen winzig – aber multipliziert mit Milliarden von täglichen Anfragen summieren sie sich zu einem enormen Energiebedarf im industriellen Maßstab.

Was in einem Rechenzentrum passiert

Ein Rechenzentrum ist im Wesentlichen eine Fabrik für Berechnungen. Reihen von Servern – speziell entwickelte Chips, sogenannte GPUs (Graphics Processing Units) und neuere KI-Beschleuniger – führen die mathematischen Operationen aus, die große Sprachmodelle und Bildgeneratoren antreiben. Diese Chips erzeugen intensive Hitze, die kontinuierlich abgeführt werden muss.

Etwa 60 % des Stroms eines Rechenzentrums fließen direkt in den Betrieb der Server. Der Rest wird für Kühlsysteme verwendet – Kühler, Ventilatoren und in neueren Anlagen Flüssigkeitskühlkreisläufe, die Wasser direkt über die Prozessoren leiten. Das Environmental and Energy Study Institute schätzt, dass Rechenzentren im Jahr 2023 allein für Kühlzwecke rund 560 Milliarden Liter Wasser verbraucht haben.

Die Effizienz wird mit einer Metrik namens Power Usage Effectiveness (PUE) gemessen – dem Verhältnis der gesamten Anlagenleistung zur Leistung der IT-Geräte. Ein perfekter Wert ist 1,0; die meisten Hyperscale-Anlagen (betrieben von Google, Microsoft, Amazon) erreichen 1,1–1,2, während ältere Enterprise-Rechenzentren 1,5 oder höher erreichen können, wodurch noch einmal die Hälfte der Energie für den Kühlaufwand verschwendet wird.

Warum KI anders ist als frühere Computertechnologien

Traditionelle Server bewältigen relativ leichte Aufgaben – Speichern von Dateien, Bereitstellen von Webseiten, Ausführen von Datenbanken. KI-Training und -Inferenz sind rechenintensiver. Das Training eines großen Sprachmodells von Grund auf kann so viel Strom verbrauchen wie Hunderte von Transatlantikflügen. Selbst die Inferenz – die Generierung einer einzigen Antwort – erfordert eine dichte Kaskade von Matrixmultiplikationen über Milliarden von Parametern.

Der Strombedarf von KI-dedizierten beschleunigten Servern wächst laut IEA um 30 % pro Jahr, verglichen mit nur 9 % bei herkömmlichen Servern. Bis 2030 könnte der Anteil der KI am gesamten Stromverbrauch von Rechenzentren von heute 5–15 % auf bis zu 50 % steigen.

Das Ausmaß des Problems

Der weltweite Stromverbrauch von Rechenzentren belief sich im Jahr 2024 auf etwa 415 Terawattstunden (TWh) – etwa 1,5 % des gesamten auf der Erde verbrauchten Stroms. Die Basisszenario-Prognose der IEA sieht vor, dass sich diese Zahl bis 2030 auf 945 TWh mehr als verdoppeln wird, was dem gesamten jährlichen Stromverbrauch Japans entspricht.

Die Vereinigten Staaten sind das Epizentrum des Ausbaus. Pew Research berichtet, dass US-Rechenzentren bereits etwa 4 % des nationalen Stromverbrauchs ausmachen, eine Zahl, die bis 2028 voraussichtlich 7–12 % erreichen wird. In Irland könnten Rechenzentren bis 2026 32 % des gesamten Stroms des Landes verbrauchen und damit ein Netz belasten, das nie für solch konzentrierte industrielle Lasten ausgelegt war.

Das Carbon Brief stellt fest, dass Rechenzentren und Datenübertragungsnetze zusammen etwa 1 % der globalen CO₂-Emissionen verursachen – ein Anteil, der im Gleichschritt mit der Nachfrage wächst.

Kann die Effizienz Schritt halten?

Die Technologiebranche argumentiert, dass Hardware- und Softwareverbesserungen die schlimmsten Auswirkungen abmildern werden. Neuere KI-Chips sind deutlich effizienter als ihre Vorgänger, und Modellkomprimierungstechniken reduzieren die Inferenzkosten. Interne Daten von Google, veröffentlicht vom MIT Technology Review, deuten darauf hin, dass eine typische Gemini-KI-Eingabeaufforderung etwa 0,24 Wattstunden verbraucht – ungefähr die Energie, die benötigt wird, um eine Mikrowelle für eine Sekunde zu betreiben – weit weniger als frühere Worst-Case-Schätzungen.

Das „Hocheffizienz“-Szenario der IEA prognostiziert, dass der Bedarf von Rechenzentren im Jahr 2035 um 20 % niedriger sein könnte als im Basisszenario, wenn Hardware-Gewinne und intelligentere Modellarchitekturen breit eingesetzt werden. Aber die Nachfrage wächst auch schneller als die Effizienzverbesserungen, was bedeutet, dass der absolute Verbrauch immer noch erheblich steigen wird.

Was es für das Netz – und Ihre Rechnungen – bedeutet

Versorgungsunternehmen und Netzbetreiber bemühen sich, Schritt zu halten. Rechenzentren werden schneller gebaut, als neue Kraftwerke genehmigt und angeschlossen werden können. Das Ergebnis ist Druck auf die bestehende Infrastruktur, potenzielle Zuverlässigkeitsrisiken während der Spitzenlast und ein Aufwärtsdruck auf die Strompreise für Haushalte und Unternehmen in der Nähe.

Deals für erneuerbare Energien – direkte Stromabnahmeverträge zwischen Technologiekonzernen und Wind- oder Solarparks – sind zur bevorzugten Antwort der Branche auf sowohl Kohlenstoffbedenken als auch Netzengpässe geworden. Aber die Intermittenz erneuerbarer Energien bedeutet, dass Rechenzentren oft immer noch auf fossile Brennstoffe zurückgreifen, wenn die Sonne nicht scheint oder der Wind nicht weht.

Die KI-Energiefrage ist letztendlich eine Frage der öffentlichen Ordnung: Wie Gesellschaften die digitale Infrastruktur mit Strom versorgen wollen, die schnell so wichtig wird wie Straßen oder Wassersysteme.

Dieser Artikel ist auch in anderen Sprachen verfügbar:

Bleib auf dem Laufenden!

Folge uns auf Facebook für die neuesten Nachrichten und Artikel.

Folge uns auf Facebook

Verwandte Artikel