OpenAIs 10-Milliarden-Dollar-Deal mit Cerebras formt KI-Infrastruktur neu
OpenAI hat einen bahnbrechenden Vertrag über mehr als 10 Milliarden Dollar mit Cerebras Systems für 750 Megawatt Wafer-Scale-KI-Rechenleistung unterzeichnet, was eine neue industrielle Phase im globalen Wettlauf um den Aufbau von KI-Infrastruktur signalisiert.
Eine Milliarden-Dollar-Wette auf Geschwindigkeit
OpenAI hat einen der größten Verträge zur Beschaffung von Rechenleistung in der Geschichte der künstlichen Intelligenz unterzeichnet – einen Deal im Wert von mehr als 10 Milliarden Dollar mit dem Chiphersteller Cerebras Systems, der sich bis 2028 bis zu 750 Megawatt Rechenleistung sichert. Die im Januar 2026 angekündigte Vereinbarung markiert einen Wendepunkt in der Art und Weise, wie KI-Unternehmen darum wetteifern, ihre Infrastruktur selbst zu kontrollieren.
Gemäß den Bedingungen wird Cerebras seine charakteristischen Wafer-Scale-Chips einsetzen – Prozessoren, die Rechenleistung, Speicher und Verbindungen auf einem einzigen Siliziumwafer von der Größe eines Tellers vereinen – um die Inferenz-Workloads von ChatGPT zu beschleunigen. Der Einsatz begann Anfang 2026 in schrittweisen Rollouts, wobei das vollständige Ziel von 750 MW bis 2028 erreicht sein soll. Laut Cerebras und OpenAI stellt die Vereinbarung die weltweit größte High-Speed-KI-Inferenz-Bereitstellung dar.
Warum Cerebras, und warum jetzt?
Der Reiz der Cerebras-Hardware liegt in der rohen Geschwindigkeit. Seine Wafer-Scale-Systeme liefern KI-Antworten laut Benchmarks beider Unternehmen bis zu 15-mal schneller als vergleichbare GPU-basierte Setups. Dieser Latenzvorteil wird entscheidend, wenn OpenAI in agentische Anwendungen vordringt – KI-Systeme, die in Echtzeit denken, planen und reagieren müssen, anstatt Text im Batch-Verfahren zu verarbeiten.
Sachin Katti, Chief Technology Infrastructure Officer von OpenAI, beschrieb die strategische Begründung unmissverständlich:
"Cerebras ergänzt unsere Plattform um eine dedizierte Inferenzlösung mit niedriger Latenz. Das bedeutet schnellere Antworten, natürlichere Interaktionen und eine stärkere Grundlage, um Echtzeit-KI für viel mehr Menschen zu skalieren."
Im Februar 2026 setzte OpenAI Cerebras-Chips ein, um eine überarbeitete Version seines Codex-Codierungsassistenten anzutreiben und erreichte damit eine nahezu sofortige Code-Generierung – was eine frühe öffentliche Demonstration der praktischen Vorteile des Deals darstellte.
Diversifizierung weg von Nvidia
Der Cerebras-Vertrag ist auch ein Signal für strategische Diversifizierung. OpenAI hat sich in der Vergangenheit stark auf Nvidias GPUs verlassen, stellt aber nun eine breitere Lieferantenbasis zusammen: Es entwickelt gemeinsam mit Broadcom einen kundenspezifischen KI-Chip und hat sich verpflichtet, AMDs kommende MI450-Prozessoren zu verwenden. Die Cerebras-Vereinbarung fügt dieser wachsenden Liste eine spezialisierte Inferenzebene hinzu.
Für Cerebras selbst ist der Deal transformativ. Der Umsatz des Unternehmens war stark konzentriert – ein Investor aus dem Nahen Osten, G42 aus den VAE, machte in der ersten Hälfte des Jahres 2024 87 % des Umsatzes aus. Der OpenAI-Vertrag diversifiziert dieses Engagement erheblich und kommt gerade rechtzeitig, da sich Cerebras auf ein öffentliches Marktdebüt vorbereitet.
TSMC und die industrielle Hochskalierung
Die Vereinbarung zwischen OpenAI und Cerebras existiert nicht isoliert. Sie spiegelt einen breiteren Anstieg der industriellen Investitionen in KI-Rechenleistung wider. Taiwan Semiconductor Manufacturing Company (TSMC), die Chips für einen Großteil der Branche herstellt, meldete einen Anstieg des Quartalsgewinns um 35 % auf einen Rekordwert von 16 Milliarden Dollar im vierten Quartal 2025, der fast ausschließlich auf die Nachfrage nach KI-Chips zurückzuführen ist. Für 2026 kündigte TSMC Investitionsausgaben von 52–56 Milliarden Dollar an – die höchsten aller Zeiten –, wobei 70–80 % für fortschrittliche Prozessknoten vorgesehen sind. Das Unternehmen beschleunigt die Werkserweiterung in Arizona und hat kürzlich zusätzliches Land für neue Anlagen erworben.
Branchenweit haben sich die fünf größten US-amerikanischen Cloud- und KI-Anbieter – Microsoft, Alphabet, Amazon, Meta und Oracle – gemeinsam verpflichtet, zwischen 660 und 690 Milliarden Dollar für Investitionsausgaben im Jahr 2026 auszugeben, fast doppelt so viel wie im Jahr 2025, so eine Analyse von Futurum Research.
Eine neue industrielle Phase
Was sich entfaltet, ist weniger eine Technologiegeschichte als eine Infrastrukturgeschichte. Die Entscheidungen, die im Jahr 2026 getroffen werden – welche Chips gekauft, welche Fabriken gebaut, welche Stromverträge unterzeichnet werden – werden die Wettbewerbslandschaft der KI für den Rest des Jahrzehnts bestimmen. OpenAIs 10-Milliarden-Dollar-Wette auf Cerebras ist ein Teil eines viel größeren Puzzles, bestätigt aber, dass der Wettlauf um die KI-Vorherrschaft nun ebenso in Megawatt und Produktionskapazität gemessen wird wie in Modell-Benchmarks.
Bleib auf dem Laufenden!
Folge uns auf Facebook für die neuesten Nachrichten und Artikel.
Folge uns auf Facebook