Technologie

L'accord à 10 milliards de dollars entre OpenAI et Cerebras redéfinit l'infrastructure de l'IA

OpenAI a signé un contrat historique de plus de 10 milliards de dollars avec Cerebras Systems pour 750 mégawatts de capacité de calcul d'IA à l'échelle d'une tranche de silicium, signalant une nouvelle phase industrielle dans la course mondiale à la construction d'une infrastructure d'IA.

R
Redakcia
Share
L'accord à 10 milliards de dollars entre OpenAI et Cerebras redéfinit l'infrastructure de l'IA

Un pari d'un milliard de dollars sur la vitesse

OpenAI a signé l'un des plus importants contrats d'acquisition de puissance de calcul de l'histoire de l'intelligence artificielle : un accord d'une valeur de plus de 10 milliards de dollars avec le fabricant de puces Cerebras Systems, garantissant jusqu'à 750 mégawatts de capacité de calcul jusqu'en 2028. Annoncé en janvier 2026, cet accord marque un moment charnière dans la manière dont les entreprises d'IA se précipitent pour maîtriser leur destin en matière d'infrastructure.

Selon les termes de l'accord, Cerebras déploiera ses puces à l'échelle d'une tranche de silicium, sa marque de fabrique (des processeurs qui regroupent le calcul, la mémoire et les interconnexions sur une seule tranche de silicium de la taille d'une assiette), afin d'accélérer les charges de travail d'inférence de ChatGPT. Le déploiement a commencé au début de l'année 2026 par étapes, l'objectif de 750 MW étant atteint d'ici 2028. Selon Cerebras et OpenAI, cet accord constitue le plus grand déploiement d'inférence d'IA à haut débit au monde.

Pourquoi Cerebras, et pourquoi maintenant ?

L'attrait du matériel de Cerebras réside dans sa vitesse brute. Ses systèmes à l'échelle d'une tranche de silicium fournissent des réponses d'IA jusqu'à 15 fois plus rapidement que les configurations comparables basées sur des GPU, selon les benchmarks cités par les deux entreprises. Cet avantage en termes de latence devient décisif à mesure qu'OpenAI se lance dans des applications agentiques, c'est-à-dire des systèmes d'IA qui doivent raisonner, planifier et répondre en temps réel plutôt que de traiter du texte par lots.

Sachin Katti, directeur de l'infrastructure technologique d'OpenAI, a décrit clairement la justification stratégique :

"Cerebras ajoute une solution d'inférence dédiée à faible latence à notre plateforme. Cela signifie des réponses plus rapides, des interactions plus naturelles et une base plus solide pour étendre l'IA en temps réel à un plus grand nombre de personnes."

En février 2026, OpenAI a déployé des puces Cerebras pour alimenter une version remaniée de son assistant de codage Codex, obtenant ce qu'elle a appelé une génération de code quasi instantanée, offrant ainsi une première démonstration publique des avantages pratiques de l'accord.

Se diversifier pour s'éloigner de Nvidia

Le contrat Cerebras est également un signal de diversification stratégique. OpenAI s'est historiquement fortement appuyé sur les GPU de Nvidia, mais constitue désormais une base de fournisseurs plus large : elle co-développe une puce d'IA personnalisée avec Broadcom et s'est engagée à utiliser les futurs processeurs MI450 d'AMD. L'accord Cerebras ajoute une couche d'inférence spécialisée à cette liste croissante.

Pour Cerebras elle-même, l'accord est transformateur. Le chiffre d'affaires de l'entreprise était fortement concentré : un seul investisseur du Moyen-Orient, G42 des ÉAU, représentait 87 % de son chiffre d'affaires au premier semestre 2024. Le contrat OpenAI diversifie considérablement cette exposition et arrive juste au moment où Cerebras se prépare à faire ses débuts sur le marché public.

TSMC et le passage à l'échelle industrielle

L'accord OpenAI-Cerebras n'existe pas de manière isolée. Il reflète une vague plus large d'investissements industriels dans la puissance de calcul de l'IA. Taiwan Semiconductor Manufacturing Company (TSMC), qui fabrique des puces pour une grande partie de l'industrie, a annoncé un bond de 35 % de son bénéfice trimestriel, atteignant un niveau record de 16 milliards de dollars au quatrième trimestre 2025, presque entièrement tiré par la demande de puces d'IA. Pour 2026, TSMC a annoncé des dépenses d'investissement de 52 à 56 milliards de dollars, un niveau jamais atteint auparavant, dont 70 à 80 % sont destinés aux nœuds de processus avancés. L'entreprise accélère l'expansion de son usine en Arizona, après avoir récemment acheté des terrains supplémentaires pour de nouvelles installations.

Dans l'ensemble du secteur, les cinq plus grands fournisseurs américains de cloud et d'IA (Microsoft, Alphabet, Amazon, Meta et Oracle) se sont collectivement engagés à dépenser entre 660 et 690 milliards de dollars en dépenses d'investissement en 2026, soit près du double des niveaux de 2025, selon une analyse de Futurum Research.

Une nouvelle phase industrielle

Ce qui se déroule est moins une histoire de technologie qu'une histoire d'infrastructure. Les décisions prises en 2026 (quelles puces acheter, quelles usines construire, quels contrats d'électricité signer) détermineront le paysage concurrentiel de l'IA pour le reste de la décennie. Le pari de 10 milliards de dollars d'OpenAI sur Cerebras est une pièce d'un puzzle beaucoup plus vaste, mais il confirme que la course à la suprématie de l'IA se mesure désormais autant en mégawatts et en capacité de fabrication qu'en benchmarks de modèles.

Cet article est également disponible dans d'autres langues :

Articles connexes