El acuerdo de 10.000 millones de dólares de OpenAI con Cerebras redefine la infraestructura de IA
OpenAI ha firmado un contrato histórico de más de 10.000 millones de dólares con Cerebras Systems por 750 megavatios de capacidad de computación de IA a escala de oblea, lo que indica una nueva fase industrial en la carrera mundial por construir infraestructura de IA.
Una apuesta multimillonaria por la velocidad
OpenAI ha firmado uno de los mayores contratos de adquisición de capacidad de computación en la historia de la inteligencia artificial: un acuerdo valorado en más de 10.000 millones de dólares con el fabricante de chips Cerebras Systems, que garantiza hasta 750 megavatios de capacidad de computación hasta 2028. Anunciado en enero de 2026, el acuerdo marca un momento crucial en la forma en que las empresas de IA compiten por controlar su propio destino en materia de infraestructura.
Según los términos del acuerdo, Cerebras desplegará sus característicos chips a escala de oblea —procesadores que integran computación, memoria e interconexiones en una única oblea de silicio del tamaño de un plato— para acelerar las cargas de trabajo de inferencia de ChatGPT. El despliegue comenzó a principios de 2026 en fases, con el objetivo de alcanzar los 750 MW completos en 2028. Según Cerebras y OpenAI, el acuerdo constituye el mayor despliegue de inferencia de IA de alta velocidad del mundo.
Por qué Cerebras, y por qué ahora
El atractivo del hardware de Cerebras reside en su velocidad bruta. Sus sistemas a escala de oblea ofrecen respuestas de IA hasta 15 veces más rápido que configuraciones comparables basadas en GPU, según los puntos de referencia citados por ambas empresas. Esa ventaja de latencia se vuelve decisiva a medida que OpenAI se adentra en aplicaciones agentivas: sistemas de IA que deben razonar, planificar y responder en tiempo real en lugar de procesar texto por lotes.
El director de infraestructura tecnológica de OpenAI, Sachin Katti, describió la justificación estratégica con claridad:
"Cerebras añade una solución de inferencia dedicada de baja latencia a nuestra plataforma. Eso significa respuestas más rápidas, interacciones más naturales y una base más sólida para escalar la IA en tiempo real a muchas más personas."
En febrero de 2026, OpenAI desplegó chips de Cerebras para impulsar una versión renovada de su asistente de codificación Codex, logrando lo que denominó generación de código casi instantánea, ofreciendo una demostración pública temprana de los beneficios prácticos del acuerdo.
Diversificando para alejarse de Nvidia
El contrato con Cerebras es también una señal de diversificación estratégica. OpenAI ha dependido históricamente en gran medida de las GPU de Nvidia, pero ahora está reuniendo una base de proveedores más amplia: está codesarrollando un chip de IA personalizado con Broadcom y se ha comprometido a utilizar los próximos procesadores MI450 de AMD. El acuerdo con Cerebras añade una capa de inferencia especializada a esa creciente lista.
Para la propia Cerebras, el acuerdo es transformador. Los ingresos de la empresa habían estado muy concentrados: un inversor de Oriente Medio, G42 de los EAU, representó el 87% de sus ingresos en el primer semestre de 2024. El contrato con OpenAI diversifica esa exposición de forma drástica y llega justo cuando Cerebras se prepara para su debut en el mercado público.
TSMC y la ampliación a escala industrial
El acuerdo OpenAI–Cerebras no existe de forma aislada. Refleja un aumento más amplio de la inversión industrial en computación de IA. Taiwan Semiconductor Manufacturing Company (TSMC), que fabrica chips para gran parte de la industria, informó de un aumento del 35% en el beneficio trimestral hasta un récord de 16.000 millones de dólares en el cuarto trimestre de 2025, impulsado casi en su totalidad por la demanda de chips de IA. Para 2026, TSMC anunció un gasto de capital de 52.000 a 56.000 millones de dólares —el más alto de su historia—, con un 70-80% destinado a nodos de proceso avanzados. La empresa está acelerando la expansión de su fábrica en Arizona, tras haber adquirido recientemente terrenos adicionales para nuevas instalaciones.
En todo el sector, los cinco mayores proveedores estadounidenses de nube e IA —Microsoft, Alphabet, Amazon, Meta y Oracle— se han comprometido colectivamente a gastar entre 660.000 y 690.000 millones de dólares en gastos de capital en 2026, casi el doble de los niveles de 2025, según un análisis de Futurum Research.
Una nueva fase industrial
Lo que se está desarrollando es menos una historia de tecnología que una historia de infraestructura. Las decisiones que se tomen en 2026 —qué chips comprar, qué fábricas construir, qué contratos de energía firmar— determinarán el panorama competitivo de la IA para el resto de la década. La apuesta de 10.000 millones de dólares de OpenAI por Cerebras es una pieza de un rompecabezas mucho mayor, pero confirma que la carrera por la supremacía de la IA se mide ahora tanto en megavatios y capacidad de fabricación como en puntos de referencia de modelos.