Tecnología

Cómo las grandes tecnológicas construyen chips de IA personalizados, y por qué

Google, Amazon, Meta y Apple están diseñando su propio silicio para potenciar las cargas de trabajo de IA, reduciendo costes, mejorando el rendimiento y disminuyendo la dependencia de Nvidia. Así es como funcionan los chips de IA personalizados y por qué son importantes.

R
Redakcia
Share
Cómo las grandes tecnológicas construyen chips de IA personalizados, y por qué

La carrera de chips detrás del auge de la IA

Cada vez que le haces una pregunta a un chatbot de IA, reproduces una recomendación de Netflix o desbloqueas tu teléfono con tu rostro, un chip de computadora especializado hace el trabajo pesado. Durante años, ese chip casi con seguridad provenía de Nvidia. Pero algo está cambiando. Google, Amazon, Meta y Apple ahora están diseñando su propio silicio, y está remodelando toda la industria de la IA.

¿Qué es un chip de IA personalizado?

Un chip de IA personalizado es un circuito integrado de aplicación específica (ASIC): hardware diseñado para realizar una categoría de tarea extremadamente bien, en lugar de una amplia gama de cosas de manera adecuada. A diferencia de una GPU de propósito general, que originalmente fue diseñada para renderizar gráficos de videojuegos y luego reutilizada para la IA, un chip de IA personalizado se construye desde cero en torno a las matemáticas que el aprendizaje automático realmente necesita: multiplicaciones de matrices masivas, aritmética de baja precisión y movimiento rápido de datos entre la memoria y las unidades de cómputo.

El bloque de construcción central es a menudo una unidad de multiplicación de matrices (MXU): un circuito dedicado que puede multiplicar enormes cuadrículas de números en paralelo. Debido a que las redes neuronales son esencialmente cadenas de multiplicaciones de matrices, un chip con gran cantidad de MXU puede procesar cargas de trabajo de IA de manera mucho más eficiente que una GPU que también debe admitir características gráficas complejas que nunca usará en un centro de datos.

Quién está construyendo qué

Google fue el pionero. Su Unidad de procesamiento tensorial (TPU), implementada internamente por primera vez en 2015, ahora impulsa Gemini, la Búsqueda de Google y, en particular, los modelos de Apple Intelligence entrenados en la nube de Google. La última generación, Ironwood, llegó a finales de 2025. Amazon Web Services siguió con su familia Trainium para el entrenamiento e Inferentia para la inferencia; Trainium3 ofrece hasta 4,4 veces más cómputo que su predecesor, utilizando aproximadamente una cuarta parte de la energía. Meta presentó cuatro generaciones de su Acelerador de entrenamiento e inferencia de Meta (MTIA) en marzo de 2026, diseñado en la arquitectura RISC-V de código abierto y fabricado por TSMC, que cubre todo, desde la clasificación de feeds hasta la IA generativa. El motor neuronal de Apple, integrado en cada chip de iPhone y Mac desde 2017, maneja tareas en el dispositivo como el reconocimiento facial y el procesamiento de voz sin enviar datos a la nube.

¿Por qué no simplemente comprar más GPU de Nvidia?

Las GPU H100 y B200 de Nvidia siguen siendo el estándar de oro para la investigación de IA de vanguardia y para el entrenamiento de los modelos de frontera más grandes. Pero para las cargas de trabajo rutinarias y continuas que constituyen la mayor parte del gasto en IA de una empresa (servir recomendaciones, ejecutar inferencia en miles de millones de solicitudes diarias), las GPU de propósito general conllevan una sobrecarga significativa. Queman energía en características que la inferencia a gran escala no necesita.

Los chips personalizados eliminan esa sobrecarga. AWS estima que sus instancias Trainium ofrecen un rendimiento-precio entre un 30 y un 40 % mejor que las instancias de GPU de Nvidia equivalentes para las cargas de trabajo de entrenamiento. Meta dice que sus chips MTIA superan a Nvidia en ciertas tareas de clasificación y recomendación, al tiempo que cuestan sustancialmente menos por operación. En miles de millones de solicitudes diarias, esas ganancias de eficiencia se traducen en cientos de millones de dólares en ahorros anuales.

También hay una dimensión estratégica. Depender por completo de un solo proveedor, incluso uno dominante, crea riesgo. La escasez de suministro, las restricciones a la exportación y el poder de fijación de precios se convierten en vulnerabilidades. La construcción de silicio propietario les da a las empresas control sobre su propia hoja de ruta de IA.

Las contrapartidas

Los chips personalizados no están exentos de inconvenientes. El diseño de un ASIC competitivo cuesta decenas o cientos de millones de dólares en ingeniería y fabricación antes de que se envíe un solo chip. El ecosistema de software en torno a la plataforma CUDA de Nvidia tiene dos décadas de impulso; reescribir o portar código para que se ejecute en una nueva arquitectura requiere tiempo y experiencia. Y una vez que se fabrica el silicio, su arquitectura es fija; a diferencia del software, no se puede parchear el diseño fundamental de un chip.

Esta es la razón por la que la estrategia solo tiene sentido financiero a hiperescala. Para las empresas que ejecutan millones de servidores, el costo de diseño inicial se ve eclipsado por los ahorros operativos a largo plazo. Es probable que las organizaciones más pequeñas sigan utilizando las GPU de Nvidia o alquilando instancias en la nube que abstraen por completo la capa de hardware.

El panorama general

El auge del silicio de IA personalizado señala una maduración de la industria de la IA. Cuando una tecnología es nueva, las empresas utilizan cualquier hardware que esté disponible. A medida que las cargas de trabajo se estandarizan y los volúmenes crecen, la economía de la especialización se impone, el mismo patrón que impulsó los chips ARM en todos los teléfonos inteligentes y los ASIC personalizados en la minería de Bitcoin. La IA se encuentra ahora en ese punto de inflexión. Nvidia no va a desaparecer, pero la era de su monopolio indiscutible sobre el cómputo de IA está terminando, un chip personalizado a la vez.

Este artículo también está disponible en otros idiomas:

Artículos relacionados