Cómo funcionan los chips de IA personalizados y por qué las grandes tecnológicas los construyen
Gigantes tecnológicos como Google, Amazon y Meta están diseñando sus propios chips de IA personalizados, llamados ASIC, para reducir la dependencia de las GPU de Nvidia, recortar costes y optimizar el rendimiento para cargas de trabajo específicas de IA.
Por qué las grandes tecnológicas dejaron de comprar productos estándar
Durante años, las GPU de Nvidia impulsaron prácticamente todas las cargas de trabajo de inteligencia artificial del planeta. Pero se está produciendo una revolución silenciosa: las empresas de tecnología más grandes del mundo están diseñando su propio silicio personalizado. Google, Amazon, Meta y Microsoft han invertido miles de millones en circuitos integrados de aplicación específica (ASIC): chips diseñados específicamente para la IA en lugar de tomarlos prestados del mundo de los videojuegos.
La motivación es sencilla. Las GPU de propósito general son versátiles, pero esa versatilidad tiene un coste: transistores desperdiciados, consumo excesivo de energía y un precio elevado fijado por un único proveedor dominante. Los chips personalizados prometen cambiar las tres variables a la vez.
¿Qué es un ASIC?
Un ASIC es un chip diseñado desde cero para una tarea específica. A diferencia de una GPU, que puede ejecutar miles de algoritmos diferentes, un ASIC integra directamente en sus circuitos operaciones matemáticas particulares, como las multiplicaciones de matrices, que son fundamentales para las redes neuronales. El resultado es un procesador que ejecuta su carga de trabajo objetivo más rápido y con menos energía que una alternativa de propósito general.
Según el Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, los chips de IA se dividen en tres categorías generales: GPU para entrenamiento flexible, FPGA para inferencia reconfigurable y ASIC para aceleración de función fija altamente optimizada. Cada uno llena un nicho diferente, pero los ASIC ofrecen el mejor rendimiento por vatio cuando las cargas de trabajo son predecibles y de gran volumen.
Cómo funciona el proceso de diseño
Construir un chip de IA personalizado no es ni rápido ni barato. Un solo diseño de ASIC puede costar cientos de millones de dólares y tardar entre dos y tres años desde el concepto hasta la producción. Las empresas suelen asociarse con empresas de diseño especializadas (Broadcom y Marvell son los dos actores dominantes) que proporcionan bloques de propiedad intelectual, tecnología de interconexión y una profunda experiencia en arquitectura de chips.
Una vez que se finaliza un diseño, se envía a una fundición como TSMC para su fabricación. Debido a que los circuitos están grabados permanentemente en el silicio, no hay margen de error: si los modelos de IA cambian a operaciones matemáticas fundamentalmente diferentes, un chip personalizado puede quedar obsoleto. Esa inflexibilidad es la principal contrapartida del enfoque ASIC.
Quién construye qué
Google fue pionera en esta tendencia. En 2013, los ingenieros calcularon que implementar la búsqueda por voz para 300 millones de usuarios requeriría duplicar la capacidad total del centro de datos de la empresa si se basaba únicamente en procesadores convencionales. La primera Unidad de Procesamiento Tensorial (TPU) entró en producción solo 15 meses después, según CNBC. Las TPU de Google han alcanzado desde entonces su sexta generación, Trillium, y dominan más del 70 por ciento del mercado de chips de IA personalizados para servidores en la nube.
Amazon entró en la carrera tras adquirir la startup israelí de chips Annapurna Labs en 2015. Sus chips Trainium, ahora en su segunda generación, priorizan el ancho de banda de la memoria y la eficiencia de la interconexión sobre el rendimiento bruto de coma flotante: opciones arquitectónicas ajustadas a las cargas de trabajo de modelos de lenguaje grandes que dominan la IA moderna, según informa WebProNews. Meta, por su parte, ha desarrollado su propio ASIC llamado Meta Training and Inference Accelerator (MTIA), optimizado para modelos de recomendación y clasificación que impulsan su negocio de publicidad.
Las GPU no van a desaparecer, todavía
Los ASIC personalizados sobresalen en la inferencia (ejecutar un modelo entrenado para generar predicciones), donde las cargas de trabajo son predecibles y el volumen es enorme. Pero el entrenamiento de nuevos modelos, especialmente los sistemas de vanguardia, todavía exige la flexibilidad de las GPU y el maduro ecosistema de software CUDA de Nvidia.
Los datos de la industria de Counterpoint Research proyectan que los envíos de ASIC personalizados crecerán un 44,6 por ciento en 2026, mientras que los envíos de GPU crecerán un 16,1 por ciento, una brecha que ilustra hacia dónde se dirige el impulso. Los analistas esperan que los ASIC tripliquen sus envíos totales para 2027.
Por qué es importante
El cambio hacia el silicio personalizado remodela la economía de la inteligencia artificial. Las empresas que controlan su propio suministro de chips pueden reducir costes, mejorar la eficiencia energética y disminuir la dependencia de un único proveedor. Para los consumidores, eso se traduce en servicios de IA más rápidos y, potencialmente, precios más bajos. Para Nvidia, significa que los clientes más lucrativos también se están convirtiendo en competidores, una tensión que definirá la industria de los semiconductores durante los próximos años.