El mapa de chips IA se redibujó por completo - Los agentes cambiaron todo en 2026
OpenAI firma con Cerebras, Nvidia absorbe a Groq y Google TPU asegura contratos multimillonarios. Por qué la era de los agentes está redefiniendo la industria de semiconductores.
“¿Acaso no basta con una GPU de Nvidia?”
Si eso era lo que pensabas hasta el año pasado, los titulares del último mes probablemente te dejaron desorientado. Hoy OpenAI firmó un acuerdo de 10 mil millones de dólares con Cerebras, Nvidia prácticamente adquirió Groq por 20 mil millones, y Google TPU cerró contratos multimillonarios con Anthropic y Meta.
El mapa de semiconductores que impulsó el boom de la IA se acaba de redibujar. Y acá va por qué.
La era de la inferencia expuso los límites de las GPU
Entramos a una etapa donde los agentes piensan y responden miles de veces en tiempo real. Las GPU tradicionales fueron diseñadas para entrenamiento - multiplicación bruta de matrices en lotes masivos. Pero la inferencia de baja latencia, la que los agentes exigen, es un tipo de carga de trabajo fundamentalmente distinto.
- Los chips basados en SRAM, como los de Groq y Cerebras, están siendo reevaluados exactamente por esta razón
- El consumo energético por movimiento de datos es entre 20 y 100 veces menor que con DRAM, lo que los optimiza para inferencia en tiempo real a escala
El entrenamiento premiaba el rendimiento bruto. La inferencia premia la latencia y la eficiencia energética. El hardware que ganó la era anterior no es automáticamente el que va a ganar esta.
La guerra de diversificación de chips en Big Tech
La estrategia de depender solo de Nvidia murió. Todas las grandes empresas de IA están armando un portafolio multichip.
- OpenAI: Se expandió más allá de la infraestructura de Microsoft para incluir Cerebras y Google TPU
- Anthropic: Corre sobre más de 1 millón de TPUs de Google junto con AWS Trainium y GPUs de Nvidia
- Intel: Intentando reentrar al mercado de inferencia a través de su adquisición de SambaNova
Esto no se trata de reemplazar a Nvidia. Se trata de emparejar el silicio con la carga de trabajo. Los clústeres de entrenamiento siguen corriendo en H100s y B200s. Pero las flotas de inferencia - las que realmente sirven agentes a los usuarios - demandan cada vez más arquitecturas especializadas.
Los patrones de compra pasaron de “¿cuántas GPUs de Nvidia podemos conseguir?” a “¿cuál es la mezcla óptima de silicio para nuestra proporción de inferencia versus entrenamiento?”
China está completando su propio ecosistema
Apenas ayer, Zhipu AI lanzó GLM-Image - un modelo de generación de imágenes de código abierto entrenado enteramente en chips Huawei Ascend. Logró resultados de vanguardia entre los generadores de imágenes open source.
- Esto demuestra que un ecosistema de chips doméstico puede funcionar de verdad bajo las restricciones de exportación de Estados Unidos
- Sin soberanía en semiconductores no hay soberanía en IA - y China está actuando bajo ese principio
Las implicaciones van más allá de la geopolítica. Demuestra que el mercado de chips para IA se está fragmentando en ecosistemas regionales diferenciados, cada uno con sus propias cadenas de suministro, pilas de optimización y dinámicas competitivas.
Qué significa esto de ahora en adelante
El giro de un entrenamiento centrado en GPUs hacia silicio especializado para inferencia es estructural, no cíclico. Los agentes no procesan consultas en lotes - transmiten, ramifican e iteran en tiempo real. Las arquitecturas de chips que sirvan esta carga de trabajo de manera eficiente van a capturar la próxima ola de inversión en infraestructura.
Para las empresas de semiconductores en todo el mundo, la pregunta ya no es si hay que diversificarse más allá de las GPUs. Es qué tan rápido pueden asegurar una posición en la economía de la inferencia antes de que el nuevo mapa se consolide.
Unite al boletín
Recibí actualizaciones sobre mis últimos proyectos, artículos y experimentos con IA y desarrollo web.