Índice
3 min de leitura

O mapa dos chips de IA acabou de ser redesenhado - agentes mudaram tudo em 2026

OpenAI fecha acordo bilionário com a Cerebras, Nvidia adquire a Groq e Google TPU firma contratos com Anthropic e Meta. Entenda por que a era dos agentes está redesenhando o mapa dos semicondutores.

“Não basta ter GPU da Nvidia?”

Se isso era o que você pensava até o ano passado, as manchetes do último mês provavelmente te deixaram desorientado. Hoje a OpenAI assinou um acordo de US$ 10 bilhões com a Cerebras, a Nvidia efetivamente adquiriu a Groq por US$ 20 bilhões, e o Google TPU fechou contratos multibilionários com Anthropic e Meta.

O mapa de semicondutores que sustentou o boom da IA acabou de ser redesenhado. Vou explicar por quê.

A era da inferência expôs os limites da GPU

Entramos numa fase em que agentes pensam e respondem milhares de vezes em tempo real. GPUs tradicionais foram projetadas para treinamento - multiplicação bruta de matrizes em lotes massivos. Mas inferência de baixa latência, o tipo que os agentes exigem, é uma carga de trabalho fundamentalmente diferente.

  • Chips baseados em SRAM, como os da Groq e da Cerebras, estão sendo reavaliados exatamente por isso
  • O consumo de energia na movimentação de dados é de 20 a 100 vezes menor do que em DRAM, tornando-os otimizados para inferência em tempo real e em escala

Treinamento premiava throughput bruto. Inferência premia latência e eficiência energética. O hardware que venceu a era anterior não é automaticamente o hardware que vai vencer esta.

A guerra de diversificação de chips das big techs

A estratégia de apostar tudo na Nvidia morreu. Toda grande empresa de IA está montando um portfólio multi-chip.

  • OpenAI: Expandiu para além da infraestrutura da Microsoft, incluindo Cerebras e Google TPU
  • Anthropic: Rodando mais de 1 milhão de TPUs do Google ao lado de AWS Trainium e GPUs da Nvidia
  • Intel: Tentando reentrar no mercado de inferência por meio da aquisição da SambaNova

Não se trata de substituir a Nvidia. Se trata de combinar silício com carga de trabalho.

O padrão de compra mudou de “quantas GPUs da Nvidia conseguimos comprar?” para “qual é o mix ideal de silício para a nossa proporção de inferência versus treinamento?”

A China está completando seu próprio ecossistema

Ainda ontem, a Zhipu AI lançou o GLM-Image - um modelo open-source de geração de imagens treinado inteiramente em chips Huawei Ascend. Ele alcançou resultados estado da arte entre geradores de imagem open-source.

  • Isso prova que um ecossistema doméstico de chips pode de fato funcionar sob as restrições de exportação dos EUA
  • Sem soberania em semicondutores não há soberania em IA - e a China está agindo com base nesse princípio

O que isso significa daqui para frente

A transição de treinamento centrado em GPU para silício especializado em inferência é estrutural, não cíclica. Agentes não processam queries em lote - eles transmitem, ramificam e iteram em tempo real. As arquiteturas de chip que atenderem essa carga de trabalho com eficiência vão capturar a próxima onda de investimento em infraestrutura.

Para as empresas de semicondutores no mundo todo, a pergunta não é mais se devem diversificar além das GPUs. É com que velocidade conseguem garantir uma posição na economia de inferência antes que o novo mapa se solidifique.

Assine a newsletter

Receba atualizações sobre meus projetos mais recentes, artigos e experimentos com IA e desenvolvimento web.