AI芯片版图刚刚被改写 - 2026年,智能体重塑了整个半导体格局
从Nvidia一家独大到多芯片组合战略,从训练为王到推理当道 - 智能体时代彻底改写了AI芯片的竞争版图。
“买Nvidia的GPU不就完了?”
如果你直到去年还这么想,那么过去一个月的新闻大概已经让你有些恍惚了。就在今天,OpenAI与Cerebras签下了100亿美元的合作协议,Nvidia实质上以200亿美元收购了Groq,而Google TPU也与Anthropic和Meta敲定了数十亿美元的大单。
支撑这轮AI浪潮的半导体版图,正在被彻底改写。原因如下。
推理时代暴露了GPU的结构性短板
我们已经进入了一个智能体需要实时思考、实时响应、每秒执行数千次推理的时代。传统GPU的设计初衷是训练 - 在大批量数据上进行暴力矩阵运算。但智能体所需要的低延迟推理,和训练是完全不同的工作负载。
- Groq和Cerebras的SRAM架构芯片正因此被重新审视
- 片上SRAM的数据搬运能耗比DRAM低20到100倍,天然适合大规模实时推理
训练时代奖励的是原始吞吐量,推理时代奖励的是延迟和能效。上一轮赢家的硬件,并不自动就是下一轮的赢家。
科技巨头的芯片多元化竞赛
“全押Nvidia”的策略已经走到尽头。每家头部AI公司都在构建多芯片组合。
- OpenAI:从微软基础设施起步,如今已扩展至Cerebras和Google TPU
- Anthropic:在运行超过100万颗Google TPU的同时,还在使用AWS Trainium和Nvidia GPU
- Intel:通过收购SambaNova试图重新杀入推理市场
这并不是要替代Nvidia,而是让芯片与工作负载精准匹配。训练集群依然跑在H100和B200上,但真正把智能体服务交付给用户的推理集群,越来越多地需要专用架构。
采购逻辑已经从”能买多少块Nvidia GPU就买多少”转变为”根据我们的推理与训练比例,最优的芯片组合是什么”。
中国正在闭环自己的芯片生态
就在昨天,智谱AI发布了GLM-Image - 一个完全在华为昇腾芯片上训练的开源图像生成模型,在开源图像生成领域达到了业界领先水平。
- 这证明了在美国出口管制下,国产芯片生态是跑得通的
- 没有半导体主权就没有AI主权 - 这已经不是口号,而是正在被验证的现实
这件事的意义远不止地缘博弈。它表明AI芯片市场正在分裂为多个区域性生态系统,每个生态都有自己的供应链、优化技术栈和竞争逻辑。对国内从业者而言,这既是挑战,也意味着自主可控的路径正在变得越来越清晰。
接下来会发生什么
从GPU中心的训练范式向推理专用芯片的转移,是结构性的,不是周期性的。智能体不会像传统模型那样批量处理请求 - 它们实时流式输出、动态分支、反复迭代。能高效服务这种工作负载的芯片架构,将吃下下一波基础设施投资的最大份额。
对全球半导体企业来说,问题已经不是”要不要在GPU之外布局”,而是”能多快在推理经济中占据有利位置”。新版图正在成形,留给后来者的窗口期不会太长。
订阅通讯
获取关于我最新项目、文章以及 AI 和 Web 开发实验的更新。