AI 晶片版圖重新洗牌 - 智能體改變了 2026 年的半導體戰局
OpenAI 簽下 Cerebras 百億美元大單、Nvidia 收購 Groq、Google TPU 拿下 Anthropic 與 Meta 合約。當推論取代訓練成為主戰場,晶片產業的遊戲規則正在被徹底改寫。
「買 Nvidia GPU 不就夠了嗎?」
如果你到去年底還抱持這個想法,這個月的新聞大概已經讓你一頭霧水了。就在今天,OpenAI 與 Cerebras 簽下了 100 億美元的合約,Nvidia 實質上 以 200 億美元收購了 Groq,Google TPU 則鎖定了 與 Anthropic 和 Meta 的數十億美元合作。
驅動 AI 爆發的半導體版圖,一夕之間被重新劃定。以下是背後的原因。
推論時代暴露了 GPU 的極限
我們已經進入智能體在即時環境中思考、回應數千次的時代。傳統 GPU 是為訓練而生的 - 大規模批次處理中的暴力矩陣運算。但智能體所需要的低延遲推論,本質上是截然不同的工作負載。
- Groq 和 Cerebras 的 SRAM 架構晶片正是因為這個原因被重新評估
- 資料搬運的能耗比 DRAM 低 20 到 100 倍,使其天生適合大規模即時推論
訓練獎勵的是原始吞吐量,推論獎勵的是延遲和能效。贏得上一個時代的硬體,不會自動贏得下一個。
科技巨頭的晶片多元化戰爭
「全押 Nvidia」的策略已經宣告死亡。每一家主要的 AI 公司都在建構多晶片組合。
- OpenAI:從微軟獨家基礎設施擴展至 Cerebras 和 Google TPU
- Anthropic:同時運行超過 100 萬顆 Google TPU,搭配 AWS Trainium 和 Nvidia GPU
- Intel:透過收購 SambaNova 試圖重返推論市場
這不是要取代 Nvidia,而是讓矽晶片與工作負載精準匹配。訓練叢集依然跑在 H100 和 B200 上,但推論叢集 - 也就是真正把智能體交付到使用者手中的那些 - 越來越需要專用架構。
採購邏輯已經從「我們能拿到多少 Nvidia GPU?」變成「以我們的推論與訓練比例,最佳的矽晶片組合是什麼?」
中國正在完成自己的晶片生態系
就在昨天,智譜 AI 發布了 GLM-Image - 一款完全在華為昇騰晶片上訓練的開源影像生成模型,在開源影像生成器中達到了最頂尖的水準。
- 這證明了在美國出口管制下,國產晶片生態系確實可行
- 沒有半導體主權就沒有 AI 主權 - 中國正在依照這個原則行動
影響不僅止於地緣政治。這說明 AI 晶片市場正在碎片化為不同的區域生態系,各自擁有獨立的供應鏈、最佳化堆疊和競爭格局。
這對台灣意味著什麼
從 GPU 為中心的訓練時代轉向推論專用矽晶片,是結構性變化,不是週期性波動。智能體不會批次處理查詢 - 它們以串流、分支、即時迭代的方式運行。能高效服務這種工作負載的晶片架構,將吃下下一波基礎設施支出的大餅。
對台灣來說,這場變局的意義尤其深遠。台積電作為全球先進製程的絕對核心,不只是 Nvidia 的代工廠 - Cerebras、Groq、Google TPU 的晶片同樣仰賴台積電的製程能力。當晶片版圖從 GPU 獨霸走向百花齊放,台積電的戰略地位不減反增:無論哪一種架構勝出,先進製程的需求只會更大。
對全球半導體公司而言,問題已經不是「要不要跨出 GPU」,而是「能多快在推論經濟中卡位」。而對身處供應鏈核心的我們來說,這場推論革命帶來的不只是挑戰,更是讓台灣半導體產業再次定義下一個時代的機會。
訂閱電子報
獲取關於我最新專案、文章以及 AI 和 Web 開發實驗的更新。