Meta以36億美元收購Manus的秘密:AI代理失敗的真正原因
Meta以約36億美元收購了Manus。秘密不在於更大的模型,而在於情境工程。以下是多數AI代理忽略的關鍵。
Meta 剛以約 36 億美元收購了 Manus。
大家都在討論這筆交易的金額,但真正值得關注的是:為什麼 Manus 成功了,而其他數百個 AI 代理公司失敗了?
答案不是更大的模型。不是更多的參數。也不是更炫的 UI。
秘密在於情境工程(Context Engineering)。
大多數團隊都搞錯了重點。他們以為只要把情境視窗從 200K 拉到 1M token 就能解決問題。結果呢?代理開始產生幻覺、忘記指令、或者單純卡住。
以下是 Manus 團隊學到的教訓,以及為什麼這些經驗值 36 億美元。
編造閾值:AI代理開始說謊的那一刻
想像一下這個任務:研究 50 家公司,找出他們的創辦人、融資輪次和產品特色。
聽起來簡單,對吧?給 AI 代理一個大情境視窗,讓它爬取所有資料,然後整理成表格。
但這裡有個致命問題:到了第 8 或第 9 家公司,代理就開始編造資料。
不是因為模型不夠好。是因為情境視窗塞滿了垃圾資訊。
50 家公司 = 50 個網站 = 數萬行 HTML、導航列、頁尾、Cookie 彈窗、廣告程式碼。真正有用的資訊可能只佔 2%,其餘都是雜訊。
LLM 在嘈雜的情境中會做什麼?它們開始猜測。它們根據「這看起來合理」的模式填補空白。它們編造。
Manus 團隊把這個現象稱為「編造閾值」(fabrication threshold) - 當情境雜訊超過某個比例後,AI 就會從檢索資訊轉變為生成虛構內容。
為什麼更大的情境視窗反而讓問題更糟
業界的直覺反應是:既然情境不夠用,那就加大情境視窗!
但這只會讓事情變得更糟。原因如下:
迷失在中間(Lost in the Middle)
研究顯示,LLM 在處理長情境時會優先關注開頭和結尾,中間部分容易被忽略。
當你塞入 200K token 時,第 87,543 個 token 的關鍵資訊很可能被模型完全忽視。它在那裡,但模型看不見。
指數級成本
200K token 的呼叫成本是 20K token 的 10 倍。更糟的是,處理時間呈指數增長。
Manus 發現,盲目擴大情境視窗會導致成本爆炸,卻沒有帶來相應的效能提升。
認知天花板
人類無法同時在腦中保持 50 個概念。LLM 也一樣。
即使技術上可以「容納」1M token,也不代表模型能有效利用所有資訊。就像給人看一本 1000 頁的書,然後要求完美回憶每個細節 - 理論上可能,實際上不可行。
訓練偏差
大多數 LLM 是在較短的文件上訓練的。當你給它們超長情境時,你實際上是在要求它們處理訓練資料分佈之外的內容。
結果?退化的效能、不可預測的行為、更多幻覺。
解決方案:多代理並行架構
Manus 的突破不是來自更大的情境視窗,而是來自重新思考情境本身的架構。
與其給一個代理塞入 50 家公司的所有資料,不如這樣做:
啟動 50 個並行代理,每個代理只處理一家公司。
每個代理都有一個乾淨、專注的情境:
- 任務:「研究 X 公司」
- 情境:只有 X 公司的網站和資料
- 輸出:結構化的 JSON
沒有雜訊。沒有其他 49 家公司的干擾。只有一個清晰的目標。
然後呢?一個協調代理(coordinator agent)收集所有結果,合併成最終報告。
為什麼這樣有效:
- 每個代理都有新鮮的情境 - 沒有累積的雜訊或疲勞
- 並行執行 - 50 個代理可以同時工作,總時間等於處理一家公司的時間
- 隔離錯誤 - 一個代理失敗不會污染其他代理
- 可擴展 - 需要研究 500 家公司?啟動 500 個代理
這不是暴力破解。這是情境工程 - 刻意設計每個代理看到什麼、何時看到、以及如何處理。
保留錯誤:從失敗中學習
大多數系統在 AI 犯錯時會怎麼做?清除錯誤訊息,重試,假裝什麼都沒發生。
Manus 做了相反的事:他們把錯誤寫進情境。
為什麼?因為錯誤是資訊。它們告訴代理:
- 「這個方法不管用」
- 「這個網站封鎖了爬蟲」
- 「這個 API 需要身份驗證」
- 「這個查詢太模糊」
當你清除錯誤時,代理會不斷重複同樣的錯誤。當你保留錯誤時,代理會學習調整策略。
Manus 團隊發現,保留錯誤歷史讓代理的成功率提高了 40%。
不是因為模型變聰明了,而是因為它們有了記憶。
檔案系統作為記憶:無限情境的秘密
這裡有個矛盾:我們說要保持情境乾淨和專注,但我們也說要保留錯誤和歷史。
這不是互相矛盾嗎?
不,如果你把檔案系統當作記憶的話。
人類是怎麼處理超出工作記憶容量的複雜任務?我們做筆記。我們寫下來。我們建立外部記憶系統。
AI 代理也可以這樣做。
與其把所有資訊塞進情境視窗,不如這樣做:
1. 代理研究一家公司
2. 將結果寫入 `company_001.json`
3. 只在情境中保留:「Company 001: saved to company_001.json」
4. 需要時再讀取檔案
Manus 更進一步:他們使用 URL 壓縮(URL compression)。
與其在情境中存儲整個網頁內容(可能有 50K token),他們只存儲:
- URL
- 提取的關鍵資料
- 元資料(抓取時間、狀態碼等)
如果代理需要重新檢查某個資訊,它會重新抓取 URL。
這樣一來,情境視窗保持精簡,但代理實際上擁有無限的記憶 - 因為它可以隨時重新載入外部資料。
自我複述:不斷更新的 todo.md
這裡有個微妙但強大的技巧:讓代理不斷重寫自己的目標清單。
Manus 使用一個簡單的檔案:todo.md
代理每完成一個步驟,就會:
- 標記該項目為完成
- 加入新發現的子任務
- 重新排序剩餘項目
- 將更新後的
todo.md推送到情境的結尾
為什麼這樣有效?
因為 LLM 的注意力機制對最近的 token 權重更高。
通過不斷將更新後的目標清單推送到情境的結尾,你等於是在告訴模型:「嘿,這才是最重要的。別忘了。」
這是一種「自我複述」(self-recitation)的形式 - 代理持續提醒自己要做什麼、為什麼做、以及還剩下什麼。
結果?更少的偏離主題、更好的任務完成率、更連貫的多步驟推理。
結論:情境工程是真正的差異化優勢
Meta 收購 Manus 不是為了買一個更好的 LLM。OpenAI、Anthropic、Google 都有頂級模型。
Meta 收購 Manus 是為了買如何使用 LLM 的知識。
這個知識的核心是情境工程:
- 知道何時分割情境(多代理)
- 知道保留什麼(錯誤、歷史)
- 知道丟棄什麼(雜訊、冗餘)
- 知道如何構建記憶(檔案系統、URL 壓縮)
- 知道如何引導注意力(自我複述)
其他公司都在追逐更大的情境視窗。Manus 在學習如何更聰明地使用它們。
這就是 36 億美元的差異。
延伸閱讀:
- Context Engineering for AI Agents: Lessons from Building Manus
- Wide Research: Solving the Context Problem
想要開始實踐情境工程嗎?
下次當你的 AI 代理開始產生幻覺或偏離任務時,不要責怪模型。問問自己:
- 我的情境是否塞滿了雜訊?
- 我是否可以把這個任務分割成更小的、並行的代理?
- 我是否保留了錯誤歷史讓代理學習?
- 我是否使用檔案系統作為外部記憶?
- 我是否不斷提醒代理它的目標?
情境工程不是火箭科學。但它是區分成功的 AI 代理和價值 36 億美元收購的 AI 代理之間的差異。
訂閱電子報
獲取關於我最新專案、文章以及 AI 和 Web 開發實驗的更新。