目錄
2 分鐘閱讀

Meta以36億美元收購Manus的秘密:AI代理失敗的真正原因

Meta以約36億美元收購了Manus。秘密不在於更大的模型,而在於情境工程。以下是多數AI代理忽略的關鍵。

Meta 剛以約 36 億美元收購了 Manus。

大家都在討論這筆交易的金額,但真正值得關注的是:為什麼 Manus 成功了,而其他數百個 AI 代理公司失敗了?

答案不是更大的模型。不是更多的參數。也不是更炫的 UI。

秘密在於情境工程(Context Engineering)。

大多數團隊都搞錯了重點。他們以為只要把情境視窗從 200K 拉到 1M token 就能解決問題。結果呢?代理開始產生幻覺、忘記指令、或者單純卡住。

以下是 Manus 團隊學到的教訓,以及為什麼這些經驗值 36 億美元。

編造閾值:AI代理開始說謊的那一刻

想像一下這個任務:研究 50 家公司,找出他們的創辦人、融資輪次和產品特色。

聽起來簡單,對吧?給 AI 代理一個大情境視窗,讓它爬取所有資料,然後整理成表格。

但這裡有個致命問題:到了第 8 或第 9 家公司,代理就開始編造資料。

不是因為模型不夠好。是因為情境視窗塞滿了垃圾資訊。

50 家公司 = 50 個網站 = 數萬行 HTML、導航列、頁尾、Cookie 彈窗、廣告程式碼。真正有用的資訊可能只佔 2%,其餘都是雜訊。

LLM 在嘈雜的情境中會做什麼?它們開始猜測。它們根據「這看起來合理」的模式填補空白。它們編造。

Manus 團隊把這個現象稱為「編造閾值」(fabrication threshold) - 當情境雜訊超過某個比例後,AI 就會從檢索資訊轉變為生成虛構內容。

為什麼更大的情境視窗反而讓問題更糟

業界的直覺反應是:既然情境不夠用,那就加大情境視窗!

但這只會讓事情變得更糟。原因如下:

迷失在中間(Lost in the Middle)

研究顯示,LLM 在處理長情境時會優先關注開頭和結尾,中間部分容易被忽略。

當你塞入 200K token 時,第 87,543 個 token 的關鍵資訊很可能被模型完全忽視。它在那裡,但模型看不見。

指數級成本

200K token 的呼叫成本是 20K token 的 10 倍。更糟的是,處理時間呈指數增長。

Manus 發現,盲目擴大情境視窗會導致成本爆炸,卻沒有帶來相應的效能提升。

認知天花板

人類無法同時在腦中保持 50 個概念。LLM 也一樣。

即使技術上可以「容納」1M token,也不代表模型能有效利用所有資訊。就像給人看一本 1000 頁的書,然後要求完美回憶每個細節 - 理論上可能,實際上不可行。

訓練偏差

大多數 LLM 是在較短的文件上訓練的。當你給它們超長情境時,你實際上是在要求它們處理訓練資料分佈之外的內容。

結果?退化的效能、不可預測的行為、更多幻覺。

解決方案:多代理並行架構

Manus 的突破不是來自更大的情境視窗,而是來自重新思考情境本身的架構

與其給一個代理塞入 50 家公司的所有資料,不如這樣做:

啟動 50 個並行代理,每個代理只處理一家公司。

每個代理都有一個乾淨、專注的情境:

  • 任務:「研究 X 公司」
  • 情境:只有 X 公司的網站和資料
  • 輸出:結構化的 JSON

沒有雜訊。沒有其他 49 家公司的干擾。只有一個清晰的目標。

然後呢?一個協調代理(coordinator agent)收集所有結果,合併成最終報告。

為什麼這樣有效:

  1. 每個代理都有新鮮的情境 - 沒有累積的雜訊或疲勞
  2. 並行執行 - 50 個代理可以同時工作,總時間等於處理一家公司的時間
  3. 隔離錯誤 - 一個代理失敗不會污染其他代理
  4. 可擴展 - 需要研究 500 家公司?啟動 500 個代理

這不是暴力破解。這是情境工程 - 刻意設計每個代理看到什麼、何時看到、以及如何處理。

保留錯誤:從失敗中學習

大多數系統在 AI 犯錯時會怎麼做?清除錯誤訊息,重試,假裝什麼都沒發生。

Manus 做了相反的事:他們把錯誤寫進情境。

為什麼?因為錯誤是資訊。它們告訴代理:

  • 「這個方法不管用」
  • 「這個網站封鎖了爬蟲」
  • 「這個 API 需要身份驗證」
  • 「這個查詢太模糊」

當你清除錯誤時,代理會不斷重複同樣的錯誤。當你保留錯誤時,代理會學習調整策略。

Manus 團隊發現,保留錯誤歷史讓代理的成功率提高了 40%。

不是因為模型變聰明了,而是因為它們有了記憶。

檔案系統作為記憶:無限情境的秘密

這裡有個矛盾:我們說要保持情境乾淨和專注,但我們也說要保留錯誤和歷史。

這不是互相矛盾嗎?

不,如果你把檔案系統當作記憶的話。

人類是怎麼處理超出工作記憶容量的複雜任務?我們做筆記。我們寫下來。我們建立外部記憶系統。

AI 代理也可以這樣做。

與其把所有資訊塞進情境視窗,不如這樣做:

1. 代理研究一家公司
2. 將結果寫入 `company_001.json`
3. 只在情境中保留:「Company 001: saved to company_001.json」
4. 需要時再讀取檔案

Manus 更進一步:他們使用 URL 壓縮(URL compression)。

與其在情境中存儲整個網頁內容(可能有 50K token),他們只存儲:

  • URL
  • 提取的關鍵資料
  • 元資料(抓取時間、狀態碼等)

如果代理需要重新檢查某個資訊,它會重新抓取 URL。

這樣一來,情境視窗保持精簡,但代理實際上擁有無限的記憶 - 因為它可以隨時重新載入外部資料。

自我複述:不斷更新的 todo.md

這裡有個微妙但強大的技巧:讓代理不斷重寫自己的目標清單

Manus 使用一個簡單的檔案:todo.md

代理每完成一個步驟,就會:

  1. 標記該項目為完成
  2. 加入新發現的子任務
  3. 重新排序剩餘項目
  4. 將更新後的 todo.md 推送到情境的結尾

為什麼這樣有效?

因為 LLM 的注意力機制對最近的 token 權重更高

通過不斷將更新後的目標清單推送到情境的結尾,你等於是在告訴模型:「嘿,這才是最重要的。別忘了。」

這是一種「自我複述」(self-recitation)的形式 - 代理持續提醒自己要做什麼、為什麼做、以及還剩下什麼。

結果?更少的偏離主題、更好的任務完成率、更連貫的多步驟推理。

結論:情境工程是真正的差異化優勢

Meta 收購 Manus 不是為了買一個更好的 LLM。OpenAI、Anthropic、Google 都有頂級模型。

Meta 收購 Manus 是為了買如何使用 LLM 的知識

這個知識的核心是情境工程:

  • 知道何時分割情境(多代理)
  • 知道保留什麼(錯誤、歷史)
  • 知道丟棄什麼(雜訊、冗餘)
  • 知道如何構建記憶(檔案系統、URL 壓縮)
  • 知道如何引導注意力(自我複述)

其他公司都在追逐更大的情境視窗。Manus 在學習如何更聰明地使用它們。

這就是 36 億美元的差異。


延伸閱讀:


想要開始實踐情境工程嗎?

下次當你的 AI 代理開始產生幻覺或偏離任務時,不要責怪模型。問問自己:

  • 我的情境是否塞滿了雜訊?
  • 我是否可以把這個任務分割成更小的、並行的代理?
  • 我是否保留了錯誤歷史讓代理學習?
  • 我是否使用檔案系統作為外部記憶?
  • 我是否不斷提醒代理它的目標?

情境工程不是火箭科學。但它是區分成功的 AI 代理和價值 36 億美元收購的 AI 代理之間的差異。

訂閱電子報

獲取關於我最新專案、文章以及 AI 和 Web 開發實驗的更新。