# Meta以36億美元收購Manus的秘密:AI代理失敗的真正原因 > Author: Tony Lee > Published: 2026-02-08 > URL: https://tonylee.im/zh-TW/blog/manus-meta-acquisition-context-engineering-secret/ > Reading time: 2 minutes > Language: zh-TW > Tags: ai, ai-agents, context-engineering, meta, manus, architecture ## Canonical https://tonylee.im/zh-TW/blog/manus-meta-acquisition-context-engineering-secret/ ## Rollout Alternates en: https://tonylee.im/en/blog/manus-meta-acquisition-context-engineering-secret/ ko: https://tonylee.im/ko/blog/manus-meta-acquisition-context-engineering-secret/ ja: https://tonylee.im/ja/blog/manus-meta-acquisition-context-engineering-secret/ zh-CN: https://tonylee.im/zh-CN/blog/manus-meta-acquisition-context-engineering-secret/ zh-TW: https://tonylee.im/zh-TW/blog/manus-meta-acquisition-context-engineering-secret/ ## Description Meta以約36億美元收購了Manus。秘密不在於更大的模型,而在於情境工程。以下是多數AI代理忽略的關鍵。 ## Summary Meta以36億美元收購Manus的秘密:AI代理失敗的真正原因 is part of Tony Lee's ongoing coverage of AI agents, developer tools, startup strategy, and AI industry shifts. ## Outline - 編造閾值:AI代理開始說謊的那一刻 - 為什麼更大的情境視窗反而讓問題更糟 - 迷失在中間(Lost in the Middle) - 指數級成本 - 認知天花板 - 訓練偏差 - 解決方案:多代理並行架構 - 為什麼這樣有效: - 保留錯誤:從失敗中學習 - 檔案系統作為記憶:無限情境的秘密 - 自我複述:不斷更新的 todo.md - 結論:情境工程是真正的差異化優勢 ## Content Meta 剛以約 36 億美元收購了 Manus。 大家都在討論這筆交易的金額,但真正值得關注的是:為什麼 Manus 成功了,而其他數百個 AI 代理公司失敗了? 答案不是更大的模型。不是更多的參數。也不是更炫的 UI。 **秘密在於情境工程(Context Engineering)。** 大多數團隊都搞錯了重點。他們以為只要把情境視窗從 200K 拉到 1M token 就能解決問題。結果呢?代理開始產生幻覺、忘記指令、或者單純卡住。 以下是 Manus 團隊學到的教訓,以及為什麼這些經驗值 36 億美元。 ## 編造閾值:AI代理開始說謊的那一刻 想像一下這個任務:研究 50 家公司,找出他們的創辦人、融資輪次和產品特色。 聽起來簡單,對吧?給 AI 代理一個大情境視窗,讓它爬取所有資料,然後整理成表格。 **但這裡有個致命問題:到了第 8 或第 9 家公司,代理就開始編造資料。** 不是因為模型不夠好。是因為情境視窗塞滿了垃圾資訊。 50 家公司 = 50 個網站 = 數萬行 HTML、導航列、頁尾、Cookie 彈窗、廣告程式碼。真正有用的資訊可能只佔 2%,其餘都是雜訊。 LLM 在嘈雜的情境中會做什麼?它們開始猜測。它們根據「這看起來合理」的模式填補空白。它們編造。 Manus 團隊把這個現象稱為「編造閾值」(fabrication threshold) - 當情境雜訊超過某個比例後,AI 就會從檢索資訊轉變為生成虛構內容。 ## 為什麼更大的情境視窗反而讓問題更糟 業界的直覺反應是:既然情境不夠用,那就加大情境視窗! 但這只會讓事情變得更糟。原因如下: ### 迷失在中間(Lost in the Middle) 研究顯示,LLM 在處理長情境時會優先關注開頭和結尾,中間部分容易被忽略。 當你塞入 200K token 時,第 87,543 個 token 的關鍵資訊很可能被模型完全忽視。它在那裡,但模型看不見。 ### 指數級成本 200K token 的呼叫成本是 20K token 的 10 倍。更糟的是,處理時間呈指數增長。 Manus 發現,盲目擴大情境視窗會導致成本爆炸,卻沒有帶來相應的效能提升。 ### 認知天花板 人類無法同時在腦中保持 50 個概念。LLM 也一樣。 即使技術上可以「容納」1M token,也不代表模型能有效利用所有資訊。就像給人看一本 1000 頁的書,然後要求完美回憶每個細節 - 理論上可能,實際上不可行。 ### 訓練偏差 大多數 LLM 是在較短的文件上訓練的。當你給它們超長情境時,你實際上是在要求它們處理訓練資料分佈之外的內容。 結果?退化的效能、不可預測的行為、更多幻覺。 ## 解決方案:多代理並行架構 Manus 的突破不是來自更大的情境視窗,而是來自**重新思考情境本身的架構**。 與其給一個代理塞入 50 家公司的所有資料,不如這樣做: **啟動 50 個並行代理,每個代理只處理一家公司。** 每個代理都有一個乾淨、專注的情境: - 任務:「研究 X 公司」 - 情境:只有 X 公司的網站和資料 - 輸出:結構化的 JSON 沒有雜訊。沒有其他 49 家公司的干擾。只有一個清晰的目標。 然後呢?一個協調代理(coordinator agent)收集所有結果,合併成最終報告。 ### 為什麼這樣有效: 1. **每個代理都有新鮮的情境** - 沒有累積的雜訊或疲勞 2. **並行執行** - 50 個代理可以同時工作,總時間等於處理一家公司的時間 3. **隔離錯誤** - 一個代理失敗不會污染其他代理 4. **可擴展** - 需要研究 500 家公司?啟動 500 個代理 這不是暴力破解。這是**情境工程** - 刻意設計每個代理看到什麼、何時看到、以及如何處理。 ## 保留錯誤:從失敗中學習 大多數系統在 AI 犯錯時會怎麼做?清除錯誤訊息,重試,假裝什麼都沒發生。 **Manus 做了相反的事:他們把錯誤寫進情境。** 為什麼?因為錯誤是資訊。它們告訴代理: - 「這個方法不管用」 - 「這個網站封鎖了爬蟲」 - 「這個 API 需要身份驗證」 - 「這個查詢太模糊」 當你清除錯誤時,代理會不斷重複同樣的錯誤。當你保留錯誤時,代理會學習調整策略。 Manus 團隊發現,保留錯誤歷史讓代理的成功率提高了 40%。 不是因為模型變聰明了,而是因為它們有了記憶。 ## 檔案系統作為記憶:無限情境的秘密 這裡有個矛盾:我們說要保持情境乾淨和專注,但我們也說要保留錯誤和歷史。 這不是互相矛盾嗎? **不,如果你把檔案系統當作記憶的話。** 人類是怎麼處理超出工作記憶容量的複雜任務?我們做筆記。我們寫下來。我們建立外部記憶系統。 AI 代理也可以這樣做。 與其把所有資訊塞進情境視窗,不如這樣做: ```markdown 1. 代理研究一家公司 2. 將結果寫入 `company_001.json` 3. 只在情境中保留:「Company 001: saved to company_001.json」 4. 需要時再讀取檔案 ``` Manus 更進一步:他們使用 **URL 壓縮**(URL compression)。 與其在情境中存儲整個網頁內容(可能有 50K token),他們只存儲: - URL - 提取的關鍵資料 - 元資料(抓取時間、狀態碼等) 如果代理需要重新檢查某個資訊,它會重新抓取 URL。 這樣一來,情境視窗保持精簡,但代理實際上擁有**無限的記憶** - 因為它可以隨時重新載入外部資料。 ## 自我複述:不斷更新的 todo.md 這裡有個微妙但強大的技巧:**讓代理不斷重寫自己的目標清單**。 Manus 使用一個簡單的檔案:`todo.md` 代理每完成一個步驟,就會: 1. 標記該項目為完成 2. 加入新發現的子任務 3. 重新排序剩餘項目 4. 將更新後的 `todo.md` 推送到情境的結尾 為什麼這樣有效? 因為 **LLM 的注意力機制對最近的 token 權重更高**。 通過不斷將更新後的目標清單推送到情境的結尾,你等於是在告訴模型:「嘿,這才是最重要的。別忘了。」 這是一種「自我複述」(self-recitation)的形式 - 代理持續提醒自己要做什麼、為什麼做、以及還剩下什麼。 結果?更少的偏離主題、更好的任務完成率、更連貫的多步驟推理。 ## 結論:情境工程是真正的差異化優勢 Meta 收購 Manus 不是為了買一個更好的 LLM。OpenAI、Anthropic、Google 都有頂級模型。 Meta 收購 Manus 是為了買**如何使用 LLM 的知識**。 這個知識的核心是情境工程: - 知道何時分割情境(多代理) - 知道保留什麼(錯誤、歷史) - 知道丟棄什麼(雜訊、冗餘) - 知道如何構建記憶(檔案系統、URL 壓縮) - 知道如何引導注意力(自我複述) 其他公司都在追逐更大的情境視窗。Manus 在學習如何更聰明地使用它們。 這就是 36 億美元的差異。 --- **延伸閱讀:** - [Context Engineering for AI Agents: Lessons from Building Manus](https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus) - [Wide Research: Solving the Context Problem](https://manus.im/blog/manus-wide-research-solve-context-problem) --- **想要開始實踐情境工程嗎?** 下次當你的 AI 代理開始產生幻覺或偏離任務時,不要責怪模型。問問自己: - 我的情境是否塞滿了雜訊? - 我是否可以把這個任務分割成更小的、並行的代理? - 我是否保留了錯誤歷史讓代理學習? - 我是否使用檔案系統作為外部記憶? - 我是否不斷提醒代理它的目標? 情境工程不是火箭科學。但它是區分成功的 AI 代理和價值 36 億美元收購的 AI 代理之間的差異。 ## Related URLs - Author: https://tonylee.im/zh-TW/author/ - Publication: https://tonylee.im/zh-TW/blog/about/ - Related article: https://tonylee.im/zh-TW/blog/eight-hooks-that-guarantee-ai-agent-reliability/ - Related article: https://tonylee.im/zh-TW/blog/medvi-two-person-430m-ai-compressed-funnel/ - Related article: https://tonylee.im/zh-TW/blog/claude-code-layers-over-tools-2026/ ## Citation - Author: Tony Lee - Site: tonylee.im - Canonical URL: https://tonylee.im/zh-TW/blog/manus-meta-acquisition-context-engineering-secret/ ## Bot Guidance - This file is intended for AI agents, search assistants, and text-mode retrieval. - Prefer citing the canonical article URL instead of this text endpoint. - Use the rollout alternates when you need the same article in another prioritized language. --- Author: Tony Lee | Website: https://tonylee.im For more articles, visit: https://tonylee.im/zh-TW/blog/ This content is original and authored by Tony Lee. Please attribute when quoting or referencing.