# Meta 36亿美元收购Manus背后的秘密:AI智能体失败的真正原因 > Author: Tony Lee > Published: 2026-02-08 > URL: https://tonylee.im/zh-CN/blog/manus-meta-acquisition-context-engineering-secret/ > Reading time: 3 minutes > Language: zh-CN > Tags: ai, ai-agents, context-engineering, meta, manus, architecture ## Canonical https://tonylee.im/zh-CN/blog/manus-meta-acquisition-context-engineering-secret/ ## Rollout Alternates en: https://tonylee.im/en/blog/manus-meta-acquisition-context-engineering-secret/ ko: https://tonylee.im/ko/blog/manus-meta-acquisition-context-engineering-secret/ ja: https://tonylee.im/ja/blog/manus-meta-acquisition-context-engineering-secret/ zh-CN: https://tonylee.im/zh-CN/blog/manus-meta-acquisition-context-engineering-secret/ zh-TW: https://tonylee.im/zh-TW/blog/manus-meta-acquisition-context-engineering-secret/ ## Description Meta以约36亿美元收购了Manus。秘密不在于更大的模型,而在于上下文工程。以下是大多数AI智能体忽略的关键。 ## Summary Meta 36亿美元收购Manus背后的秘密:AI智能体失败的真正原因 is part of Tony Lee's ongoing coverage of AI agents, developer tools, startup strategy, and AI industry shifts. ## Outline - AI 开始撒谎的那一刻 - 更大的记忆不是答案 - 迷失在中间(Lost in the Middle) - 指数级成本 - 认知天花板 - 训练偏差 - Manus 的解法:多智能体并行架构 - 不要隐藏你的错误 - Task: Install dependencies - 文件系统就是真正的记忆 - 基于文件的上下文存储 - URL 压缩技巧 - 会自己和自己对话的 AI - todo.md 自我朗诵机制 - Current Status (Agent self-check) - 谁掌握了上下文,谁就掌握了智能体 - 参考资料 ## Content Meta 最近以约 36 亿美元收购了 Manus。Manus 每天能稳定处理数百万次对话 - 而这背后的秘密,既不是更大的模型,也不是更长的上下文窗口。而是一种完全不同的方法论:**上下文工程**(Context Engineering)。 ## AI 开始撒谎的那一刻 你有没有发现,当你让 AI 记住一长串待办事项时,它总是会"选择性失忆"? 这不是偶然。研究表明,当列表达到第 8-9 个项目时,AI 就会开始编造内容。这被称为**幻觉阈值**(Fabrication Threshold) - AI 不会承认"我记不住了",而是会自信地给你一个错误答案。 想象一下,你的 AI 助手管理着 20 个任务、50 个文件、100 条历史消息。它不会告诉你"信息太多了",而是会悄悄地开始瞎编。 这就是为什么大多数 AI 智能体在真实场景下会崩溃。 ## 更大的记忆不是答案 面对这个问题,行业的第一反应是什么? **扩大上下文窗口。** 从 4K token 到 8K,到 32K,到 128K,现在已经到了 200 万 token。听起来很美好,对吧? 但这里有三个致命问题: ### 迷失在中间(Lost in the Middle) 把 AI 的注意力想象成一个聚光灯。即使上下文窗口再大,它也只能清晰地"看见"开头和结尾。中间的内容?基本上是一片模糊。 研究表明,放在上下文**中间位置**的信息,召回率会大幅下降。这就像给你一本 500 页的书,让你记住第 247 页的某个句子 - 几乎不可能。 ### 指数级成本 上下文窗口每翻倍,推理成本就会呈指数级增长。 处理 200 万 token 的单次对话可能花费数百美元。如果你的智能体每天运行数千次任务?成本会直接爆炸。 Manus 每天处理数百万次对话。如果使用传统的"超长上下文"方法,他们早就破产了。 ### 认知天花板 这是最根本的问题:**AI 的工作记忆是有限的。** 人类的工作记忆只能同时处理 7±2 个信息块。AI 也类似 - 不管你给它多大的上下文窗口,它的**有效工作记忆**依然有限。 就像你不能通过把所有书籍都放在桌上来提高阅读理解能力。真正的问题是:**如何组织信息,让 AI 在需要时能找到正确的那一块。** ### 训练偏差 还有一个隐藏问题:大多数 LLM 是在**短文档**上训练的。 即使模型支持 200 万 token,它在实际处理超长文本时的表现也会大幅下降 - 因为它从来没有在训练阶段"见过"这么长的真实场景。 ## Manus 的解法:多智能体并行架构 Manus 的方法完全不同。他们不是给单个 AI 塞入更多上下文,而是: **把任务拆分给多个专门的智能体,让它们并行工作。** 想象一个软件开发团队: - **Planner Agent**:负责制定计划 - **Coder Agent**:负责写代码 - **Reviewer Agent**:负责代码审查 - **Debugger Agent**:负责修复错误 每个智能体只需要关注**自己职责范围内的上下文**,而不是试图记住整个项目的所有细节。 这种架构有几个关键优势: 1. **降低单个智能体的认知负担** - 每个 Agent 的上下文都保持在最佳工作范围内 2. **提高并行效率** - 多个任务可以同时进行 3. **成本可控** - 避免了单次调用处理百万级 token 的高昂成本 4. **容错性更强** - 某个 Agent 出错不会影响整体流程 这就是为什么 Manus 能每天稳定处理数百万次对话。 ## 不要隐藏你的错误 大多数智能体有一个致命缺陷:**它们会试图掩盖错误。** 当执行失败时,AI 会倾向于: - 假装没有发生错误 - 重新生成一个"看起来正确"的答案 - 直接跳过失败的步骤 Manus 的做法完全相反:**保留所有错误痕迹。** ```markdown ## Task: Install dependencies Status: Failed Error: npm ERR! 404 Not Found - package 'react-super-lib' not found Retry 1: Failed Retry 2: Failed Alternative: Installed 'react-standard-lib' instead ``` 为什么这很重要? 1. **AI 可以从错误中学习** - 知道哪些路径行不通 2. **避免重复错误** - 不会在同一个坑里摔两次 3. **调试能力** - 人类可以快速定位问题根源 4. **上下文连贯性** - AI 理解当前状态是如何演变的 这就像软件开发中的日志系统 - 你不会在程序出错时删除日志,而是要保留完整的错误堆栈。 ## 文件系统就是真正的记忆 Manus 发现了一个反直觉的真相: **与其把所有信息塞进 prompt,不如把它们存进文件系统。** 这听起来很简单,但效果惊人: ### 基于文件的上下文存储 不要这样做: ``` Prompt: "Remember these 50 tasks: 1. Fix bug in auth.ts, 2. Update database schema..." ``` 而是这样: ``` Prompt: "Check todo.md for current tasks" File: todo.md - [ ] Fix bug in auth.ts (see error.log) - [ ] Update database schema (see migrations/001.sql) ``` 好处: - **上下文压缩**:用文件路径代替完整内容 - **持久化存储**:信息不会在会话结束后丢失 - **可检索性**:AI 可以随时读取需要的文件 - **人类可读**:开发者可以直接查看和修改 ### URL 压缩技巧 Manus 还使用了一个聪明的技巧:**用 URL 代替完整文档内容。** 不要这样: ``` Prompt: "Here's the full React documentation: [10,000 lines of text]" ``` 而是这样: ``` Prompt: "Refer to React Hooks documentation at https://react.dev/reference/react/hooks" ``` 现代 LLM(如 Claude)可以直接访问 URL 并提取相关信息。这把上下文占用从数万 token 压缩到了几个 token。 ## 会自己和自己对话的 AI Manus 最有趣的发现之一是: **让 AI 定期朗读自己的待办清单。** 听起来很蠢?但效果惊人。 ### todo.md 自我朗诵机制 每隔几步操作,Manus 的智能体就会: 1. 读取 `todo.md` 2. 大声"复述"当前任务列表 3. 确认下一步要做什么 4. 标记已完成的任务 ```markdown ## Current Status (Agent self-check) Completed: - [x] Created authentication module - [x] Set up database connection In Progress: - [ ] Implement user registration endpoint Next: - [ ] Add input validation - [ ] Write unit tests ``` 这模拟了人类的**工作记忆刷新机制**。你在做复杂任务时,是不是也会时不时停下来问自己:"我现在做到哪了?" Manus 的数据显示: - **平均每个任务需要 50 次工具调用** - 每 5-10 次调用就会"复述"一次待办清单 - 这将任务完成率提高了约 40% ## 谁掌握了上下文,谁就掌握了智能体 Meta 花 36 亿美元买的不是 Manus 的模型,也不是它的代码。 **买的是它的上下文工程方法论。** 因为他们明白: > **在 AI 智能体时代,上下文工程的重要性 > 模型大小。** 你可以用最先进的 GPT-5 或 Claude Opus,但如果上下文管理混乱,智能体依然会崩溃。 反过来,即使用稍弱的模型,只要上下文组织得当: - 多智能体并行架构 - 基于文件的记忆系统 - 错误痕迹保留 - 定期自我复述 你的智能体也能稳定处理复杂的真实场景。 这就是 Manus 的秘密。 也是未来所有 AI 智能体开发者必须掌握的核心技能。 --- ## 参考资料 - [Context Engineering for AI Agents: Lessons from Building Manus](https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus) - [Wide Research: Solving the Context Problem](https://manus.im/blog/manus-wide-research-solve-context-problem) ## Related URLs - Author: https://tonylee.im/zh-CN/author/ - Publication: https://tonylee.im/zh-CN/blog/about/ - Related article: https://tonylee.im/zh-CN/blog/eight-hooks-that-guarantee-ai-agent-reliability/ - Related article: https://tonylee.im/zh-CN/blog/medvi-two-person-430m-ai-compressed-funnel/ - Related article: https://tonylee.im/zh-CN/blog/claude-code-layers-over-tools-2026/ ## Citation - Author: Tony Lee - Site: tonylee.im - Canonical URL: https://tonylee.im/zh-CN/blog/manus-meta-acquisition-context-engineering-secret/ ## Bot Guidance - This file is intended for AI agents, search assistants, and text-mode retrieval. - Prefer citing the canonical article URL instead of this text endpoint. - Use the rollout alternates when you need the same article in another prioritized language. --- Author: Tony Lee | Website: https://tonylee.im For more articles, visit: https://tonylee.im/zh-CN/blog/ This content is original and authored by Tony Lee. Please attribute when quoting or referencing.