Meta 36亿美元收购Manus背后的秘密:AI智能体失败的真正原因
Meta以约36亿美元收购了Manus。秘密不在于更大的模型,而在于上下文工程。以下是大多数AI智能体忽略的关键。
Meta 最近以约 36 亿美元收购了 Manus。Manus 每天能稳定处理数百万次对话 - 而这背后的秘密,既不是更大的模型,也不是更长的上下文窗口。而是一种完全不同的方法论:上下文工程(Context Engineering)。
AI 开始撒谎的那一刻
你有没有发现,当你让 AI 记住一长串待办事项时,它总是会”选择性失忆”?
这不是偶然。研究表明,当列表达到第 8-9 个项目时,AI 就会开始编造内容。这被称为幻觉阈值(Fabrication Threshold) - AI 不会承认”我记不住了”,而是会自信地给你一个错误答案。
想象一下,你的 AI 助手管理着 20 个任务、50 个文件、100 条历史消息。它不会告诉你”信息太多了”,而是会悄悄地开始瞎编。
这就是为什么大多数 AI 智能体在真实场景下会崩溃。
更大的记忆不是答案
面对这个问题,行业的第一反应是什么?
扩大上下文窗口。
从 4K token 到 8K,到 32K,到 128K,现在已经到了 200 万 token。听起来很美好,对吧?
但这里有三个致命问题:
迷失在中间(Lost in the Middle)
把 AI 的注意力想象成一个聚光灯。即使上下文窗口再大,它也只能清晰地”看见”开头和结尾。中间的内容?基本上是一片模糊。
研究表明,放在上下文中间位置的信息,召回率会大幅下降。这就像给你一本 500 页的书,让你记住第 247 页的某个句子 - 几乎不可能。
指数级成本
上下文窗口每翻倍,推理成本就会呈指数级增长。
处理 200 万 token 的单次对话可能花费数百美元。如果你的智能体每天运行数千次任务?成本会直接爆炸。
Manus 每天处理数百万次对话。如果使用传统的”超长上下文”方法,他们早就破产了。
认知天花板
这是最根本的问题:AI 的工作记忆是有限的。
人类的工作记忆只能同时处理 7±2 个信息块。AI 也类似 - 不管你给它多大的上下文窗口,它的有效工作记忆依然有限。
就像你不能通过把所有书籍都放在桌上来提高阅读理解能力。真正的问题是:如何组织信息,让 AI 在需要时能找到正确的那一块。
训练偏差
还有一个隐藏问题:大多数 LLM 是在短文档上训练的。
即使模型支持 200 万 token,它在实际处理超长文本时的表现也会大幅下降 - 因为它从来没有在训练阶段”见过”这么长的真实场景。
Manus 的解法:多智能体并行架构
Manus 的方法完全不同。他们不是给单个 AI 塞入更多上下文,而是:
把任务拆分给多个专门的智能体,让它们并行工作。
想象一个软件开发团队:
- Planner Agent:负责制定计划
- Coder Agent:负责写代码
- Reviewer Agent:负责代码审查
- Debugger Agent:负责修复错误
每个智能体只需要关注自己职责范围内的上下文,而不是试图记住整个项目的所有细节。
这种架构有几个关键优势:
- 降低单个智能体的认知负担 - 每个 Agent 的上下文都保持在最佳工作范围内
- 提高并行效率 - 多个任务可以同时进行
- 成本可控 - 避免了单次调用处理百万级 token 的高昂成本
- 容错性更强 - 某个 Agent 出错不会影响整体流程
这就是为什么 Manus 能每天稳定处理数百万次对话。
不要隐藏你的错误
大多数智能体有一个致命缺陷:它们会试图掩盖错误。
当执行失败时,AI 会倾向于:
- 假装没有发生错误
- 重新生成一个”看起来正确”的答案
- 直接跳过失败的步骤
Manus 的做法完全相反:保留所有错误痕迹。
## Task: Install dependencies
Status: Failed
Error: npm ERR! 404 Not Found - package 'react-super-lib' not found
Retry 1: Failed
Retry 2: Failed
Alternative: Installed 'react-standard-lib' instead
为什么这很重要?
- AI 可以从错误中学习 - 知道哪些路径行不通
- 避免重复错误 - 不会在同一个坑里摔两次
- 调试能力 - 人类可以快速定位问题根源
- 上下文连贯性 - AI 理解当前状态是如何演变的
这就像软件开发中的日志系统 - 你不会在程序出错时删除日志,而是要保留完整的错误堆栈。
文件系统就是真正的记忆
Manus 发现了一个反直觉的真相:
与其把所有信息塞进 prompt,不如把它们存进文件系统。
这听起来很简单,但效果惊人:
基于文件的上下文存储
不要这样做:
Prompt: "Remember these 50 tasks: 1. Fix bug in auth.ts, 2. Update database schema..."
而是这样:
Prompt: "Check todo.md for current tasks"
File: todo.md
- [ ] Fix bug in auth.ts (see error.log)
- [ ] Update database schema (see migrations/001.sql)
好处:
- 上下文压缩:用文件路径代替完整内容
- 持久化存储:信息不会在会话结束后丢失
- 可检索性:AI 可以随时读取需要的文件
- 人类可读:开发者可以直接查看和修改
URL 压缩技巧
Manus 还使用了一个聪明的技巧:用 URL 代替完整文档内容。
不要这样:
Prompt: "Here's the full React documentation: [10,000 lines of text]"
而是这样:
Prompt: "Refer to React Hooks documentation at https://react.dev/reference/react/hooks"
现代 LLM(如 Claude)可以直接访问 URL 并提取相关信息。这把上下文占用从数万 token 压缩到了几个 token。
会自己和自己对话的 AI
Manus 最有趣的发现之一是:
让 AI 定期朗读自己的待办清单。
听起来很蠢?但效果惊人。
todo.md 自我朗诵机制
每隔几步操作,Manus 的智能体就会:
- 读取
todo.md - 大声”复述”当前任务列表
- 确认下一步要做什么
- 标记已完成的任务
## Current Status (Agent self-check)
Completed:
- [x] Created authentication module
- [x] Set up database connection
In Progress:
- [ ] Implement user registration endpoint
Next:
- [ ] Add input validation
- [ ] Write unit tests
这模拟了人类的工作记忆刷新机制。你在做复杂任务时,是不是也会时不时停下来问自己:“我现在做到哪了?”
Manus 的数据显示:
- 平均每个任务需要 50 次工具调用
- 每 5-10 次调用就会”复述”一次待办清单
- 这将任务完成率提高了约 40%
谁掌握了上下文,谁就掌握了智能体
Meta 花 36 亿美元买的不是 Manus 的模型,也不是它的代码。
买的是它的上下文工程方法论。
因为他们明白:
在 AI 智能体时代,上下文工程的重要性 > 模型大小。
你可以用最先进的 GPT-5 或 Claude Opus,但如果上下文管理混乱,智能体依然会崩溃。
反过来,即使用稍弱的模型,只要上下文组织得当:
- 多智能体并行架构
- 基于文件的记忆系统
- 错误痕迹保留
- 定期自我复述
你的智能体也能稳定处理复杂的真实场景。
这就是 Manus 的秘密。
也是未来所有 AI 智能体开发者必须掌握的核心技能。
参考资料
订阅通讯
获取关于我最新项目、文章以及 AI 和 Web 开发实验的更新。