目录
3 分钟阅读

Meta 36亿美元收购Manus背后的秘密:AI智能体失败的真正原因

Meta以约36亿美元收购了Manus。秘密不在于更大的模型,而在于上下文工程。以下是大多数AI智能体忽略的关键。

Meta 最近以约 36 亿美元收购了 Manus。Manus 每天能稳定处理数百万次对话 - 而这背后的秘密,既不是更大的模型,也不是更长的上下文窗口。而是一种完全不同的方法论:上下文工程(Context Engineering)。

AI 开始撒谎的那一刻

你有没有发现,当你让 AI 记住一长串待办事项时,它总是会”选择性失忆”?

这不是偶然。研究表明,当列表达到第 8-9 个项目时,AI 就会开始编造内容。这被称为幻觉阈值(Fabrication Threshold) - AI 不会承认”我记不住了”,而是会自信地给你一个错误答案。

想象一下,你的 AI 助手管理着 20 个任务、50 个文件、100 条历史消息。它不会告诉你”信息太多了”,而是会悄悄地开始瞎编。

这就是为什么大多数 AI 智能体在真实场景下会崩溃。

更大的记忆不是答案

面对这个问题,行业的第一反应是什么?

扩大上下文窗口。

从 4K token 到 8K,到 32K,到 128K,现在已经到了 200 万 token。听起来很美好,对吧?

但这里有三个致命问题:

迷失在中间(Lost in the Middle)

把 AI 的注意力想象成一个聚光灯。即使上下文窗口再大,它也只能清晰地”看见”开头和结尾。中间的内容?基本上是一片模糊。

研究表明,放在上下文中间位置的信息,召回率会大幅下降。这就像给你一本 500 页的书,让你记住第 247 页的某个句子 - 几乎不可能。

指数级成本

上下文窗口每翻倍,推理成本就会呈指数级增长。

处理 200 万 token 的单次对话可能花费数百美元。如果你的智能体每天运行数千次任务?成本会直接爆炸。

Manus 每天处理数百万次对话。如果使用传统的”超长上下文”方法,他们早就破产了。

认知天花板

这是最根本的问题:AI 的工作记忆是有限的。

人类的工作记忆只能同时处理 7±2 个信息块。AI 也类似 - 不管你给它多大的上下文窗口,它的有效工作记忆依然有限。

就像你不能通过把所有书籍都放在桌上来提高阅读理解能力。真正的问题是:如何组织信息,让 AI 在需要时能找到正确的那一块。

训练偏差

还有一个隐藏问题:大多数 LLM 是在短文档上训练的。

即使模型支持 200 万 token,它在实际处理超长文本时的表现也会大幅下降 - 因为它从来没有在训练阶段”见过”这么长的真实场景。

Manus 的解法:多智能体并行架构

Manus 的方法完全不同。他们不是给单个 AI 塞入更多上下文,而是:

把任务拆分给多个专门的智能体,让它们并行工作。

想象一个软件开发团队:

  • Planner Agent:负责制定计划
  • Coder Agent:负责写代码
  • Reviewer Agent:负责代码审查
  • Debugger Agent:负责修复错误

每个智能体只需要关注自己职责范围内的上下文,而不是试图记住整个项目的所有细节。

这种架构有几个关键优势:

  1. 降低单个智能体的认知负担 - 每个 Agent 的上下文都保持在最佳工作范围内
  2. 提高并行效率 - 多个任务可以同时进行
  3. 成本可控 - 避免了单次调用处理百万级 token 的高昂成本
  4. 容错性更强 - 某个 Agent 出错不会影响整体流程

这就是为什么 Manus 能每天稳定处理数百万次对话。

不要隐藏你的错误

大多数智能体有一个致命缺陷:它们会试图掩盖错误。

当执行失败时,AI 会倾向于:

  • 假装没有发生错误
  • 重新生成一个”看起来正确”的答案
  • 直接跳过失败的步骤

Manus 的做法完全相反:保留所有错误痕迹。

## Task: Install dependencies
Status: Failed
Error: npm ERR! 404 Not Found - package 'react-super-lib' not found
Retry 1: Failed
Retry 2: Failed
Alternative: Installed 'react-standard-lib' instead

为什么这很重要?

  1. AI 可以从错误中学习 - 知道哪些路径行不通
  2. 避免重复错误 - 不会在同一个坑里摔两次
  3. 调试能力 - 人类可以快速定位问题根源
  4. 上下文连贯性 - AI 理解当前状态是如何演变的

这就像软件开发中的日志系统 - 你不会在程序出错时删除日志,而是要保留完整的错误堆栈。

文件系统就是真正的记忆

Manus 发现了一个反直觉的真相:

与其把所有信息塞进 prompt,不如把它们存进文件系统。

这听起来很简单,但效果惊人:

基于文件的上下文存储

不要这样做:

Prompt: "Remember these 50 tasks: 1. Fix bug in auth.ts, 2. Update database schema..."

而是这样:

Prompt: "Check todo.md for current tasks"
File: todo.md
- [ ] Fix bug in auth.ts (see error.log)
- [ ] Update database schema (see migrations/001.sql)

好处:

  • 上下文压缩:用文件路径代替完整内容
  • 持久化存储:信息不会在会话结束后丢失
  • 可检索性:AI 可以随时读取需要的文件
  • 人类可读:开发者可以直接查看和修改

URL 压缩技巧

Manus 还使用了一个聪明的技巧:用 URL 代替完整文档内容。

不要这样:

Prompt: "Here's the full React documentation: [10,000 lines of text]"

而是这样:

Prompt: "Refer to React Hooks documentation at https://react.dev/reference/react/hooks"

现代 LLM(如 Claude)可以直接访问 URL 并提取相关信息。这把上下文占用从数万 token 压缩到了几个 token。

会自己和自己对话的 AI

Manus 最有趣的发现之一是:

让 AI 定期朗读自己的待办清单。

听起来很蠢?但效果惊人。

todo.md 自我朗诵机制

每隔几步操作,Manus 的智能体就会:

  1. 读取 todo.md
  2. 大声”复述”当前任务列表
  3. 确认下一步要做什么
  4. 标记已完成的任务
## Current Status (Agent self-check)
Completed:
- [x] Created authentication module
- [x] Set up database connection

In Progress:
- [ ] Implement user registration endpoint

Next:
- [ ] Add input validation
- [ ] Write unit tests

这模拟了人类的工作记忆刷新机制。你在做复杂任务时,是不是也会时不时停下来问自己:“我现在做到哪了?”

Manus 的数据显示:

  • 平均每个任务需要 50 次工具调用
  • 每 5-10 次调用就会”复述”一次待办清单
  • 这将任务完成率提高了约 40%

谁掌握了上下文,谁就掌握了智能体

Meta 花 36 亿美元买的不是 Manus 的模型,也不是它的代码。

买的是它的上下文工程方法论。

因为他们明白:

在 AI 智能体时代,上下文工程的重要性 > 模型大小。

你可以用最先进的 GPT-5 或 Claude Opus,但如果上下文管理混乱,智能体依然会崩溃。

反过来,即使用稍弱的模型,只要上下文组织得当:

  • 多智能体并行架构
  • 基于文件的记忆系统
  • 错误痕迹保留
  • 定期自我复述

你的智能体也能稳定处理复杂的真实场景。

这就是 Manus 的秘密。

也是未来所有 AI 智能体开发者必须掌握的核心技能。


参考资料

订阅通讯

获取关于我最新项目、文章以及 AI 和 Web 开发实验的更新。