Meta 花 25 亿美元收购的 Manus,核心技术已开源
支撑 Manus 25 亿美元估值的文件记忆系统,现已作为免费 Claude Code 技能发布。每个 AI Agent 开发者都应该了解。
用过 AI Agent 处理复杂任务的人都知道:做着做着,AI 不知不觉就跑偏了,干的事和你最初的要求完全不沾边。
这不是用户的问题,而是大语言模型的结构性缺陷。解决了这个问题的公司 Manus 被 Meta 以 25 亿美元收购。最近,一位开发者将其核心原理实现为 Claude Code 技能并开源,三天内 GitHub Star 数逼近 1,000。
问题本质 - AI Agent 为什么会忘记目标
LLM 有一个固定大小的工作记忆,叫上下文窗口(Context Window)。
- 对话越长,最初设定的目标就越容易被挤出模型的注意力范围
- 关键信息逐渐滑出注意力机制的有效区间
- Agent 慢慢偏离原始请求方向
这种现象叫目标漂移(Goal Drift)。当工具调用超过 50 次左右,几乎不可避免。
Manus 的解法 - 把文件系统当外部记忆
Manus 的答案出奇地简单:让 AI 做笔记。
- 将文件系统作为 Agent 的持久化记忆存储
- 彻底绕过上下文窗口的物理限制
- 需要时随时从磁盘读取已存储的信息
这种方法属于**上下文工程(Context Engineering)**的一种形式 - 设计信息如何在 LLM 工作记忆内外流动。
开源实现 - 三文件记忆系统
这个名为 planning-with-files 的 Claude Code 技能,用三个 Markdown 文件实现了 Manus 的核心原理。
- task_plan.md - 包含目标、进度步骤和错误日志的主计划。设计上要求 Agent 在每次重大决策前读取此文件
- notes.md - 存储研究结果和中间数据的暂存区。防止上下文窗口过载
- [deliverable].md - 最终产出物的累积文件
精妙之处在于其简洁。不需要自定义基础设施,不需要数据库 - 磁盘上的 Markdown 文件就够了。
核心机制 - 每次决策前重读计划文件
这套系统最重要的规则就一句话:
“在做任何重大决策之前,先读计划文件。”
- LLM 的注意力机制对最近输入的 token 反应最强
- 决策前读取
task_plan.md,原始目标就会被恢复到上下文顶部 - 不是靠扩大上下文窗口,而是靠优化信息在窗口内的位置来解决问题
扩大上下文窗口是蛮力。战略性的信息定位才是工程。
错误处理 - 打破无限重试循环
第二个关键设计是强制记录错误。
- 出错时必须写入
task_plan.md的错误区域 - 迫使 AI 明确承认失败,而非默默重试
- 引导 Agent 修改计划,而不是重复同样的错误
- 调试日志作为副产品自动积累
没有这个机制,Agent 会反复撞同一堵墙 - 消耗 token 和上下文却毫无进展。
启示 - AI Agent 性能的新基准
三天近 1,000 Star 的原因很清楚:价值数十亿美元的架构洞察,现在只要有终端就能用。
更深层的启示是,AI Agent 的性能不取决于模型大小或参数数量,而取决于记忆架构设计 - 如何围绕模型的局限性来组织信息流。
最好的 Agent 不是脑子最大的那个,而是懂得做笔记的那个。
订阅通讯
获取关于我最新项目、文章以及 AI 和 Web 开发实验的更新。