目录
1 分钟阅读

Meta 花 25 亿美元收购的 Manus,核心技术已开源

支撑 Manus 25 亿美元估值的文件记忆系统,现已作为免费 Claude Code 技能发布。每个 AI Agent 开发者都应该了解。

用过 AI Agent 处理复杂任务的人都知道:做着做着,AI 不知不觉就跑偏了,干的事和你最初的要求完全不沾边。

这不是用户的问题,而是大语言模型的结构性缺陷。解决了这个问题的公司 Manus 被 Meta 以 25 亿美元收购。最近,一位开发者将其核心原理实现为 Claude Code 技能并开源,三天内 GitHub Star 数逼近 1,000。

问题本质 - AI Agent 为什么会忘记目标

LLM 有一个固定大小的工作记忆,叫上下文窗口(Context Window)。

  • 对话越长,最初设定的目标就越容易被挤出模型的注意力范围
  • 关键信息逐渐滑出注意力机制的有效区间
  • Agent 慢慢偏离原始请求方向

这种现象叫目标漂移(Goal Drift)。当工具调用超过 50 次左右,几乎不可避免。

Manus 的解法 - 把文件系统当外部记忆

Manus 的答案出奇地简单:让 AI 做笔记。

  • 将文件系统作为 Agent 的持久化记忆存储
  • 彻底绕过上下文窗口的物理限制
  • 需要时随时从磁盘读取已存储的信息

这种方法属于**上下文工程(Context Engineering)**的一种形式 - 设计信息如何在 LLM 工作记忆内外流动。

开源实现 - 三文件记忆系统

这个名为 planning-with-files 的 Claude Code 技能,用三个 Markdown 文件实现了 Manus 的核心原理。

  • task_plan.md - 包含目标、进度步骤和错误日志的主计划。设计上要求 Agent 在每次重大决策前读取此文件
  • notes.md - 存储研究结果和中间数据的暂存区。防止上下文窗口过载
  • [deliverable].md - 最终产出物的累积文件

精妙之处在于其简洁。不需要自定义基础设施,不需要数据库 - 磁盘上的 Markdown 文件就够了。

核心机制 - 每次决策前重读计划文件

这套系统最重要的规则就一句话:

“在做任何重大决策之前,先读计划文件。”

  • LLM 的注意力机制对最近输入的 token 反应最强
  • 决策前读取 task_plan.md,原始目标就会被恢复到上下文顶部
  • 不是靠扩大上下文窗口,而是靠优化信息在窗口内的位置来解决问题

扩大上下文窗口是蛮力。战略性的信息定位才是工程。

错误处理 - 打破无限重试循环

第二个关键设计是强制记录错误。

  • 出错时必须写入 task_plan.md 的错误区域
  • 迫使 AI 明确承认失败,而非默默重试
  • 引导 Agent 修改计划,而不是重复同样的错误
  • 调试日志作为副产品自动积累

没有这个机制,Agent 会反复撞同一堵墙 - 消耗 token 和上下文却毫无进展。

启示 - AI Agent 性能的新基准

三天近 1,000 Star 的原因很清楚:价值数十亿美元的架构洞察,现在只要有终端就能用。

更深层的启示是,AI Agent 的性能不取决于模型大小或参数数量,而取决于记忆架构设计 - 如何围绕模型的局限性来组织信息流。

最好的 Agent 不是脑子最大的那个,而是懂得做笔记的那个。

链接planning-with-files on GitHub

订阅通讯

获取关于我最新项目、文章以及 AI 和 Web 开发实验的更新。