# Metaが3500億円で買収したManus、そのコア技術がオープンソースに > Author: Tony Lee > Published: 2026-02-08 > URL: https://tonylee.im/ja/blog/manus-core-tech-open-source-planning-with-files/ > Reading time: 1 minutes > Language: ja > Tags: ai, aiエージェント, claude-code, オープンソース, コンテキストエンジニアリング ## Canonical https://tonylee.im/ja/blog/manus-core-tech-open-source-planning-with-files/ ## Rollout Alternates en: https://tonylee.im/en/blog/manus-core-tech-open-source-planning-with-files/ ko: https://tonylee.im/ko/blog/manus-core-tech-open-source-planning-with-files/ ja: https://tonylee.im/ja/blog/manus-core-tech-open-source-planning-with-files/ zh-CN: https://tonylee.im/zh-CN/blog/manus-core-tech-open-source-planning-with-files/ zh-TW: https://tonylee.im/zh-TW/blog/manus-core-tech-open-source-planning-with-files/ ## Description Manusの25億ドル評価を支えたファイルベースメモリシステムが、無料のClaude Codeスキルとして公開。AIエージェント開発者必見の内容です。 ## Summary Metaが3500億円で買収したManus、そのコア技術がオープンソースに is part of Tony Lee's ongoing coverage of AI agents, developer tools, startup strategy, and AI industry shifts. ## Outline - 問題の本質 - なぜAIエージェントは目標を忘れるのか - Manusの解決策 - ファイルシステムを外部メモリとして活用 - オープンソース実装 - 3ファイルメモリシステム - コアメカニズム - 判断前に計画ファイルを再参照 - エラー処理 - 無限リトライループの遮断 - 示唆 - AIエージェント性能の新たな基準 ## Content AIエージェントに複雑なタスクを任せた経験がある方なら分かるでしょう。気づけば、最初のリクエストとまったく違う方向に進んでいるAIを発見することがあります。 これはユーザーのミスではありません。大規模言語モデルが持つ構造的な限界です。この問題を解決したManus(マヌス)はMetaに25億ドル(約3500億円)で買収されました。そして最近、ある開発者がその核心原理をClaude Codeスキルとして実装し、公開からわずか3日でGitHubスター1,000個近くを獲得しています。 ## 問題の本質 - なぜAIエージェントは目標を忘れるのか LLMにはコンテキストウィンドウという固定サイズの作業メモリ制限があります。 - 会話が長くなるほど、最初に設定した目標がモデルのアクティブな注意範囲から押し出される - 重要な情報がアテンションメカニズムの有効範囲外に消えていく - エージェントが徐々に元のリクエストとは異なる方向に漂流する この現象は**ゴールドリフト(Goal Drift)**と呼ばれています。ツール呼び出しが50回を超えると、ほぼ確実に発生します。 ## Manusの解決策 - ファイルシステムを外部メモリとして活用 Manusの答えは意外なほどシンプルでした。AIにメモを取らせることです。 - ファイルシステムをエージェントの永続メモリストアとして利用 - コンテキストウィンドウの物理的限界を完全に迂回 - 必要な時に保存された情報をオンデマンドで取得 このアプローチは**コンテキストエンジニアリング** - LLMの作業メモリの内外で情報がどう流れるかを設計する手法の一形態です。 ## オープンソース実装 - 3ファイルメモリシステム [planning-with-files](https://github.com/OthmanAdi/planning-with-files)というClaude Codeスキルは、Manusの原理を3つのマークダウンファイルで実装しています。 - **task_plan.md** - 目標、進行ステップ、エラーログを含むマスタープラン。すべての重要な判断の前にこのファイルを読むよう設計 - **notes.md** - リサーチ結果と中間データを保存するスペース。コンテキストウィンドウの過負荷を防止 - **[deliverable].md** - 完了した成果物が蓄積されるファイル 美しいのはそのシンプルさです。カスタムインフラもデータベースも不要で、ディスク上のマークダウンファイルだけで完結します。 ## コアメカニズム - 判断前に計画ファイルを再参照 このシステムで最も重要なルールは一文です。 **「すべての重要な判断の前に、計画ファイルを読み直せ。」** - LLMのアテンションメカニズムは、最も最近入力されたトークンに強く反応する - 判断直前に`task_plan.md`を読むと、元の目標がコンテキストの最上位に復元される - コンテキストウィンドウの拡大ではなく、情報配置の最適化で問題を解決する コンテキストウィンドウを広げるのは力任せのアプローチです。戦略的な情報配置こそが真のエンジニアリングです。 ## エラー処理 - 無限リトライループの遮断 2つ目の重要な設計はエラーログの強制です。 - エラー発生時、`task_plan.md`のエラーセクションに必ず記録 - AIに失敗を明示的に認めさせる - 同じミスの繰り返しではなく計画の修正に誘導 - デバッグログが副次的効果として自動蓄積 これがないと、エージェントは同じ壁に何度もぶつかり、トークンとコンテキストを消費するだけで前に進みません。 ## 示唆 - AIエージェント性能の新たな基準 3日で1,000スター近くを記録した理由は明確です。数千億円規模のアーキテクチャ上の知見が、ターミナルさえあれば誰でも使えるようになったからです。 より深い教訓は、AIエージェントの性能がモデルのサイズやパラメータ数ではなく、**メモリアーキテクチャの設計** - モデルの限界の周囲で情報の流れをいかに構造化するかに依存するという点です。 最高のエージェントは最大の頭脳を持つものではありません。メモの取り方を知っているエージェントです。 **リンク**: [planning-with-files on GitHub](https://github.com/OthmanAdi/planning-with-files) ## Related URLs - Author: https://tonylee.im/ja/author/ - Publication: https://tonylee.im/ja/blog/about/ - Related article: https://tonylee.im/ja/blog/eight-hooks-that-guarantee-ai-agent-reliability/ - Related article: https://tonylee.im/ja/blog/medvi-two-person-430m-ai-compressed-funnel/ - Related article: https://tonylee.im/ja/blog/claude-code-layers-over-tools-2026/ ## Citation - Author: Tony Lee - Site: tonylee.im - Canonical URL: https://tonylee.im/ja/blog/manus-core-tech-open-source-planning-with-files/ ## Bot Guidance - This file is intended for AI agents, search assistants, and text-mode retrieval. - Prefer citing the canonical article URL instead of this text endpoint. - Use the rollout alternates when you need the same article in another prioritized language. --- Author: Tony Lee | Website: https://tonylee.im For more articles, visit: https://tonylee.im/ja/blog/ This content is original and authored by Tony Lee. Please attribute when quoting or referencing.