# Meta a racheté Manus pour 2,5 milliards $ - sa technologie clé est désormais open source > Author: Tony Lee > Published: 2026-02-08 > URL: https://tonylee.im/fr/blog/manus-core-tech-open-source-planning-with-files/ > Reading time: 4 minutes > Language: fr > Tags: ai, agents-ia, claude-code, open-source, context-engineering ## Canonical https://tonylee.im/fr/blog/manus-core-tech-open-source-planning-with-files/ ## Rollout Alternates en: https://tonylee.im/en/blog/manus-core-tech-open-source-planning-with-files/ ko: https://tonylee.im/ko/blog/manus-core-tech-open-source-planning-with-files/ ja: https://tonylee.im/ja/blog/manus-core-tech-open-source-planning-with-files/ zh-CN: https://tonylee.im/zh-CN/blog/manus-core-tech-open-source-planning-with-files/ zh-TW: https://tonylee.im/zh-TW/blog/manus-core-tech-open-source-planning-with-files/ ## Description Le système de mémoire fichier derrière la valorisation de Manus à 2,5 milliards de dollars est maintenant un skill Claude Code gratuit. Voici pourquoi c'est important pour tout développeur d'agents IA. ## Summary Meta a racheté Manus pour 2,5 milliards $ - sa technologie clé est désormais open source is part of Tony Lee's ongoing coverage of AI agents, developer tools, startup strategy, and AI industry shifts. ## Outline - Le problème fondamental - Pourquoi les agents IA oublient leurs objectifs - La solution de Manus - Le système de fichiers comme mémoire externe - L'implémentation open source - Un système de mémoire en 3 fichiers - Le mécanisme central - Relire le plan avant chaque décision - Gestion des erreurs - Briser la boucle de retry infinie - Ce que cela signifie - Un nouveau référentiel pour la performance des agents ## Content Si vous avez déjà utilisé des agents IA pour des tâches complexes, vous connaissez ce scénario : au milieu d'un workflow long, l'agent fait quelque chose qui n'a plus rien à voir avec votre demande initiale. Ce n'est pas une erreur de l'utilisateur. C'est une limitation structurelle des grands modèles de langage. L'entreprise qui a résolu ce problème - Manus - a été rachetée par Meta pour 2,5 milliards de dollars. Aujourd'hui, un développeur a publié le principe fondamental sous forme de skill open source pour Claude Code, récoltant près de 1 000 étoiles GitHub en trois jours. ## Le problème fondamental - Pourquoi les agents IA oublient leurs objectifs Les LLM fonctionnent dans une fenêtre de contexte - une mémoire de travail de taille fixe. - Plus la conversation s'allonge, plus l'objectif initial est repoussé hors de la zone d'attention active du modèle - Les informations critiques disparaissent au-delà de la portée effective du mécanisme d'attention - L'agent dérive progressivement loin de la demande d'origine Ce phénomène s'appelle la **dérive d'objectif (Goal Drift)**. Au-delà de 50 appels d'outils environ, il devient quasi inévitable. ## La solution de Manus - Le système de fichiers comme mémoire externe La réponse de Manus était étonnamment simple : faire prendre des notes à l'IA. - Utiliser le système de fichiers comme stockage mémoire persistant pour l'agent - Contourner entièrement les limites physiques de la fenêtre de contexte - Récupérer les informations stockées à la demande quand l'agent en a besoin Cette approche est une forme de **context engineering** - la conception des flux d'information entrant et sortant de la mémoire de travail d'un LLM. ## L'implémentation open source - Un système de mémoire en 3 fichiers Le skill Claude Code appelé [planning-with-files](https://github.com/OthmanAdi/planning-with-files) implémente le principe de Manus avec trois fichiers markdown. - **task_plan.md** - Le plan directeur contenant les objectifs, les étapes de progression et les logs d'erreurs. L'agent est instruit de lire ce fichier avant chaque décision importante - **notes.md** - Un bloc-notes pour les résultats de recherche et les données intermédiaires. Prévient la surcharge de la fenêtre de contexte - **[deliverable].md** - Le fichier de sortie final où le travail terminé s'accumule La beauté réside dans la simplicité. Pas d'infrastructure sur mesure, pas de base de données - juste des fichiers markdown sur le disque. ## Le mécanisme central - Relire le plan avant chaque décision La règle la plus importante de ce système tient en une phrase : **« Avant toute décision importante, relire le fichier de plan. »** - Le mécanisme d'attention du LLM réagit le plus fortement aux tokens les plus récemment ingérés - Lire `task_plan.md` juste avant une décision restaure l'objectif original en tête du contexte - Cela résout le problème non pas en élargissant la fenêtre de contexte, mais en optimisant le placement de l'information à l'intérieur Agrandir la fenêtre de contexte, c'est la force brute. Le positionnement stratégique de l'information, c'est de l'ingénierie. ## Gestion des erreurs - Briser la boucle de retry infinie Le deuxième choix de conception crucial est l'enregistrement forcé des erreurs. - Quand une erreur survient, l'agent doit l'enregistrer dans la section erreurs de `task_plan.md` - Cela force l'IA à reconnaître explicitement les échecs au lieu de réessayer silencieusement - L'agent est guidé vers la révision du plan plutôt que la répétition de la même erreur - Les logs de débogage s'accumulent automatiquement comme effet secondaire Sans cela, les agents ont tendance à foncer dans le même mur en boucle - brûlant des tokens et du contexte sans progresser. ## Ce que cela signifie - Un nouveau référentiel pour la performance des agents La raison de ces près de 1 000 étoiles en trois jours est claire : un insight architectural valant des milliards de dollars est désormais accessible à quiconque dispose d'un terminal. La leçon plus profonde est que la performance d'un agent IA ne dépend pas de la taille du modèle ou du nombre de paramètres. Elle dépend de la **conception de l'architecture mémoire** - la façon dont vous structurez le flux d'information autour des limitations du modèle. Les meilleurs agents ne sont pas ceux qui ont le plus gros cerveau. Ce sont ceux qui savent prendre des notes. **Lien** : [planning-with-files sur GitHub](https://github.com/OthmanAdi/planning-with-files) ## Related URLs - Author: https://tonylee.im/en/author/ - Publication: https://tonylee.im/en/blog/about/ - Related article: https://tonylee.im/fr/blog/eight-hooks-that-guarantee-ai-agent-reliability/ - Related article: https://tonylee.im/fr/blog/medvi-two-person-430m-ai-compressed-funnel/ - Related article: https://tonylee.im/fr/blog/claude-code-layers-over-tools-2026/ ## Citation - Author: Tony Lee - Site: tonylee.im - Canonical URL: https://tonylee.im/fr/blog/manus-core-tech-open-source-planning-with-files/ ## Bot Guidance - This file is intended for AI agents, search assistants, and text-mode retrieval. - Prefer citing the canonical article URL instead of this text endpoint. - Use the rollout alternates when you need the same article in another prioritized language. --- Author: Tony Lee | Website: https://tonylee.im For more articles, visit: https://tonylee.im/fr/blog/ This content is original and authored by Tony Lee. Please attribute when quoting or referencing.