Meta a racheté Manus pour 2,5 milliards $ - sa technologie clé est désormais open source
Le système de mémoire fichier derrière la valorisation de Manus à 2,5 milliards de dollars est maintenant un skill Claude Code gratuit. Voici pourquoi c'est important pour tout développeur d'agents IA.
Si vous avez déjà utilisé des agents IA pour des tâches complexes, vous connaissez ce scénario : au milieu d’un workflow long, l’agent fait quelque chose qui n’a plus rien à voir avec votre demande initiale.
Ce n’est pas une erreur de l’utilisateur. C’est une limitation structurelle des grands modèles de langage. L’entreprise qui a résolu ce problème - Manus - a été rachetée par Meta pour 2,5 milliards de dollars. Aujourd’hui, un développeur a publié le principe fondamental sous forme de skill open source pour Claude Code, récoltant près de 1 000 étoiles GitHub en trois jours.
Le problème fondamental - Pourquoi les agents IA oublient leurs objectifs
Les LLM fonctionnent dans une fenêtre de contexte - une mémoire de travail de taille fixe.
- Plus la conversation s’allonge, plus l’objectif initial est repoussé hors de la zone d’attention active du modèle
- Les informations critiques disparaissent au-delà de la portée effective du mécanisme d’attention
- L’agent dérive progressivement loin de la demande d’origine
Ce phénomène s’appelle la dérive d’objectif (Goal Drift). Au-delà de 50 appels d’outils environ, il devient quasi inévitable.
La solution de Manus - Le système de fichiers comme mémoire externe
La réponse de Manus était étonnamment simple : faire prendre des notes à l’IA.
- Utiliser le système de fichiers comme stockage mémoire persistant pour l’agent
- Contourner entièrement les limites physiques de la fenêtre de contexte
- Récupérer les informations stockées à la demande quand l’agent en a besoin
Cette approche est une forme de context engineering - la conception des flux d’information entrant et sortant de la mémoire de travail d’un LLM.
L’implémentation open source - Un système de mémoire en 3 fichiers
Le skill Claude Code appelé planning-with-files implémente le principe de Manus avec trois fichiers markdown.
- task_plan.md - Le plan directeur contenant les objectifs, les étapes de progression et les logs d’erreurs. L’agent est instruit de lire ce fichier avant chaque décision importante
- notes.md - Un bloc-notes pour les résultats de recherche et les données intermédiaires. Prévient la surcharge de la fenêtre de contexte
- [deliverable].md - Le fichier de sortie final où le travail terminé s’accumule
La beauté réside dans la simplicité. Pas d’infrastructure sur mesure, pas de base de données - juste des fichiers markdown sur le disque.
Le mécanisme central - Relire le plan avant chaque décision
La règle la plus importante de ce système tient en une phrase :
« Avant toute décision importante, relire le fichier de plan. »
- Le mécanisme d’attention du LLM réagit le plus fortement aux tokens les plus récemment ingérés
- Lire
task_plan.mdjuste avant une décision restaure l’objectif original en tête du contexte - Cela résout le problème non pas en élargissant la fenêtre de contexte, mais en optimisant le placement de l’information à l’intérieur
Agrandir la fenêtre de contexte, c’est la force brute. Le positionnement stratégique de l’information, c’est de l’ingénierie.
Gestion des erreurs - Briser la boucle de retry infinie
Le deuxième choix de conception crucial est l’enregistrement forcé des erreurs.
- Quand une erreur survient, l’agent doit l’enregistrer dans la section erreurs de
task_plan.md - Cela force l’IA à reconnaître explicitement les échecs au lieu de réessayer silencieusement
- L’agent est guidé vers la révision du plan plutôt que la répétition de la même erreur
- Les logs de débogage s’accumulent automatiquement comme effet secondaire
Sans cela, les agents ont tendance à foncer dans le même mur en boucle - brûlant des tokens et du contexte sans progresser.
Ce que cela signifie - Un nouveau référentiel pour la performance des agents
La raison de ces près de 1 000 étoiles en trois jours est claire : un insight architectural valant des milliards de dollars est désormais accessible à quiconque dispose d’un terminal.
La leçon plus profonde est que la performance d’un agent IA ne dépend pas de la taille du modèle ou du nombre de paramètres. Elle dépend de la conception de l’architecture mémoire - la façon dont vous structurez le flux d’information autour des limitations du modèle.
Les meilleurs agents ne sont pas ceux qui ont le plus gros cerveau. Ce sont ceux qui savent prendre des notes.
Rejoindre la newsletter
Recevez des mises à jour sur mes derniers projets, articles et expériences en IA et développement web.