Index
4 min de lecture

Meta a racheté Manus pour 2,5 milliards $ - sa technologie clé est désormais open source

Le système de mémoire fichier derrière la valorisation de Manus à 2,5 milliards de dollars est maintenant un skill Claude Code gratuit. Voici pourquoi c'est important pour tout développeur d'agents IA.

Si vous avez déjà utilisé des agents IA pour des tâches complexes, vous connaissez ce scénario : au milieu d’un workflow long, l’agent fait quelque chose qui n’a plus rien à voir avec votre demande initiale.

Ce n’est pas une erreur de l’utilisateur. C’est une limitation structurelle des grands modèles de langage. L’entreprise qui a résolu ce problème - Manus - a été rachetée par Meta pour 2,5 milliards de dollars. Aujourd’hui, un développeur a publié le principe fondamental sous forme de skill open source pour Claude Code, récoltant près de 1 000 étoiles GitHub en trois jours.

Le problème fondamental - Pourquoi les agents IA oublient leurs objectifs

Les LLM fonctionnent dans une fenêtre de contexte - une mémoire de travail de taille fixe.

  • Plus la conversation s’allonge, plus l’objectif initial est repoussé hors de la zone d’attention active du modèle
  • Les informations critiques disparaissent au-delà de la portée effective du mécanisme d’attention
  • L’agent dérive progressivement loin de la demande d’origine

Ce phénomène s’appelle la dérive d’objectif (Goal Drift). Au-delà de 50 appels d’outils environ, il devient quasi inévitable.

La solution de Manus - Le système de fichiers comme mémoire externe

La réponse de Manus était étonnamment simple : faire prendre des notes à l’IA.

  • Utiliser le système de fichiers comme stockage mémoire persistant pour l’agent
  • Contourner entièrement les limites physiques de la fenêtre de contexte
  • Récupérer les informations stockées à la demande quand l’agent en a besoin

Cette approche est une forme de context engineering - la conception des flux d’information entrant et sortant de la mémoire de travail d’un LLM.

L’implémentation open source - Un système de mémoire en 3 fichiers

Le skill Claude Code appelé planning-with-files implémente le principe de Manus avec trois fichiers markdown.

  • task_plan.md - Le plan directeur contenant les objectifs, les étapes de progression et les logs d’erreurs. L’agent est instruit de lire ce fichier avant chaque décision importante
  • notes.md - Un bloc-notes pour les résultats de recherche et les données intermédiaires. Prévient la surcharge de la fenêtre de contexte
  • [deliverable].md - Le fichier de sortie final où le travail terminé s’accumule

La beauté réside dans la simplicité. Pas d’infrastructure sur mesure, pas de base de données - juste des fichiers markdown sur le disque.

Le mécanisme central - Relire le plan avant chaque décision

La règle la plus importante de ce système tient en une phrase :

« Avant toute décision importante, relire le fichier de plan. »

  • Le mécanisme d’attention du LLM réagit le plus fortement aux tokens les plus récemment ingérés
  • Lire task_plan.md juste avant une décision restaure l’objectif original en tête du contexte
  • Cela résout le problème non pas en élargissant la fenêtre de contexte, mais en optimisant le placement de l’information à l’intérieur

Agrandir la fenêtre de contexte, c’est la force brute. Le positionnement stratégique de l’information, c’est de l’ingénierie.

Gestion des erreurs - Briser la boucle de retry infinie

Le deuxième choix de conception crucial est l’enregistrement forcé des erreurs.

  • Quand une erreur survient, l’agent doit l’enregistrer dans la section erreurs de task_plan.md
  • Cela force l’IA à reconnaître explicitement les échecs au lieu de réessayer silencieusement
  • L’agent est guidé vers la révision du plan plutôt que la répétition de la même erreur
  • Les logs de débogage s’accumulent automatiquement comme effet secondaire

Sans cela, les agents ont tendance à foncer dans le même mur en boucle - brûlant des tokens et du contexte sans progresser.

Ce que cela signifie - Un nouveau référentiel pour la performance des agents

La raison de ces près de 1 000 étoiles en trois jours est claire : un insight architectural valant des milliards de dollars est désormais accessible à quiconque dispose d’un terminal.

La leçon plus profonde est que la performance d’un agent IA ne dépend pas de la taille du modèle ou du nombre de paramètres. Elle dépend de la conception de l’architecture mémoire - la façon dont vous structurez le flux d’information autour des limitations du modèle.

Les meilleurs agents ne sont pas ceux qui ont le plus gros cerveau. Ce sont ceux qui savent prendre des notes.

Lien : planning-with-files sur GitHub

Rejoindre la newsletter

Recevez des mises à jour sur mes derniers projets, articles et expériences en IA et développement web.