Le secret derrière l'acquisition de Manus par Meta pour 3,6 milliards : pourquoi les agents IA échouent vraiment
Meta a acquis Manus pour 3,6 milliards de dollars. Le secret n'était pas un modèle plus grand - c'était l'ingénierie du contexte. Voici ce que la plupart des agents IA ratent.
Lorsque Meta a déboursé environ 3,6 milliards de dollars pour acquérir Manus en janvier 2026, l’industrie s’est posé la question évidente : qu’est-ce qui justifie une telle valorisation pour une startup d’agents IA ? La réponse ne réside pas dans un modèle de langage plus performant ou dans une interface utilisateur révolutionnaire. Le véritable différenciateur était quelque chose de bien plus subtil : l’ingénierie du contexte.
Le seuil de fabrication : quand l’IA commence à mentir
Voici un fait troublant que l’équipe Manus a découvert lors de la construction de leurs agents de recherche : lorsqu’on demande à un agent IA d’analyser 50 entreprises, il commence systématiquement à fabriquer des informations dès le 8ème ou 9ème élément.
Ce n’est pas un problème de modèle. C’est un problème d’architecture.
Le phénomène est reproductible, mesurable, et franchement inquiétant. L’agent ne « ment » pas intentionnellement - il est simplement écrasé sous le poids de son propre contexte. Les données se brouillent, les sources se confondent, et le modèle commence à combler les lacunes avec des hallucinations plausibles mais totalement fausses.
C’est ce que Manus appelle le seuil de fabrication : le point exact où la fenêtre de contexte de l’agent devient un fardeau plutôt qu’un atout.
Pourquoi « plus de contexte » n’est pas la solution
L’industrie de l’IA a longtemps cru que la solution aux limitations des agents résidait dans l’élargissement de la fenêtre de contexte. OpenAI, Google, Anthropic - tous se livrent à une course pour atteindre 200k, 1M, voire 10M de tokens de contexte.
Mais Manus a prouvé que cette approche repose sur des fondations fragiles. Voici pourquoi :
Lost in the middle
Les modèles de langage ne lisent pas séquentiellement comme les humains. Ils ont une capacité d’attention inégale : forte au début et à la fin du contexte, faible au milieu. C’est le phénomène « lost in the middle » documenté par de nombreuses recherches.
Si vous placez des informations critiques au milieu d’un contexte de 100k tokens, il y a de fortes chances qu’elles soient ignorées ou mal interprétées.
Coût exponentiel
Chaque token supplémentaire dans le contexte multiplie le coût de calcul. Un contexte de 1M de tokens ne coûte pas 10x plus qu’un contexte de 100k - il peut coûter 50x ou 100x plus cher, selon l’architecture du modèle.
Pour des tâches de recherche intensive comme celles de Manus, cela rendrait l’économie du produit totalement insoutenable.
Plafond cognitif
Même avec un contexte infini, les modèles de langage ont une limite cognitive. Ils ne peuvent pas raisonner sur des milliers d’éléments simultanément avec la même qualité qu’ils le font sur quelques dizaines.
C’est analogue à demander à un humain de mémoriser 50 livres et d’en extraire des insights cohérents sans prendre de notes. C’est cognitivement impossible.
Biais d’entraînement
Les modèles sont entraînés sur des documents qui suivent des patterns humains : introduction, développement, conclusion. Ils ne sont pas optimisés pour gérer des contextes longs, non structurés, ou remplis de données répétitives.
Élargir la fenêtre de contexte ne résout pas ce biais fondamental.
La véritable solution : architecture multi-agents à contextes parallèles
Plutôt que de tenter de tout entasser dans un seul contexte géant, Manus a adopté une approche radicalement différente : diviser pour mieux régner.
Leur architecture de « Wide Research » fonctionne ainsi :
-
Décomposition de la tâche : Une tâche de recherche sur 50 entreprises est divisée en 50 sous-tâches indépendantes.
-
Agents parallèles à contexte frais : Chaque sous-tâche est assignée à un agent séparé avec son propre contexte frais, vierge de toute information non pertinente.
-
Synthèse finale : Un agent orchestrateur agrège les résultats de tous les sous-agents et produit une analyse consolidée.
Cette approche élimine le seuil de fabrication. Chaque agent travaille sur un périmètre réduit, maîtrisable, et peut produire des résultats de haute qualité sans être noyé sous l’information.
C’est exactement ainsi que fonctionnent les équipes humaines : on ne demande pas à une seule personne de tout faire. On divise le travail, on parallélise, puis on consolide.
Préserver les erreurs : l’apprentissage par l’échec
Une autre insight contre-intuitive de Manus : ne jamais effacer les erreurs d’un agent.
La plupart des systèmes d’agents utilisent une approche « retry-and-forget » : si un agent échoue, on le relance avec un contexte nettoyé, sans trace de l’échec précédent.
Manus fait l’inverse. Chaque erreur est documentée, contextualisée, et injectée dans le prompt des tentatives suivantes. Résultat : l’agent apprend de ses erreurs, évite de répéter les mêmes fautes, et converge plus rapidement vers une solution.
C’est une forme rudimentaire d’apprentissage continu, sans nécessiter de fine-tuning ou de réentraînement du modèle.
Le système de fichiers comme mémoire externe
L’une des innovations les plus élégantes de Manus est l’utilisation du système de fichiers comme mémoire externe pour les agents.
Plutôt que de tout conserver dans le contexte, les agents écrivent des notes dans des fichiers locaux - exactement comme un humain prendrait des notes pendant une recherche.
Exemple :
notes/company_overview.md: Vue d’ensemble des 50 entreprisesnotes/financial_data.txt: Données financières structuréesnotes/competitive_analysis.md: Analyse concurrentielle
Ces fichiers servent de mémoire à long terme. L’agent peut y revenir à tout moment sans polluer son contexte immédiat.
Compression par URL
Pour aller encore plus loin, Manus utilise une technique appelée compression par URL. Plutôt que de stocker le contenu complet d’une page web dans le contexte, l’agent stocke uniquement l’URL et un résumé de 2-3 phrases.
Si l’agent a besoin de détails supplémentaires, il peut re-fetcher l’URL. Sinon, il économise des milliers de tokens de contexte.
Cette approche permet une mémoire « quasi-illimitée » sans exploser les coûts.
Auto-récitation : le fichier todo.md comme ancre cognitive
Manus utilise une technique appelée auto-récitation via un fichier todo.md continuellement mis à jour.
Le principe est simple : à chaque étape d’une tâche complexe, l’agent met à jour un fichier todo.md qui liste :
- Ce qui a été fait
- Ce qui reste à faire
- Les obstacles rencontrés
- Les prochaines étapes
Ce fichier est ensuite placé à la fin du contexte de l’agent.
Pourquoi ? Parce que les modèles de langage ont une attention bien plus forte sur la fin du contexte (le phénomène « recency bias »). En plaçant les objectifs et l’état actuel à la fin, on s’assure que l’agent reste focalisé sur ce qui compte vraiment.
C’est une forme d’auto-guidance continue, qui empêche l’agent de dériver ou de perdre le fil de sa mission.
L’ingénierie du contexte : le véritable moat de l’IA agentique
L’acquisition de Manus par Meta pour 3,6 milliards de dollars envoie un signal clair à l’industrie : l’ingénierie du contexte est le véritable différenciateur dans l’IA agentique.
Les modèles de langage deviennent une commodité. GPT-5, Claude 4, Gemini 3 - ils seront tous excellents, interchangeables, et accessibles via API.
Ce qui fera la différence entre un agent médiocre et un agent de classe mondiale, c’est :
- Comment vous gérez le contexte
- Comment vous structurez la mémoire
- Comment vous orchestrez les sous-agents
- Comment vous préservez et apprenez des erreurs
Manus a maîtrisé ces principes. Meta a payé 3,6 milliards de dollars pour ne pas avoir à les réapprendre.
Pour les builders d’agents IA, la leçon est claire : arrêtez d’optimiser vos prompts. Commencez à ingénierer votre contexte.
Références
Rejoindre la newsletter
Recevez des mises à jour sur mes derniers projets, articles et expériences en IA et développement web.