Index
5 min de lecture

Les quatre types de contexte qui déterminent si l'IA vous aide vraiment

J'ai passé un week-end entier à bourrer un agent de PDFs. Les résultats se sont dégradés. Comprendre pourquoi a changé ma façon de travailler avec les LLMs.

J’ai passé un week-end entier à faire ingérer plus de 100 Mo de PDFs à un agent. Mon hypothèse était simple : plus on nourrit le modèle, meilleurs sont les résultats. C’était faux.

Après deux jours de frustration, j’ai fini par cartographier tout ce que j’injectais dans le contexte. Quatre catégories ont émergé. Le problème est devenu évident : ce n’était pas une question de volume, mais de nature du contexte.

Ce que le modèle sait déjà encombre plus qu’il n’aide

Les LLMs ont été entraînés sur des dizaines de milliards de tokens. Quand vous collez dans un prompt des informations que le modèle maîtrise déjà, vous gaspillez de l’espace dans la fenêtre de contexte et vous diluez l’attention sur ce qui compte vraiment.

J’ai testé ça directement. En incluant la syntaxe Python de base ou des patterns React classiques dans mes prompts, j’obtenais des résultats plus incohérents qu’avec un contexte vide. Accumulez assez de redondance et vous déclenchez ce que j’appelle la “pourriture contextuelle” : les réponses se dégradent progressivement, le modèle entre en conflit avec son propre entraînement. L’intuition “plus je donne, plus c’est intelligent” est le piège le plus dangereux du prompt engineering.

Le contexte d’environnement est la seule catégorie que le modèle ne peut pas inférer

Structure de répertoire, conventions d’équipe, schémas d’API internes. Rien de tout ça ne figure dans les données d’entraînement. Sans input explicite, le modèle ne peut pas raisonner sur votre environnement. C’est ici que le contexte justifie vraiment sa place.

L’outillage autour de la capture du contexte d’environnement évolue à toute vitesse. L’OCR de documents progresse simultanément sur plusieurs continents : Upstage et Korea Deep Learning en Corée, Mistral en France, Sarvam en Inde, Baidu, Zhipu, DeepSeek et même Xiaohongshu en Chine. La voix, autrefois le medium le plus volatil, est désormais capturée aussi. Des outils comme Granola préservent les conversations qui disparaissaient dès qu’un appel se terminait. Typeless, Wispr Flow, Willow convertissent des pensées en texte en temps réel. L’activité du navigateur, les inputs visuels ambiants, les choses sur lesquelles vous jetez un oeil sans y penser, tout ça devient du contexte structuré.

L’information qui s’évaporait auparavant est en train d’être convertie en quelque chose que les modèles peuvent exploiter.

La distance entre savoir et exécuter, c’est là que les gens divergent

Le contexte d’environnement dit au modèle ce qui existe. Les skills lui disent comment faire les choses, dans quel ordre, et selon quel standard. N’importe qui peut stocker et vérifier des connaissances. Mais dès qu’on ajoute de l’exécution structurée, définir des séquences basées sur du raisonnement, l’écart entre les gens commence à se creuser.

Une bonne définition de skill ne ressemble pas à une simple liste d’instructions. Elle contient six éléments : la discipline, une définition de “terminé”, la décomposition des tâches, des méthodes de correction des défauts, les anti-patterns, et l’adaptation à l’environnement. Vouloir tout entasser dans un seul skill garantit l’échec. Découper en skills granulaires et les composer via des fichiers de workflow, c’est ce qui permet aux agents de rester flexibles.

Je dois admettre que trouver le bon niveau de granularité m’a pris bien plus de temps que prévu. Mes premières tentatives étaient soit trop larges, l’agent ignorait la moitié des instructions, soit trop rigides, il ne s’adaptait pas aux légères variations de la tâche. Le point d’équilibre, assez précis pour guider, assez souple pour plier, demande de vraies itérations.

Le goût, la raison pour laquelle deux personnes avec le même setup obtiennent des résultats opposés

Plus de dix ans à observer des gens travailler. Un pattern revient systématiquement. Collecter et vérifier des connaissances, tout le monde le fait. Les compétences s’accumulent par la répétition. Pourtant, des personnes utilisant exactement le même modèle produisent des résultats radicalement différents.

Regardez les outputs du vibe coding. Certaines personnes déclenchent un “comment t’as fait ça ?”. D’autres reçoivent un silence radio. La différence se situe entre quelqu’un qui accepte l’esthétique par défaut de l’IA et quelqu’un qui pousse vers une vision précise. Saisir l’information rapidement et la filtrer à travers une intention particulière sont deux capacités complètement différentes. La seconde exige de considérer le point de vue de l’audience et le contexte global, une forme de pensée d’ordre supérieur que les modèles ne reproduisent pas.

Le modèle ne sait pas ce que vous voulez. Vous devez pouvoir l’exprimer. C’est pour ça que le goût prime sur la connaissance à l’ère de l’IA.

Ce qui résiste à l’automatisation, c’est précisément ce qui prend de la valeur

La connaissance générale appartient déjà à l’IA. En ajouter dans vos prompts nuit activement. Le contexte d’environnement est capturé à vitesse croissante par l’OCR et les outils vocaux. Les skills se construisent par la répétition et la structure, puis se délèguent aux agents. L’intention et le goût restent la seule catégorie qui résiste entièrement à l’automatisation.

Accumuler des outils et de l’information a son utilité. Mais le vrai levier n’est pas là. Plutôt que de remplir des prompts, la meilleure stratégie consiste à savoir ce que vous voulez avec une précision croissante. Dans l’écosystème IA, votre valeur réside dans votre goût.

Rejoindre la newsletter

Recevez des mises à jour sur mes derniers projets, articles et expériences en IA et développement web.