Coller le prompt deux fois a changé la précision du modèle
La méthode la moins chère pour améliorer les performances d'un LLM, validée par Google Research sur 7 modèles. Pas de fine-tuning, pas de prompt engineering. Juste un copier-coller.
2 posts
La méthode la moins chère pour améliorer les performances d'un LLM, validée par Google Research sur 7 modèles. Pas de fine-tuning, pas de prompt engineering. Juste un copier-coller.
Ce que révèlent les résultats de Terminal Bench de LangChain et les expériences sur le format hashline. Les trois raisons pour lesquelles les classements se sont inversés avec le même modèle : le prompt, les outils et le middleware.