Cuatro Contextos Que Deciden Si la IA Te Ayuda o Te Hace Perder el Tiempo
Pasé un fin de semana metiendo 100MB de PDFs en un agente. El rendimiento empeoró. Mapear lo que le estaba dando en cuatro categorías me mostró exactamente por qué.
Pasé un fin de semana completo procesando PDFs que sumaban más de 100MB. La lógica era simple: cuanta más información le diera al agente, mejor sería el resultado. Me equivoqué.
Después de días de frustración, dibujé un esquema y dividí todo lo que había estado dándole en cuatro categorías. El problema quedó al descubierto. El volumen nunca fue la cuestión. El tipo de contexto sí lo era.
Darle al modelo lo que ya sabe empeora las cosas
Los LLMs terminan su entrenamiento con billones de tokens. Cuando pegan esa misma información en un prompt, esos tokens redundantes ocupan espacio en la ventana de contexto y diluyen la atención de lo que realmente importa. La información que agregaron para ayudar al modelo termina limitándolo.
Lo probé directamente. Meter sintaxis de Python y patrones básicos de React en los prompts hacía que el modelo entrara en conflicto con su propio entrenamiento, produciendo resultados más raros que sin ningún contexto. Acumular suficiente información redundante genera lo que yo llamo putrefacción de contexto, donde las respuestas del modelo se degradan progresivamente. La intuición de que “más input produce output más inteligente” es la trampa más peligrosa en prompt engineering.
El contexto de entorno es el único que el modelo no puede inferir
La estructura de directorios de un proyecto, las convenciones del equipo, los esquemas de APIs internas. Nada de esto existe en los datos de entrenamiento, y el modelo no tiene forma de razonarlo sin que se lo den explícitamente. Esta categoría es donde el contexto realmente se gana su lugar.
Las herramientas para capturar contexto de entorno están evolucionando más rápido que cualquier otra área en este momento. Los esfuerzos de OCR de documentos ocurren simultáneamente en múltiples continentes: Upstage y Korea Deep Learning en Asia, Mistral en Francia, Sarvam en India, Baidu, Zhipu, DeepSeek e incluso Xiaohongshu en China. La voz, que antes era el medio más volátil, también se está capturando. Herramientas de notas de reuniones como Granola preservan conversaciones que antes desaparecían en el momento en que terminaba una llamada. Typeless, Wispr Flow y Willow convierten pensamientos en texto en tiempo real. La actividad del navegador, las entradas visuales ambientales, las cosas que miran sin pensar ya se están convirtiendo en contexto estructurado.
El cambio es claro: la información que antes se evaporaba ahora se convierte en algo que los modelos pueden usar.
La brecha entre saber y ejecutar es donde la gente se diferencia
El contexto de entorno le dice al modelo qué existe. Las habilidades le dicen cómo hacer las cosas, en qué orden y con qué estándar. Cualquiera puede almacenar y verificar conocimiento. Pero una vez que agregan ejecución estructurada, definiendo secuencias basadas en razonamiento, la brecha entre personas empieza a ensancharse.
Una buena definición de habilidad no es una lista simple de instrucciones. Contiene seis elementos: disciplina, una definición de “listo”, descomposición de tareas, métodos para parchear defectos, anti-patrones y adaptación al entorno. Meter todas las tareas en una sola habilidad garantiza el fracaso. Dividir el trabajo en habilidades granulares y componerlas a través de archivos de flujo de trabajo como AGENTS.md es lo que permite que los agentes se muevan con flexibilidad. Incluso notas a nivel de pistas pueden convertirse en habilidades al instante con herramientas como /skill-creator.
La perspectiva de diseño importa más en este punto. Guardar archivos intermedios, analizar antes de ejecutar, definir criterios de verificación: estas decisiones determinan si un agente tiene éxito o falla. Preferir scripts sobre MCP es una lección que aprendí en uso de producción, no en teoría. Y las habilidades se afinan con el uso. Darle al agente ejemplos comparativos le permite optimizar su propia ejecución.
Tengo que admitir que lograr un buen diseño de habilidades me tomó más tiempo del esperado. Mis primeros intentos eran demasiado amplios (el agente ignoraba la mitad de las instrucciones) o demasiado rígidos (no podía adaptarse a variaciones leves en la tarea). El punto justo, específico suficiente para guiar pero flexible suficiente para adaptarse, requirió iteración real.
La intención y el gusto son la razón por la que configuraciones idénticas producen resultados distintos
Después de más de diez años observando cómo trabaja la gente, un patrón sigue apareciendo. Recopilar y verificar conocimiento es algo que todos hacen. El conocimiento general es algo que la IA ahora tiene en mayor volumen que cualquier persona. Las habilidades se acumulan con la repetición. Sin embargo, personas que usan exactamente el mismo modelo siguen produciendo resultados radicalmente diferentes.
Miren el output del vibe coding. El trabajo de algunas personas genera reacciones de “¿cómo hiciste esto?”. El de otras genera silencio. La diferencia está entre alguien que acepta la estética predeterminada de la IA y alguien que empuja hacia una visión específica. Capturar información rápidamente y filtrarla a través de una intención particular son dos habilidades completamente distintas. La segunda requiere considerar la perspectiva de la audiencia y el contexto completo que la rodea, un tipo de pensamiento de orden superior.
El modelo no sabe lo que ustedes quieren. Tienen que poder expresarlo. Por eso el gusto supera al conocimiento en la era de la IA.
Mientras más difícil es automatizar algo, más valioso es el humano detrás de ello
El conocimiento general ya lo tiene la IA. Agregar más al prompt lo perjudica activamente. El contexto de entorno lo están capturando las herramientas de OCR y voz a velocidad creciente. Las habilidades pueden construirse con repetición y estructura, y luego delegarse a agentes. La intención y el gusto siguen siendo la única categoría que resiste completamente la automatización.
Acumular herramientas e información de IA importa. Pero el apalancamiento real no está ahí. En lugar de empacar más contexto en los prompts, la mejor jugada es saber con mayor precisión qué es lo que quieren. Su valor en la era de la IA vive en su gusto.
Unite al boletín
Recibí actualizaciones sobre mis últimos proyectos, artículos y experimentos con IA y desarrollo web.