Índice
5 min de lectura

Manus, adquirida por Meta por 300 millones de dolares, revela los principios fundamentales del desarrollo de agentes junto a LangChain

Manus compartio las lecciones aprendidas a base de golpes en la construccion de agentes IA en produccion - desde la degradacion del contexto hasta replantearse la evaluacion - en una presentacion conjunta con LangChain.

La adquisicion de Manus por parte de Meta por 300 millones de dolares ha copado los titulares, pero la historia de verdad esta en lo que Manus revelo en una presentacion conjunta con LangChain. La charla destapaba los principios esenciales para construir agentes de IA que realmente funcionen - y trazaba una linea clara entre los errores tipicos de las startups y las estrategias que dan resultados.

La paradoja de la degradacion del contexto

Los agentes necesitan herramientas. Mas herramientas significan mas capacidades. Pero aqui esta la trampa: cuantas mas herramientas usa un agente, mas crece su contexto - y el rendimiento se degrada como consecuencia directa.

Manus lo llama Context Rot (degradacion del contexto). Es la paradoja central del desarrollo de agentes: aquello que hace a tu agente mas potente es lo mismo que lo vuelve mas torpe.

La solucion es la Ingenieria de Contexto - mostrar al modelo unicamente la informacion que necesita para el siguiente paso, nada mas.

Manus describio seis tecnicas concretas:

  • Offload (Descargar) - Mover los datos que consumen muchos tokens al sistema de archivos en lugar de mantenerlos en el contexto
  • Reduce (Reducir) - Eliminar agresivamente la informacion obsoleta
  • Compact (Compactar) - Comprimir de forma reversible datos recuperables (por ejemplo, eliminar el contenido de un archivo pero conservar la ruta)
  • Summarize (Resumir) - Comprimir informacion de forma irreversible, pero siempre a traves de un esquema estructurado
  • Retrieve (Recuperar) - Proporcionar informacion bajo demanda mediante busqueda
  • Isolate (Aislar) - Usar subagentes con sus propios contextos independientes

La idea clave: la gestion del contexto no es una optimizacion opcional. Es una decision arquitectonica fundamental que determina si tu agente escala o se derrumba bajo su propio peso.

No hagas fine-tuning antes del product-market fit

Uno de los errores mas comunes de las startups que Manus senalo: construir modelos especializados antes de encontrar el product-market fit.

El razonamiento es sencillo. Un modelo de proposito general combinado con una buena ingenieria de contexto permite ciclos de iteracion mucho mas rapidos. Cuando haces fine-tuning demasiado pronto, te encadenas a suposiciones sobre el comportamiento de los usuarios que aun no has validado.

El punto mas afilado: la velocidad a la que puedes mejorar tu modelo marca el techo de la velocidad de innovacion de tu producto. El fine-tuning ralentiza ese ciclo. La ingenieria de contexto lo mantiene agil.

Reserva el fine-tuning para despues de haber demostrado que el producto funciona. Antes de eso, es optimizacion prematura en su version mas cara.

Patrones multiagente: dos enfoques diferenciados

Manus identifico dos patrones multiagente fundamentales, cada uno adecuado para tipos de trabajo distintos:

Patron de Comunicacion - Los subagentes arrancan desde cero. El agente principal envia una peticion concreta, el subagente la procesa de forma independiente y devuelve el resultado. Ideal para tareas paralelizables con bajo requisito de contexto, como busqueda de codigo o recuperacion de datos.

Patron de Memoria Compartida - Los subagentes comparten el historial completo de la conversacion pero operan con prompts y conjuntos de herramientas diferentes. Ideal para tareas complejas e interdependientes, como investigacion profunda donde cada paso se construye sobre los hallazgos anteriores.

La eleccion entre uno y otro no va de capacidad - va de requisitos de contexto. Si la subtarea es autocontenida, usa Comunicacion. Si necesita la vision completa, usa Memoria Compartida. Equivocarte aqui significa o desperdiciar tokens en contexto innecesario o privar a los agentes de la informacion que necesitan.

Un espacio de acciones en tres capas para evitar la sobrecarga de herramientas

Demasiadas herramientas confunden al modelo. La respuesta de Manus es una arquitectura por capas que limita lo que el modelo ve en cada momento:

Capa Atomica - De 10 a 20 capacidades basicas: leer, escribir, shell, navegador. Estan siempre disponibles y el modelo las usa directamente.

Utilidades del Sandbox - Herramientas CLI preinstaladas como conversores, linters y formateadores. El modelo las invoca a traves del shell en lugar de tenerlas como herramientas dedicadas.

Paquetes y APIs - Scripts de Python con claves de API preautenticadas. Gestionan las interacciones con servicios externos sin exponer toda la superficie de la API al modelo.

Este enfoque por capas mantiene el espacio de decisiones del modelo manejable. En lugar de elegir entre 200 herramientas, selecciona entre 15 acciones basicas y delega el resto al shell. El resultado es una seleccion de herramientas mas fiable y menos llamadas confusas o alucinadas.

Replantear las metricas de evaluacion

Los benchmarks publicos como GAIA no reflejan las preferencias reales de los usuarios. La postura de Manus es directa: el estandar de oro son las valoraciones de los usuarios sobre sesiones completadas, puntuadas del 1 al 5.

Surgieron tres principios de evaluacion:

  1. Tests de ejecucion por encima de tests de preguntas y respuestas - Puede el agente completar realmente la tarea en un sandbox? Eso importa mas que si puede responder preguntas sobre la tarea.
  2. La calidad subjetiva requiere revision humana - El acabado visual, el tono y la coherencia general no se pueden puntuar automaticamente. Una persona tiene que mirar el resultado.
  3. Las puntuaciones de benchmarks son necesarias pero insuficientes - Demuestran capacidad basica. No demuestran que el producto sea bueno.

La leccion fundamental

Sobreingenieria es el enemigo.

Las mayores mejoras de rendimiento no vienen de anadir complejidad - vienen de eliminarla. No le compliques el trabajo al modelo. Simplificaselo.

Probablemente esta sea la razon por la que Meta pago 300 millones de dolares por Manus. No por funcionalidades llamativas, sino por una filosofia de diseno centrada en lo esencial. Eliminar lo que sobra, gestionar el contexto con mano firme y construir sistemas en los que el modelo pueda centrarse en la tarea en lugar de ahogarse en su propio estado.

Los agentes que funcionan en produccion no son los que tienen mas capacidades. Son los que hacen que cada capacidad cuente.

Únete al boletín

Recibe actualizaciones sobre mis últimos proyectos, artículos y experimentos con IA y desarrollo web.