Meta adquirió Manus por 2.500 millones $ - su tecnología clave ya es open source
El sistema de memoria basado en archivos detrás de la valoración de 2.500 millones de dólares de Manus es ahora un skill gratuito de Claude Code. He aquí por qué importa para todo desarrollador de agentes IA.
Si has usado agentes de IA para tareas complejas, habrás visto esto: a mitad de un flujo de trabajo largo, el agente está haciendo algo completamente ajeno a lo que pediste originalmente.
No es un error del usuario. Es una limitación estructural de los modelos de lenguaje grandes. La empresa que resolvió este problema - Manus - fue adquirida por Meta por 2.500 millones de dólares. Ahora, un desarrollador ha publicado el principio fundamental como un skill open source para Claude Code, alcanzando cerca de 1.000 estrellas en GitHub en solo tres días.
El problema de fondo - Por qué los agentes IA olvidan sus objetivos
Los LLM operan dentro de una ventana de contexto - una memoria de trabajo de tamaño fijo.
- Cuanto más larga es la conversación, más se aleja el objetivo original de la zona de atención activa del modelo
- La información crítica desaparece más allá del alcance efectivo del mecanismo de atención
- El agente se desvía gradualmente de la solicitud inicial
Este fenómeno se llama deriva de objetivo (Goal Drift). A partir de unas 50 llamadas a herramientas, se vuelve casi inevitable.
La solución de Manus - El sistema de archivos como memoria externa
La respuesta de Manus fue sorprendentemente simple: hacer que la IA tome notas.
- Usar el sistema de archivos como almacenamiento de memoria persistente para el agente
- Eludir por completo los límites físicos de la ventana de contexto
- Recuperar la información almacenada bajo demanda cuando el agente la necesite
Este enfoque es una forma de ingeniería de contexto (context engineering) - diseñar cómo fluye la información dentro y fuera de la memoria de trabajo de un LLM.
La implementación open source - Un sistema de memoria de 3 archivos
El skill de Claude Code llamado planning-with-files implementa el principio de Manus mediante tres archivos markdown.
- task_plan.md - El plan maestro con objetivos, pasos de progreso y registros de errores. El agente tiene instrucciones de leer este archivo antes de cada decisión importante
- notes.md - Un bloc de notas para resultados de investigación y datos intermedios. Previene la sobrecarga de la ventana de contexto
- [deliverable].md - El archivo de salida final donde se acumula el trabajo completado
La belleza está en la simplicidad. Sin infraestructura personalizada, sin base de datos - solo archivos markdown en disco.
El mecanismo central - Releer el plan antes de cada decisión
La regla más importante de este sistema se resume en una frase:
«Antes de cualquier decisión importante, lee el archivo del plan.»
- El mecanismo de atención del LLM responde con más fuerza a los tokens más recientemente ingeridos
- Leer
task_plan.mdjusto antes de una decisión restaura el objetivo original en la parte superior del contexto - Esto resuelve el problema no ampliando la ventana de contexto, sino optimizando la ubicación de la información dentro de ella
Ampliar la ventana de contexto es fuerza bruta. El posicionamiento estratégico de la información es ingeniería.
Gestión de errores - Romper el bucle de reintentos infinito
La segunda decisión de diseño crítica es el registro forzado de errores.
- Cuando ocurre un error, el agente debe registrarlo en la sección de errores de
task_plan.md - Esto obliga a la IA a reconocer explícitamente los fallos en lugar de reintentar en silencio
- El agente es guiado hacia la revisión del plan en vez de repetir el mismo error
- Los registros de depuración se acumulan automáticamente como efecto secundario
Sin esto, los agentes tienden a chocar contra el mismo muro una y otra vez - quemando tokens y contexto sin avanzar.
Lo que significa - Un nuevo estándar para el rendimiento de agentes
La razón por la que alcanzó casi 1.000 estrellas en tres días es clara: una perspectiva arquitectónica valorada en miles de millones de dólares es ahora accesible para cualquiera con una terminal.
La lección más profunda es que el rendimiento de un agente IA no depende del tamaño del modelo ni del número de parámetros. Depende del diseño de la arquitectura de memoria - cómo estructuras el flujo de información alrededor de las limitaciones del modelo.
Los mejores agentes no son los que tienen el cerebro más grande. Son los que saben tomar notas.
Enlace: planning-with-files en GitHub
Únete al boletín
Recibe actualizaciones sobre mis últimos proyectos, artículos y experimentos con IA y desarrollo web.