Meta compró Manus por 2,500 millones de dólares - su tecnología clave ya es open source
El sistema de memoria basado en archivos detrás de la valuación de 2,500 millones de dólares de Manus ahora es un skill gratuito de Claude Code. Esto es lo que significa para los desarrolladores de agentes de IA.
Si usaste agentes de IA para tareas complejas, ya viste esto: a la mitad de un flujo de trabajo largo, el agente está haciendo algo que no tiene nada que ver con lo que pediste al principio.
No es un error del usuario. Es una limitación estructural de los modelos de lenguaje grandes. La empresa que resolvió este problema - Manus - fue adquirida por Meta por 2,500 millones de dólares. Ahora, un desarrollador publicó el principio fundamental como un skill open source para Claude Code, y en solo tres días alcanzó cerca de 1,000 estrellas en GitHub.
El problema de fondo - Por qué los agentes de IA pierden el objetivo
Los LLM operan dentro de una ventana de contexto - una memoria de trabajo de tamaño fijo.
- Entre más larga es la conversación, más se aleja el objetivo original de la zona de atención activa del modelo
- La información crítica se sale del alcance efectivo del mecanismo de atención
- El agente se va desviando poco a poco de la solicitud original
Este fenómeno se llama deriva de objetivo (Goal Drift). Cuando las llamadas a herramientas pasan de 50, se vuelve casi inevitable.
La solución de Manus - El sistema de archivos como memoria externa
La respuesta de Manus fue sorprendentemente simple: hacer que la IA tome notas.
- Usar el sistema de archivos como almacenamiento de memoria persistente para el agente
- Saltarse por completo los límites físicos de la ventana de contexto
- Recuperar la información guardada cuando el agente la necesite
Este enfoque es una forma de ingeniería de contexto (context engineering) - diseñar cómo fluye la información dentro y fuera de la memoria de trabajo de un LLM.
La implementación open source - Un sistema de memoria de 3 archivos
El skill de Claude Code llamado planning-with-files implementa el principio de Manus con tres archivos markdown.
- task_plan.md - El plan maestro con objetivos, pasos de avance y registros de errores. El agente tiene instrucciones de leer este archivo antes de cada decisión importante
- notes.md - Un bloc de notas para resultados de investigación y datos intermedios. Evita la sobrecarga de la ventana de contexto
- [deliverable].md - El archivo de salida final donde se acumula el trabajo terminado
Lo bonito está en la simplicidad. Sin infraestructura especial, sin base de datos - solo archivos markdown en el disco.
El mecanismo central - Releer el plan antes de cada decisión
La regla más importante de este sistema cabe en una frase:
“Antes de cualquier decisión importante, lee el archivo del plan.”
- El mecanismo de atención del LLM responde con más fuerza a los tokens que se ingresaron más recientemente
- Leer
task_plan.mdjusto antes de una decisión restaura el objetivo original hasta arriba del contexto - Esto resuelve el problema no agrandando la ventana de contexto, sino optimizando dónde se coloca la información dentro de ella
Agrandar la ventana de contexto es fuerza bruta. El posicionamiento estratégico de la información es ingeniería.
Manejo de errores - Romper el ciclo de reintentos infinitos
La segunda decisión de diseño clave es el registro forzado de errores.
- Cuando ocurre un error, el agente debe registrarlo en la sección de errores de
task_plan.md - Esto obliga a la IA a reconocer explícitamente las fallas en lugar de reintentar en silencio
- El agente se redirige hacia la revisión del plan en vez de repetir el mismo error
- Los registros de depuración se acumulan automáticamente como efecto secundario
Sin esto, los agentes chocan contra la misma pared una y otra vez - quemando tokens y contexto sin avanzar nada.
Lo que significa - Un nuevo estándar para el rendimiento de agentes
La razón por la que llegó a casi 1,000 estrellas en tres días es clara: un insight arquitectónico valuado en miles de millones de dólares ahora es accesible para cualquiera con una terminal.
La lección más profunda es que el rendimiento de un agente de IA no depende del tamaño del modelo ni del número de parámetros. Depende del diseño de la arquitectura de memoria - cómo estructuras el flujo de información alrededor de las limitaciones del modelo.
Los mejores agentes no son los que tienen el cerebro más grande. Son los que saben tomar notas.
Enlace: planning-with-files en GitHub
Unite al boletín
Recibí actualizaciones sobre mis últimos proyectos, artículos y experimentos con IA y desarrollo web.