# Meta comprou a Manus por US$ 2,5 bilhões - sua tecnologia-chave agora é open source > Author: Tony Lee > Published: 2026-02-08 > URL: https://tonylee.im/pt/blog/manus-core-tech-open-source-planning-with-files/ > Reading time: 4 minutes > Language: pt > Tags: ai, agentes-ia, claude-code, open-source, context-engineering ## Canonical https://tonylee.im/pt/blog/manus-core-tech-open-source-planning-with-files/ ## Rollout Alternates en: https://tonylee.im/en/blog/manus-core-tech-open-source-planning-with-files/ ko: https://tonylee.im/ko/blog/manus-core-tech-open-source-planning-with-files/ ja: https://tonylee.im/ja/blog/manus-core-tech-open-source-planning-with-files/ zh-CN: https://tonylee.im/zh-CN/blog/manus-core-tech-open-source-planning-with-files/ zh-TW: https://tonylee.im/zh-TW/blog/manus-core-tech-open-source-planning-with-files/ ## Description O sistema de memória baseado em arquivos por trás da avaliação de US$ 2,5 bilhões da Manus agora é um skill gratuito do Claude Code. Veja por que isso importa para todo desenvolvedor de agentes de IA. ## Summary Meta comprou a Manus por US$ 2,5 bilhões - sua tecnologia-chave agora é open source is part of Tony Lee's ongoing coverage of AI agents, developer tools, startup strategy, and AI industry shifts. ## Outline - O problema de fundo - Por que agentes de IA esquecem seus objetivos - A solução da Manus - O sistema de arquivos como memória externa - A implementação open source - Um sistema de memória de 3 arquivos - O mecanismo central - Reler o plano antes de cada decisão - Tratamento de erros - Quebrando o loop de retentativas infinitas - O que isso significa - Um novo patamar para o desempenho de agentes ## Content Se você já usou agentes de IA para tarefas complexas, já viu isso acontecer: no meio de um fluxo de trabalho longo, o agente está fazendo algo completamente diferente do que você pediu inicialmente. Isso não é erro do usuário. É uma limitação estrutural dos modelos de linguagem de grande porte. A empresa que resolveu esse problema - Manus - foi adquirida pela Meta por US$ 2,5 bilhões. Agora, um desenvolvedor publicou o princípio fundamental como um skill open source para Claude Code, alcançando quase 1.000 estrelas no GitHub em apenas três dias. ## O problema de fundo - Por que agentes de IA esquecem seus objetivos LLMs operam dentro de uma janela de contexto - uma memória de trabalho de tamanho fixo. - Quanto mais longa a conversa, mais o objetivo original é empurrado para fora da zona de atenção ativa do modelo - Informações críticas desaparecem além do alcance efetivo do mecanismo de atenção - O agente gradualmente se desvia da solicitação original Esse fenômeno é chamado de **deriva de objetivo (Goal Drift)**. A partir de cerca de 50 chamadas de ferramentas, torna-se quase inevitável. ## A solução da Manus - O sistema de arquivos como memória externa A resposta da Manus foi surpreendentemente simples: fazer a IA tomar notas. - Usar o sistema de arquivos como armazenamento de memória persistente para o agente - Contornar completamente os limites físicos da janela de contexto - Recuperar informações armazenadas sob demanda quando o agente precisar Essa abordagem é uma forma de **engenharia de contexto (context engineering)** - projetar como a informação flui para dentro e para fora da memória de trabalho de um LLM. ## A implementação open source - Um sistema de memória de 3 arquivos O skill do Claude Code chamado [planning-with-files](https://github.com/OthmanAdi/planning-with-files) implementa o princípio da Manus usando três arquivos markdown. - **task_plan.md** - O plano mestre contendo objetivos, etapas de progresso e logs de erros. O agente é instruído a ler este arquivo antes de cada decisão importante - **notes.md** - Um bloco de notas para resultados de pesquisa e dados intermediários. Previne sobrecarga da janela de contexto - **[deliverable].md** - O arquivo de saída final onde o trabalho concluído se acumula A beleza está na simplicidade. Sem infraestrutura personalizada, sem banco de dados - apenas arquivos markdown no disco. ## O mecanismo central - Reler o plano antes de cada decisão A regra mais importante deste sistema cabe em uma frase: **"Antes de qualquer decisão importante, leia o arquivo do plano."** - O mecanismo de atenção do LLM responde com mais força aos tokens mais recentemente ingeridos - Ler `task_plan.md` logo antes de uma decisão restaura o objetivo original ao topo do contexto - Isso resolve o problema não expandindo a janela de contexto, mas otimizando o posicionamento da informação dentro dela Expandir a janela de contexto é força bruta. Posicionamento estratégico de informação é engenharia. ## Tratamento de erros - Quebrando o loop de retentativas infinitas A segunda decisão de design crítica é o registro forçado de erros. - Quando um erro ocorre, o agente deve registrá-lo na seção de erros do `task_plan.md` - Isso força a IA a reconhecer explicitamente falhas em vez de tentar novamente em silêncio - O agente é guiado para a revisão do plano em vez de repetir o mesmo erro - Logs de depuração se acumulam automaticamente como efeito colateral Sem isso, agentes tendem a bater na mesma parede repetidamente - queimando tokens e contexto sem fazer progresso. ## O que isso significa - Um novo patamar para o desempenho de agentes A razão de quase 1.000 estrelas em três dias é clara: um insight arquitetural de bilhões de dólares agora está acessível a qualquer pessoa com um terminal. A lição mais profunda é que o desempenho de um agente de IA não é determinado pelo tamanho do modelo ou pela quantidade de parâmetros. É determinado pelo **design da arquitetura de memória** - como você estrutura o fluxo de informação em torno das limitações do modelo. Os melhores agentes não são os que têm o maior cérebro. São os que sabem tomar notas. **Link**: [planning-with-files no GitHub](https://github.com/OthmanAdi/planning-with-files) ## Related URLs - Author: https://tonylee.im/en/author/ - Publication: https://tonylee.im/en/blog/about/ - Related article: https://tonylee.im/pt/blog/eight-hooks-that-guarantee-ai-agent-reliability/ - Related article: https://tonylee.im/pt/blog/medvi-two-person-430m-ai-compressed-funnel/ - Related article: https://tonylee.im/pt/blog/claude-code-layers-over-tools-2026/ ## Citation - Author: Tony Lee - Site: tonylee.im - Canonical URL: https://tonylee.im/pt/blog/manus-core-tech-open-source-planning-with-files/ ## Bot Guidance - This file is intended for AI agents, search assistants, and text-mode retrieval. - Prefer citing the canonical article URL instead of this text endpoint. - Use the rollout alternates when you need the same article in another prioritized language. --- Author: Tony Lee | Website: https://tonylee.im For more articles, visit: https://tonylee.im/pt/blog/ This content is original and authored by Tony Lee. Please attribute when quoting or referencing.