Índice
4 min de leitura

Meta comprou a Manus por US$ 2,5 bilhões - sua tecnologia-chave agora é open source

O sistema de memória baseado em arquivos por trás da avaliação de US$ 2,5 bilhões da Manus agora é um skill gratuito do Claude Code. Veja por que isso importa para todo desenvolvedor de agentes de IA.

Se você já usou agentes de IA para tarefas complexas, já viu isso acontecer: no meio de um fluxo de trabalho longo, o agente está fazendo algo completamente diferente do que você pediu inicialmente.

Isso não é erro do usuário. É uma limitação estrutural dos modelos de linguagem de grande porte. A empresa que resolveu esse problema - Manus - foi adquirida pela Meta por US$ 2,5 bilhões. Agora, um desenvolvedor publicou o princípio fundamental como um skill open source para Claude Code, alcançando quase 1.000 estrelas no GitHub em apenas três dias.

O problema de fundo - Por que agentes de IA esquecem seus objetivos

LLMs operam dentro de uma janela de contexto - uma memória de trabalho de tamanho fixo.

  • Quanto mais longa a conversa, mais o objetivo original é empurrado para fora da zona de atenção ativa do modelo
  • Informações críticas desaparecem além do alcance efetivo do mecanismo de atenção
  • O agente gradualmente se desvia da solicitação original

Esse fenômeno é chamado de deriva de objetivo (Goal Drift). A partir de cerca de 50 chamadas de ferramentas, torna-se quase inevitável.

A solução da Manus - O sistema de arquivos como memória externa

A resposta da Manus foi surpreendentemente simples: fazer a IA tomar notas.

  • Usar o sistema de arquivos como armazenamento de memória persistente para o agente
  • Contornar completamente os limites físicos da janela de contexto
  • Recuperar informações armazenadas sob demanda quando o agente precisar

Essa abordagem é uma forma de engenharia de contexto (context engineering) - projetar como a informação flui para dentro e para fora da memória de trabalho de um LLM.

A implementação open source - Um sistema de memória de 3 arquivos

O skill do Claude Code chamado planning-with-files implementa o princípio da Manus usando três arquivos markdown.

  • task_plan.md - O plano mestre contendo objetivos, etapas de progresso e logs de erros. O agente é instruído a ler este arquivo antes de cada decisão importante
  • notes.md - Um bloco de notas para resultados de pesquisa e dados intermediários. Previne sobrecarga da janela de contexto
  • [deliverable].md - O arquivo de saída final onde o trabalho concluído se acumula

A beleza está na simplicidade. Sem infraestrutura personalizada, sem banco de dados - apenas arquivos markdown no disco.

O mecanismo central - Reler o plano antes de cada decisão

A regra mais importante deste sistema cabe em uma frase:

“Antes de qualquer decisão importante, leia o arquivo do plano.”

  • O mecanismo de atenção do LLM responde com mais força aos tokens mais recentemente ingeridos
  • Ler task_plan.md logo antes de uma decisão restaura o objetivo original ao topo do contexto
  • Isso resolve o problema não expandindo a janela de contexto, mas otimizando o posicionamento da informação dentro dela

Expandir a janela de contexto é força bruta. Posicionamento estratégico de informação é engenharia.

Tratamento de erros - Quebrando o loop de retentativas infinitas

A segunda decisão de design crítica é o registro forçado de erros.

  • Quando um erro ocorre, o agente deve registrá-lo na seção de erros do task_plan.md
  • Isso força a IA a reconhecer explicitamente falhas em vez de tentar novamente em silêncio
  • O agente é guiado para a revisão do plano em vez de repetir o mesmo erro
  • Logs de depuração se acumulam automaticamente como efeito colateral

Sem isso, agentes tendem a bater na mesma parede repetidamente - queimando tokens e contexto sem fazer progresso.

O que isso significa - Um novo patamar para o desempenho de agentes

A razão de quase 1.000 estrelas em três dias é clara: um insight arquitetural de bilhões de dólares agora está acessível a qualquer pessoa com um terminal.

A lição mais profunda é que o desempenho de um agente de IA não é determinado pelo tamanho do modelo ou pela quantidade de parâmetros. É determinado pelo design da arquitetura de memória - como você estrutura o fluxo de informação em torno das limitações do modelo.

Os melhores agentes não são os que têm o maior cérebro. São os que sabem tomar notas.

Link: planning-with-files no GitHub

Assine a newsletter

Receba atualizações sobre meus projetos mais recentes, artigos e experimentos com IA e desenvolvimento web.