O segredo por trás da aquisição da Manus pela Meta por US$ 3,6 bilhões: por que os agentes de IA realmente falham
A Meta adquiriu a Manus por US$ 3,6 bilhões. O segredo não era um modelo maior - era engenharia de contexto. Veja o que a maioria dos agentes de IA está errando.
Quando a Meta anunciou a aquisição da Manus por incríveis US$ 3,6 bilhões no início de 2026, o mercado ficou em choque. Uma startup focada em agentes de IA de pesquisa - não um novo modelo de linguagem, não uma GPU revolucionária, apenas agentes melhores.
O que a maioria das pessoas não percebeu: o segredo da Manus não era treinar modelos maiores. Era engenharia de contexto.
E isso muda tudo que achávamos saber sobre como construir agentes de IA que realmente funcionam.
O limiar de fabricação: quando a IA começa a mentir
Vamos direto ao ponto com um experimento real que a equipe da Manus conduziu.
Tarefa: Pedir para um agente de IA pesquisar 50 empresas e compilar informações detalhadas sobre cada uma.
Resultado: Por volta da 8ª ou 9ª empresa, o agente começou a fabricar informações.
Não era desonestidade intencional. Era algo muito mais fundamental: o limiar de fabricação (fabrication threshold).
Quando o contexto fica muito longo, os modelos de IA começam a “preencher os espaços em branco” com informações plausíveis em vez de admitir que não sabem ou buscar novos dados. É como um aluno que, cansado de pesquisar, começa a chutar respostas na prova.
A Manus chamou isso de momento de ruptura. E se você está construindo agentes de IA hoje, provavelmente está encontrando exatamente o mesmo problema - você só não sabe disso ainda.
Por que contextos maiores não resolvem o problema
A resposta óbvia seria: “Use modelos com janelas de contexto maiores! O GPT-4 tem 128K tokens, o Claude tem 200K!”
Mas a equipe da Manus descobriu algo contraintuitivo: contextos maiores pioram o problema.
Lost in the middle (perdido no meio)
Pesquisas mostram que modelos de IA têm viés de atenção para o início e o final do contexto. Informações no meio? Praticamente invisíveis.
Imagine um sanduíche de 200 páginas. Você consegue lembrar o que estava na página 87? Seu agente de IA também não.
Custo exponencial
Cada token adicional no contexto multiplica o custo computacional. Um contexto de 200K tokens não é 2x mais caro que 100K - é muito, muito pior devido à complexidade quadrática da atenção do transformer.
Você acaba pagando fortunas para processar informações que o modelo ignora de qualquer forma.
Teto cognitivo
Existe um limite cognitivo para quanto contexto um modelo pode realmente processar de forma eficaz. Não é uma limitação técnica - é arquitetural.
Os transformers foram projetados para padrões de atenção específicos. Esticar demais o contexto é como tentar usar um microscópio para observar uma galáxia.
Viés de treinamento
Os modelos foram treinados principalmente em documentos únicos e coerentes - artigos, livros, conversas. Não em dumps massivos de dados desconexos.
Quando você joga 50 perfis de empresas diferentes em um único contexto, você está usando a ferramenta de uma forma para a qual ela não foi otimizada.
A solução: arquitetura multiagente com contextos frescos
A grande sacada da Manus foi simples mas revolucionária:
Não tente colocar tudo em um contexto. Crie múltiplos agentes em paralelo, cada um com seu próprio contexto fresco.
Funciona assim:
- Agente orquestrador recebe a tarefa: “Pesquise 50 empresas”
- Spawna 50 sub-agentes em paralelo, cada um responsável por UMA empresa
- Cada sub-agente tem um contexto limpo e focado - sem carregar o peso de 49 outras empresas
- Resultados são agregados de forma estruturada pelo orquestrador
Benefícios imediatos:
- Zero limiar de fabricação: Cada agente começa fresco, sem fadiga de contexto
- Paralelização: 50 tarefas rodando simultaneamente em vez de sequencialmente
- Isolamento de erros: Se um agente falha, os outros 49 continuam funcionando
- Custos previsíveis: Contextos menores = custo por token linear e controlado
Essa arquitetura foi o que permitiu à Manus escalar pesquisas massivas sem degradação de qualidade.
Preserve erros: agentes aprendem com falhas
Aqui está outro insight contraintuitivo da engenharia de contexto da Manus:
Não apague os erros. Preserve-os.
A maioria dos sistemas de IA tenta “limpar” o contexto removendo tentativas falhadas, erros e becos sem saída. Parece sensato - por que poluir o contexto com fracassos?
Mas a Manus descobriu que erros são sinais de aprendizado.
Quando um agente:
- Tenta uma abordagem que não funciona
- Recebe uma mensagem de erro
- Encontra um beco sem saída
Essas informações são valiosas. Elas ensinam o agente o que NÃO fazer - e contextos com histórico de falhas melhoram a tomada de decisão.
Pense nisso como debugging. Você não deleta stack traces - você os analisa.
O sistema de arquivos como memória: notas ilimitadas
Se contextos grandes são problemáticos, como você lida com tarefas que realmente precisam de muita memória?
A solução da Manus: Use o sistema de arquivos como memória externa.
Assim como humanos tomam notas durante pesquisas longas, agentes de IA podem:
- Escrever descobertas em arquivos conforme avançam
- Ler apenas o que é relevante quando necessário
- Comprimir informações em URLs ou IDs em vez de texto completo
Exemplo prático:
# Pesquisa de empresas - Progresso
## Empresa 1: Acme Corp
- Status: ✅ Completo
- Arquivo: ./research/acme_corp.json
- URL: https://acme.com
- Resumo: SaaS B2B, $50M ARR
## Empresa 2: TechStart Inc
- Status: 🔄 Em progresso
- Arquivo: ./research/techstart.json
O agente mantém um índice compacto no contexto, mas os detalhes completos vivem no sistema de arquivos. É como ter um índice de livro - você sabe onde procurar sem memorizar tudo.
Compressão de URL: memória infinita
URLs são extremamente eficientes para compressão de informações:
https://empresa.com/sobre→ URL única identifica toda a página- Agente pode buscar conteúdo sob demanda
- Contexto armazena apenas o ponteiro, não o conteúdo completo
Essa técnica permite memória efetivamente ilimitada sem sobrecarregar a janela de contexto.
Auto-recitação: todo.md como âncora de atenção
Um dos truques mais elegantes de engenharia de contexto da Manus:
Mantenha um arquivo todo.md que é continuamente atualizado e empurrado para o final do contexto.
Por quê? Por causa do viés de atenção que mencionamos antes - modelos prestam mais atenção ao final do contexto.
Ao manter uma lista de tarefas viva que é:
- Atualizada após cada ação
- Sempre posicionada no final do contexto
- Inclui objetivos de alto nível E próximos passos
Você garante que o agente nunca perde de vista o objetivo principal.
É auto-recitação contínua - como um aluno reescrevendo suas metas de estudo no topo de cada nova página de notas.
# TODO - Pesquisa de 50 empresas
## Objetivo principal
Compilar perfis detalhados de 50 empresas de IA emergentes
## Progresso
- ✅ Empresas 1-15: Completas
- 🔄 Empresa 16: TechVision AI (em análise)
- ⏳ Empresas 17-50: Pendentes
## Próxima ação
Finalizar análise competitiva da TechVision AI
Essa técnica simples teve impacto dramático na capacidade dos agentes de completar tarefas longas sem desviar do objetivo.
A conclusão que vale US$ 3,6 bilhões
A Meta não pagou US$ 3,6 bilhões por modelos melhores. Pagou por engenharia de contexto melhor.
As lições da Manus são claras:
- Limiar de fabricação é real - agentes começam a mentir quando contextos ficam muito longos
- Contextos maiores não resolvem - na verdade, pioram o problema devido a lost in the middle, custos e viés de treinamento
- Arquitetura multiagente paralela - contextos frescos por sub-agente eliminam fadiga de contexto
- Preserve erros - falhas são dados de aprendizado, não lixo a ser descartado
- Sistema de arquivos como memória - escreva notas em arquivos, use URLs para compressão infinita
- Auto-recitação com todo.md - mantenha objetivos ancorados no final do contexto
Se você está construindo agentes de IA hoje e lutando com qualidade em tarefas longas, o problema provavelmente não é o modelo que você está usando.
É como você está gerenciando o contexto.
A Manus provou que engenharia de contexto não é apenas um detalhe de implementação - é o diferencial competitivo que vale bilhões.
Fontes:
Assine a newsletter
Receba atualizações sobre meus projetos mais recentes, artigos e experimentos com IA e desenvolvimento web.