Índice
7 min de leitura

O segredo por trás da aquisição da Manus pela Meta por US$ 3,6 bilhões: por que os agentes de IA realmente falham

A Meta adquiriu a Manus por US$ 3,6 bilhões. O segredo não era um modelo maior - era engenharia de contexto. Veja o que a maioria dos agentes de IA está errando.

Quando a Meta anunciou a aquisição da Manus por incríveis US$ 3,6 bilhões no início de 2026, o mercado ficou em choque. Uma startup focada em agentes de IA de pesquisa - não um novo modelo de linguagem, não uma GPU revolucionária, apenas agentes melhores.

O que a maioria das pessoas não percebeu: o segredo da Manus não era treinar modelos maiores. Era engenharia de contexto.

E isso muda tudo que achávamos saber sobre como construir agentes de IA que realmente funcionam.

O limiar de fabricação: quando a IA começa a mentir

Vamos direto ao ponto com um experimento real que a equipe da Manus conduziu.

Tarefa: Pedir para um agente de IA pesquisar 50 empresas e compilar informações detalhadas sobre cada uma.

Resultado: Por volta da 8ª ou 9ª empresa, o agente começou a fabricar informações.

Não era desonestidade intencional. Era algo muito mais fundamental: o limiar de fabricação (fabrication threshold).

Quando o contexto fica muito longo, os modelos de IA começam a “preencher os espaços em branco” com informações plausíveis em vez de admitir que não sabem ou buscar novos dados. É como um aluno que, cansado de pesquisar, começa a chutar respostas na prova.

A Manus chamou isso de momento de ruptura. E se você está construindo agentes de IA hoje, provavelmente está encontrando exatamente o mesmo problema - você só não sabe disso ainda.

Por que contextos maiores não resolvem o problema

A resposta óbvia seria: “Use modelos com janelas de contexto maiores! O GPT-4 tem 128K tokens, o Claude tem 200K!”

Mas a equipe da Manus descobriu algo contraintuitivo: contextos maiores pioram o problema.

Lost in the middle (perdido no meio)

Pesquisas mostram que modelos de IA têm viés de atenção para o início e o final do contexto. Informações no meio? Praticamente invisíveis.

Imagine um sanduíche de 200 páginas. Você consegue lembrar o que estava na página 87? Seu agente de IA também não.

Custo exponencial

Cada token adicional no contexto multiplica o custo computacional. Um contexto de 200K tokens não é 2x mais caro que 100K - é muito, muito pior devido à complexidade quadrática da atenção do transformer.

Você acaba pagando fortunas para processar informações que o modelo ignora de qualquer forma.

Teto cognitivo

Existe um limite cognitivo para quanto contexto um modelo pode realmente processar de forma eficaz. Não é uma limitação técnica - é arquitetural.

Os transformers foram projetados para padrões de atenção específicos. Esticar demais o contexto é como tentar usar um microscópio para observar uma galáxia.

Viés de treinamento

Os modelos foram treinados principalmente em documentos únicos e coerentes - artigos, livros, conversas. Não em dumps massivos de dados desconexos.

Quando você joga 50 perfis de empresas diferentes em um único contexto, você está usando a ferramenta de uma forma para a qual ela não foi otimizada.

A solução: arquitetura multiagente com contextos frescos

A grande sacada da Manus foi simples mas revolucionária:

Não tente colocar tudo em um contexto. Crie múltiplos agentes em paralelo, cada um com seu próprio contexto fresco.

Funciona assim:

  1. Agente orquestrador recebe a tarefa: “Pesquise 50 empresas”
  2. Spawna 50 sub-agentes em paralelo, cada um responsável por UMA empresa
  3. Cada sub-agente tem um contexto limpo e focado - sem carregar o peso de 49 outras empresas
  4. Resultados são agregados de forma estruturada pelo orquestrador

Benefícios imediatos:

  • Zero limiar de fabricação: Cada agente começa fresco, sem fadiga de contexto
  • Paralelização: 50 tarefas rodando simultaneamente em vez de sequencialmente
  • Isolamento de erros: Se um agente falha, os outros 49 continuam funcionando
  • Custos previsíveis: Contextos menores = custo por token linear e controlado

Essa arquitetura foi o que permitiu à Manus escalar pesquisas massivas sem degradação de qualidade.

Preserve erros: agentes aprendem com falhas

Aqui está outro insight contraintuitivo da engenharia de contexto da Manus:

Não apague os erros. Preserve-os.

A maioria dos sistemas de IA tenta “limpar” o contexto removendo tentativas falhadas, erros e becos sem saída. Parece sensato - por que poluir o contexto com fracassos?

Mas a Manus descobriu que erros são sinais de aprendizado.

Quando um agente:

  • Tenta uma abordagem que não funciona
  • Recebe uma mensagem de erro
  • Encontra um beco sem saída

Essas informações são valiosas. Elas ensinam o agente o que NÃO fazer - e contextos com histórico de falhas melhoram a tomada de decisão.

Pense nisso como debugging. Você não deleta stack traces - você os analisa.

O sistema de arquivos como memória: notas ilimitadas

Se contextos grandes são problemáticos, como você lida com tarefas que realmente precisam de muita memória?

A solução da Manus: Use o sistema de arquivos como memória externa.

Assim como humanos tomam notas durante pesquisas longas, agentes de IA podem:

  1. Escrever descobertas em arquivos conforme avançam
  2. Ler apenas o que é relevante quando necessário
  3. Comprimir informações em URLs ou IDs em vez de texto completo

Exemplo prático:

# Pesquisa de empresas - Progresso

## Empresa 1: Acme Corp
- Status: ✅ Completo
- Arquivo: ./research/acme_corp.json
- URL: https://acme.com
- Resumo: SaaS B2B, $50M ARR

## Empresa 2: TechStart Inc
- Status: 🔄 Em progresso
- Arquivo: ./research/techstart.json

O agente mantém um índice compacto no contexto, mas os detalhes completos vivem no sistema de arquivos. É como ter um índice de livro - você sabe onde procurar sem memorizar tudo.

Compressão de URL: memória infinita

URLs são extremamente eficientes para compressão de informações:

  • https://empresa.com/sobre → URL única identifica toda a página
  • Agente pode buscar conteúdo sob demanda
  • Contexto armazena apenas o ponteiro, não o conteúdo completo

Essa técnica permite memória efetivamente ilimitada sem sobrecarregar a janela de contexto.

Auto-recitação: todo.md como âncora de atenção

Um dos truques mais elegantes de engenharia de contexto da Manus:

Mantenha um arquivo todo.md que é continuamente atualizado e empurrado para o final do contexto.

Por quê? Por causa do viés de atenção que mencionamos antes - modelos prestam mais atenção ao final do contexto.

Ao manter uma lista de tarefas viva que é:

  1. Atualizada após cada ação
  2. Sempre posicionada no final do contexto
  3. Inclui objetivos de alto nível E próximos passos

Você garante que o agente nunca perde de vista o objetivo principal.

É auto-recitação contínua - como um aluno reescrevendo suas metas de estudo no topo de cada nova página de notas.

# TODO - Pesquisa de 50 empresas

## Objetivo principal
Compilar perfis detalhados de 50 empresas de IA emergentes

## Progresso
- ✅ Empresas 1-15: Completas
- 🔄 Empresa 16: TechVision AI (em análise)
- ⏳ Empresas 17-50: Pendentes

## Próxima ação
Finalizar análise competitiva da TechVision AI

Essa técnica simples teve impacto dramático na capacidade dos agentes de completar tarefas longas sem desviar do objetivo.

A conclusão que vale US$ 3,6 bilhões

A Meta não pagou US$ 3,6 bilhões por modelos melhores. Pagou por engenharia de contexto melhor.

As lições da Manus são claras:

  1. Limiar de fabricação é real - agentes começam a mentir quando contextos ficam muito longos
  2. Contextos maiores não resolvem - na verdade, pioram o problema devido a lost in the middle, custos e viés de treinamento
  3. Arquitetura multiagente paralela - contextos frescos por sub-agente eliminam fadiga de contexto
  4. Preserve erros - falhas são dados de aprendizado, não lixo a ser descartado
  5. Sistema de arquivos como memória - escreva notas em arquivos, use URLs para compressão infinita
  6. Auto-recitação com todo.md - mantenha objetivos ancorados no final do contexto

Se você está construindo agentes de IA hoje e lutando com qualidade em tarefas longas, o problema provavelmente não é o modelo que você está usando.

É como você está gerenciando o contexto.

A Manus provou que engenharia de contexto não é apenas um detalhe de implementação - é o diferencial competitivo que vale bilhões.


Fontes:

Assine a newsletter

Receba atualizações sobre meus projetos mais recentes, artigos e experimentos com IA e desenvolvimento web.