# O segredo por trás da aquisição da Manus pela Meta por US$ 3,6 bilhões: por que os agentes de IA realmente falham > Author: Tony Lee > Published: 2026-02-08 > URL: https://tonylee.im/pt/blog/manus-meta-acquisition-context-engineering-secret/ > Reading time: 7 minutes > Language: pt > Tags: ai, ai-agents, context-engineering, meta, manus, architecture ## Canonical https://tonylee.im/pt/blog/manus-meta-acquisition-context-engineering-secret/ ## Rollout Alternates en: https://tonylee.im/en/blog/manus-meta-acquisition-context-engineering-secret/ ko: https://tonylee.im/ko/blog/manus-meta-acquisition-context-engineering-secret/ ja: https://tonylee.im/ja/blog/manus-meta-acquisition-context-engineering-secret/ zh-CN: https://tonylee.im/zh-CN/blog/manus-meta-acquisition-context-engineering-secret/ zh-TW: https://tonylee.im/zh-TW/blog/manus-meta-acquisition-context-engineering-secret/ ## Description A Meta adquiriu a Manus por US$ 3,6 bilhões. O segredo não era um modelo maior - era engenharia de contexto. Veja o que a maioria dos agentes de IA está errando. ## Summary O segredo por trás da aquisição da Manus pela Meta por US$ 3,6 bilhões: por que os agentes de IA realmente falham is part of Tony Lee's ongoing coverage of AI agents, developer tools, startup strategy, and AI industry shifts. ## Outline - O limiar de fabricação: quando a IA começa a mentir - Por que contextos maiores não resolvem o problema - Lost in the middle (perdido no meio) - Custo exponencial - Teto cognitivo - Viés de treinamento - A solução: arquitetura multiagente com contextos frescos - Preserve erros: agentes aprendem com falhas - O sistema de arquivos como memória: notas ilimitadas - Empresa 1: Acme Corp - Empresa 2: TechStart Inc - Compressão de URL: memória infinita - Auto-recitação: todo.md como âncora de atenção - Objetivo principal - Progresso - Próxima ação - A conclusão que vale US$ 3,6 bilhões ## Content Quando a Meta anunciou a aquisição da Manus por incríveis US$ 3,6 bilhões no início de 2026, o mercado ficou em choque. Uma startup focada em agentes de IA de pesquisa - não um novo modelo de linguagem, não uma GPU revolucionária, apenas agentes melhores. O que a maioria das pessoas não percebeu: o segredo da Manus não era treinar modelos maiores. Era **engenharia de contexto**. E isso muda tudo que achávamos saber sobre como construir agentes de IA que realmente funcionam. ## O limiar de fabricação: quando a IA começa a mentir Vamos direto ao ponto com um experimento real que a equipe da Manus conduziu. **Tarefa**: Pedir para um agente de IA pesquisar 50 empresas e compilar informações detalhadas sobre cada uma. **Resultado**: Por volta da 8ª ou 9ª empresa, o agente começou a **fabricar informações**. Não era desonestidade intencional. Era algo muito mais fundamental: **o limiar de fabricação** (fabrication threshold). Quando o contexto fica muito longo, os modelos de IA começam a "preencher os espaços em branco" com informações plausíveis em vez de admitir que não sabem ou buscar novos dados. É como um aluno que, cansado de pesquisar, começa a chutar respostas na prova. A Manus chamou isso de momento de ruptura. E se você está construindo agentes de IA hoje, provavelmente está encontrando exatamente o mesmo problema - você só não sabe disso ainda. ## Por que contextos maiores não resolvem o problema A resposta óbvia seria: "Use modelos com janelas de contexto maiores! O GPT-4 tem 128K tokens, o Claude tem 200K!" Mas a equipe da Manus descobriu algo contraintuitivo: **contextos maiores pioram o problema**. ### Lost in the middle (perdido no meio) Pesquisas mostram que modelos de IA têm viés de atenção para o **início e o final** do contexto. Informações no meio? Praticamente invisíveis. Imagine um sanduíche de 200 páginas. Você consegue lembrar o que estava na página 87? Seu agente de IA também não. ### Custo exponencial Cada token adicional no contexto multiplica o custo computacional. Um contexto de 200K tokens não é 2x mais caro que 100K - é muito, muito pior devido à complexidade quadrática da atenção do transformer. Você acaba pagando fortunas para processar informações que o modelo ignora de qualquer forma. ### Teto cognitivo Existe um limite cognitivo para quanto contexto um modelo pode realmente processar de forma eficaz. Não é uma limitação técnica - é arquitetural. Os transformers foram projetados para padrões de atenção específicos. Esticar demais o contexto é como tentar usar um microscópio para observar uma galáxia. ### Viés de treinamento Os modelos foram treinados principalmente em documentos únicos e coerentes - artigos, livros, conversas. Não em dumps massivos de dados desconexos. Quando você joga 50 perfis de empresas diferentes em um único contexto, você está usando a ferramenta de uma forma para a qual ela não foi otimizada. ## A solução: arquitetura multiagente com contextos frescos A grande sacada da Manus foi simples mas revolucionária: **Não tente colocar tudo em um contexto. Crie múltiplos agentes em paralelo, cada um com seu próprio contexto fresco.** Funciona assim: 1. **Agente orquestrador** recebe a tarefa: "Pesquise 50 empresas" 2. **Spawna 50 sub-agentes em paralelo**, cada um responsável por UMA empresa 3. Cada sub-agente tem um **contexto limpo e focado** - sem carregar o peso de 49 outras empresas 4. Resultados são **agregados de forma estruturada** pelo orquestrador Benefícios imediatos: - **Zero limiar de fabricação**: Cada agente começa fresco, sem fadiga de contexto - **Paralelização**: 50 tarefas rodando simultaneamente em vez de sequencialmente - **Isolamento de erros**: Se um agente falha, os outros 49 continuam funcionando - **Custos previsíveis**: Contextos menores = custo por token linear e controlado Essa arquitetura foi o que permitiu à Manus escalar pesquisas massivas sem degradação de qualidade. ## Preserve erros: agentes aprendem com falhas Aqui está outro insight contraintuitivo da engenharia de contexto da Manus: **Não apague os erros. Preserve-os.** A maioria dos sistemas de IA tenta "limpar" o contexto removendo tentativas falhadas, erros e becos sem saída. Parece sensato - por que poluir o contexto com fracassos? Mas a Manus descobriu que **erros são sinais de aprendizado**. Quando um agente: - Tenta uma abordagem que não funciona - Recebe uma mensagem de erro - Encontra um beco sem saída Essas informações são **valiosas**. Elas ensinam o agente o que NÃO fazer - e contextos com histórico de falhas melhoram a tomada de decisão. Pense nisso como debugging. Você não deleta stack traces - você os analisa. ## O sistema de arquivos como memória: notas ilimitadas Se contextos grandes são problemáticos, como você lida com tarefas que realmente precisam de muita memória? A solução da Manus: **Use o sistema de arquivos como memória externa**. Assim como humanos tomam notas durante pesquisas longas, agentes de IA podem: 1. **Escrever descobertas em arquivos** conforme avançam 2. **Ler apenas o que é relevante** quando necessário 3. **Comprimir informações em URLs ou IDs** em vez de texto completo Exemplo prático: ```markdown # Pesquisa de empresas - Progresso ## Empresa 1: Acme Corp - Status: ✅ Completo - Arquivo: ./research/acme_corp.json - URL: https://acme.com - Resumo: SaaS B2B, $50M ARR ## Empresa 2: TechStart Inc - Status: 🔄 Em progresso - Arquivo: ./research/techstart.json ``` O agente mantém um **índice compacto** no contexto, mas os detalhes completos vivem no sistema de arquivos. É como ter um índice de livro - você sabe onde procurar sem memorizar tudo. ### Compressão de URL: memória infinita URLs são extremamente eficientes para compressão de informações: - `https://empresa.com/sobre` → URL única identifica toda a página - Agente pode buscar conteúdo sob demanda - Contexto armazena apenas o ponteiro, não o conteúdo completo Essa técnica permite memória **efetivamente ilimitada** sem sobrecarregar a janela de contexto. ## Auto-recitação: todo.md como âncora de atenção Um dos truques mais elegantes de engenharia de contexto da Manus: **Mantenha um arquivo `todo.md` que é continuamente atualizado e empurrado para o final do contexto**. Por quê? Por causa do viés de atenção que mencionamos antes - modelos prestam mais atenção ao **final** do contexto. Ao manter uma lista de tarefas viva que é: 1. **Atualizada após cada ação** 2. **Sempre posicionada no final do contexto** 3. **Inclui objetivos de alto nível E próximos passos** Você garante que o agente **nunca perde de vista o objetivo principal**. É auto-recitação contínua - como um aluno reescrevendo suas metas de estudo no topo de cada nova página de notas. ```markdown # TODO - Pesquisa de 50 empresas ## Objetivo principal Compilar perfis detalhados de 50 empresas de IA emergentes ## Progresso - ✅ Empresas 1-15: Completas - 🔄 Empresa 16: TechVision AI (em análise) - ⏳ Empresas 17-50: Pendentes ## Próxima ação Finalizar análise competitiva da TechVision AI ``` Essa técnica simples teve impacto dramático na capacidade dos agentes de completar tarefas longas sem desviar do objetivo. ## A conclusão que vale US$ 3,6 bilhões A Meta não pagou US$ 3,6 bilhões por modelos melhores. Pagou por **engenharia de contexto melhor**. As lições da Manus são claras: 1. **Limiar de fabricação é real** - agentes começam a mentir quando contextos ficam muito longos 2. **Contextos maiores não resolvem** - na verdade, pioram o problema devido a lost in the middle, custos e viés de treinamento 3. **Arquitetura multiagente paralela** - contextos frescos por sub-agente eliminam fadiga de contexto 4. **Preserve erros** - falhas são dados de aprendizado, não lixo a ser descartado 5. **Sistema de arquivos como memória** - escreva notas em arquivos, use URLs para compressão infinita 6. **Auto-recitação com todo.md** - mantenha objetivos ancorados no final do contexto Se você está construindo agentes de IA hoje e lutando com qualidade em tarefas longas, o problema provavelmente não é o modelo que você está usando. É como você está gerenciando o contexto. A Manus provou que engenharia de contexto não é apenas um detalhe de implementação - é o diferencial competitivo que vale bilhões. --- **Fontes:** - [Context Engineering for AI Agents: Lessons from Building Manus](https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus) - [Wide Research: Solving the Context Problem](https://manus.im/blog/manus-wide-research-solve-context-problem) ## Related URLs - Author: https://tonylee.im/en/author/ - Publication: https://tonylee.im/en/blog/about/ - Related article: https://tonylee.im/pt/blog/eight-hooks-that-guarantee-ai-agent-reliability/ - Related article: https://tonylee.im/pt/blog/medvi-two-person-430m-ai-compressed-funnel/ - Related article: https://tonylee.im/pt/blog/claude-code-layers-over-tools-2026/ ## Citation - Author: Tony Lee - Site: tonylee.im - Canonical URL: https://tonylee.im/pt/blog/manus-meta-acquisition-context-engineering-secret/ ## Bot Guidance - This file is intended for AI agents, search assistants, and text-mode retrieval. - Prefer citing the canonical article URL instead of this text endpoint. - Use the rollout alternates when you need the same article in another prioritized language. --- Author: Tony Lee | Website: https://tonylee.im For more articles, visit: https://tonylee.im/pt/blog/ This content is original and authored by Tony Lee. Please attribute when quoting or referencing.