Índice
7 min de lectura

El secreto detrás de la adquisición de Manus por Meta por 3.600 millones: por qué los agentes de IA realmente fallan

Meta adquirió Manus por 3.600 millones de dólares. El secreto no era un modelo más grande, sino la ingeniería de contexto. Esto es lo que la mayoría de los agentes de IA no entienden.

Meta acaba de adquirir Manus por aproximadamente 3.600 millones de dólares. No, no fue por tener el modelo de IA más grande. Fue por resolver un problema que la mayoría de la industria ni siquiera sabe que tiene.

El verdadero diferenciador no era la potencia bruta de computación. Era la ingeniería de contexto.

Y esto cambia todo lo que creíais saber sobre cómo construir agentes de IA que realmente funcionen.

El umbral de fabricación: cuando tu agente empieza a mentir

Imaginad que le pedís a vuestro agente de IA que investigue 50 empresas y os entregue un informe detallado. Suena razonable, ¿verdad?

Aquí está el problema: hacia el octavo o noveno ítem, vuestro agente empieza a inventarse datos.

No es que esté roto. Es que ha llegado a lo que los ingenieros de Manus llaman el umbral de fabricación (fabrication threshold).

Tarea: Investigar 50 empresas
Ítem 1-7: ✅ Datos precisos
Ítem 8-9: ⚠️ Umbral de fabricación
Ítem 10+: ❌ Invenciones creativas

¿Por qué sucede esto? Porque los modelos de IA grandes tienen un límite cognitivo. No es una cuestión de ventana de contexto. Es cómo la atención se degrada a medida que se acumula información.

El equipo de Manus lo descubrió de la peor manera posible: sus usuarios empezaron a tomar decisiones empresariales basadas en datos fabricados.

Por qué los contextos más grandes no son la solución

La respuesta obvia parecería ser: “Vale, pues ampliemos la ventana de contexto”.

Google anuncia contextos de 2 millones de tokens. Anthropic mejora Claude con contextos expandidos. Problema resuelto, ¿no?

No.

Aquí tenéis por qué los contextos más grandes en realidad empeoran el problema:

Perdido en el medio (Lost in the Middle)

Los modelos de IA tienen un problema documentado: prestan más atención al principio y al final del contexto. El medio se convierte en un agujero negro de información.

[Alta atención] ← Inicio del contexto
[      ???     ] ← Medio del contexto (información perdida)
[Alta atención] ← Final del contexto

Ampliar el contexto solo crea un agujero negro más grande.

Coste exponencial

Más contexto = más tokens = más dinero. La ventana de 2 millones de tokens de Google cuesta 50 veces más que una ventana estándar.

Para una startup que procesa miles de consultas al día, esto significa bancarrota.

Techo cognitivo

Los humanos no podemos mantener 50 conceptos en la memoria de trabajo. Tampoco los modelos de IA. La arquitectura transformer tiene límites fundamentales de atención.

Más contexto no significa mejor razonamiento. Significa más ruido.

Sesgo de entrenamiento

Los modelos se entrenan mayormente con contextos cortos. Darles contextos masivos es como pedirle a alguien que leyó capítulos cortos toda su vida que de repente lea “Guerra y Paz” de una sentada.

No están optimizados para ello.

La solución: arquitectura multi-agente con contextos frescos

Así que, ¿cómo lo resolvió Manus?

No intentaron hacer agentes más grandes. Construyeron agentes más inteligentes.

Divide y vencerás con paralelización

En lugar de un agente investigando 50 empresas:

❌ Mal enfoque:
Agente Único → Investiga 50 empresas → Se sobrecarga → Fabrica datos

✅ Enfoque Manus:
Agente Principal → Spawn 50 Sub-agentes → Cada uno investiga 1 empresa → Resultados agregados

Cada sub-agente obtiene un contexto fresco. Sin acumulación de información. Sin degradación de atención. Sin fabricación.

El sistema de archivos como memoria

Aquí está la parte brillante: en lugar de mantener todo en el contexto del agente, Manus usa el sistema de archivos como memoria externa.

Pensad en ello como tomar notas.

// En lugar de mantener todo en la memoria
const empresas = [info1, info2, info3, ..., info50] // ❌ Se desborda

// Escribe a archivos como tomar notas
await writeFile('empresa-1.md', investigacion1) // ✅ Contexto limpio
await writeFile('empresa-2.md', investigacion2)
await writeFile('empresa-3.md', investigacion3)

Los agentes leen de archivos cuando lo necesitan. Como vosotros consultáis vuestros apuntes en lugar de memorizar todo.

Compresión de URL: memoria ilimitada

Manus descubrió algo fascinante: las URLs son compresión masiva de contexto.

Contexto completo: 50.000 tokens
Referencia URL: 10 tokens

Ratio de compresión: 5000:1

En lugar de cargar artículos completos en el contexto, solo pasan URLs. El agente hace fetch cuando lo necesita.

❌ Mal enfoque:
Contexto: [Artículo completo 1] + [Artículo completo 2] + ... → Desbordamiento

✅ Enfoque Manus:
Contexto: [URL 1] [URL 2] [URL 3] → Fetch bajo demanda

Memoria efectivamente ilimitada con footprint mínimo.

Conservar los errores: los agentes aprenden de sus fallos

Aquí está algo contraintuitivo: no borréis los errores.

La mayoría de los sistemas de agentes limpian mensajes de error del contexto. Piensan que es ruido.

Manus hace lo contrario. Preservan los errores porque:

  1. Los errores contienen información valiosa sobre qué no funciona
  2. Evitan bucles infinitos de intentar lo mismo repetidamente
  3. Mejoran la depuración cuando algo va mal
❌ Contexto limpio:
"Intento 1 funcionó, Intento 2 funcionó, Intento 3 funcionó"

✅ Contexto con errores:
"Intento 1 falló: timeout
 Intento 2 falló: rate limit
 Intento 3 funcionó: usé backoff exponencial"

El tercer intento tiene éxito porque el agente vio por qué fallaron los dos primeros.

Auto-recitación: empujar objetivos al final del contexto

Recordad el problema de “perdido en el medio”. La información en medio del contexto se ignora.

La solución de Manus: recitación continua de objetivos.

Mantienen un archivo todo.md que se actualiza constantemente y se empuja al final del contexto.

# todo.md (actualizado continuamente)

## Objetivo actual
Investigar 50 empresas de IA en Europa

## Progreso
✅ 1-10: Completado
✅ 11-20: Completado
⏳ 21: En curso
⬜ 22-50: Pendiente

## Siguiente acción
Investigar Empresa #21: Mistral AI

Esto explota el sesgo de recencia de los modelos de IA. Como el todo.md está al final del contexto, siempre recibe máxima atención.

Es como repetiros constantemente vuestro objetivo para no perder el rumbo.

La verdadera lección: la ingeniería de contexto es el nuevo cuello de botella

Meta no pagó 3.600 millones de dólares por un modelo de IA más grande.

Pagaron por ingeniería de contexto.

La industria está obsesionada con:

  • Modelos más grandes
  • Más parámetros
  • Más datos de entrenamiento

Pero el verdadero cuello de botella es: ¿cómo gestionas el contexto del agente?

Los insights de Manus:

  1. Dividir tareas en subtareas con contextos frescos
  2. Usar el sistema de archivos como memoria externa
  3. Comprimir con URLs en lugar de texto completo
  4. Preservar errores para evitar bucles
  5. Empujar objetivos al final del contexto para máxima atención

Esto no requiere GPT-5 o Claude Opus 5. Funciona con los modelos que ya tenéis.

Qué significa esto para vosotros

Si estáis construyendo agentes de IA, dejad de optimizar para contextos más grandes.

Empezad a optimizar para gestión de contexto.

❌ No: "Necesitamos contexto de 10M tokens"
✅ Sí: "¿Cómo dividimos esto en subtareas con contextos frescos?"

❌ No: "Cargar todo en memoria"
✅ Sí: "Escribir a archivos, leer bajo demanda"

❌ No: "Limpiar errores del historial"
✅ Sí: "Preservar errores para aprender"

Los mejores agentes de IA no son los que tienen más contexto.

Son los que gestionan el contexto de forma más inteligente.

Meta lo entendió. Por eso pagaron 3.600 millones de dólares.


Referencias

Únete al boletín

Recibe actualizaciones sobre mis últimos proyectos, artículos y experimentos con IA y desarrollo web.