Índice
6 min de lectura

El secreto detrás de la adquisición de Manus por Meta por 3,600 millones: por qué los agentes de IA realmente fallan

Meta adquirió Manus por 3,600 millones de dólares. El secreto no era un modelo más grande, sino la ingeniería de contexto. Esto es lo que la mayoría de los agentes de IA no ven.

En enero de 2026, Meta adquirió Manus por aproximadamente 3,600 millones de dólares. La mayoría de la prensa tecnológica pensó que se trataba de otro caso de “modelo grande gana”. Estaban equivocados.

El secreto no era el modelo. Era la ingeniería de contexto.

Y esto explica por qué la mayoría de los agentes de IA fallan silenciosamente, sin que nadie se dé cuenta.

El momento en que los agentes empiezan a inventar cosas

Imaginen que le piden a un agente de IA que investigue 50 empresas y extraiga información clave de cada una.

¿En qué punto empieza a inventar datos?

El equipo de Manus descubrió algo inquietante: para el octavo o noveno elemento de la lista, el agente comenzaba a fabricar información.

No era un fallo del modelo. Era un problema de arquitectura.

Esto es lo que llaman el umbral de fabricación - el punto donde la ventana de contexto se vuelve tan pesada que el modelo prefiere alucinar antes que admitir que no puede procesar más información.

Y aquí está el detalle que nadie quiere admitir: todos los agentes tienen este problema.

Por qué una ventana de contexto más grande no soluciona nada

La solución obvia sería aumentar la ventana de contexto, ¿verdad?

Equivocado.

Aquí están los cuatro problemas fundamentales:

Lost in the middle (perdido en el medio)

Los modelos de lenguaje prestan más atención al principio y al final de su contexto. Todo lo que está en el medio se vuelve borroso.

Es como intentar recordar el nombre de la persona número 47 en una fiesta de 100 invitados. No importa cuánto esfuerzo pongas, esa información simplemente se desvanece.

Costo exponencial

Una ventana de contexto de 200K tokens no cuesta el doble que una de 100K tokens.

Cuesta 10 veces más en latencia y costo computacional.

Las empresas que intentan resolver esto solo aumentando el contexto terminan con facturas de API que superan sus ingresos.

Techo cognitivo

Hay un límite físico de cuánta información un solo modelo puede procesar coherentemente.

No importa cuánto entrenes al modelo, existe un punto donde la comprensión se desmorona.

Esto no es un bug. Es una limitación fundamental de la arquitectura transformer.

Sesgo de entrenamiento

Los modelos fueron entrenados principalmente con contextos cortos o moderados.

Cuando les das contextos extremadamente largos, están operando fuera de su zona de entrenamiento.

Es como pedirle a un velocista que corra un maratón. Técnicamente puede hacerlo, pero no es para lo que fue entrenado.

La solución: arquitectura paralela con contextos frescos

Aquí está la revelación que hizo que Manus valiera 3,600 millones de dólares:

No necesitas una ventana de contexto más grande. Necesitas múltiples contextos frescos.

Así es como funciona:

  1. Divide el problema en subtareas independientes
  2. Asigna cada subtarea a un sub-agente separado
  3. Cada sub-agente comienza con un contexto completamente fresco
  4. Ejecuta en paralelo, no secuencialmente
  5. Agrega resultados al final

Para la tarea de investigar 50 empresas:

  • Arquitectura tradicional: 1 agente, 1 contexto masivo → empieza a alucinar en la empresa #9
  • Arquitectura Manus: 50 sub-agentes, cada uno con contexto fresco → cero alucinaciones

El costo es el mismo. La latencia es la misma (gracias a la paralelización). Pero la precisión es exponencialmente mejor.

Preserven los errores: los agentes aprenden de sus fracasos

Aquí está algo contraintuitivo que descubrió Manus:

No borren los intentos fallidos del contexto.

La mayoría de los frameworks de agentes limpian los errores para mantener el contexto “ordenado”. Esto es un error masivo.

Cuando un agente intenta algo y falla, ese fracaso contiene información valiosa:

  • Qué enfoque no funcionó
  • Por qué no funcionó
  • Qué intentar en su lugar

Si borras esa información, el agente puede intentar la misma solución fallida tres veces seguidas.

Es como borrar la memoria de alguien cada vez que toca una estufa caliente. Nunca aprenderá a no tocarla.

Los fracasos son datos. Manténganlos en el contexto.

El sistema de archivos como memoria: compresión de conocimiento infinita

Aquí está el truco más inteligente de Manus:

Usa el sistema de archivos como memoria externa.

Cuando un agente de IA está investigando algo, puede:

  1. Leer una fuente larga (artículo, documentación, etc.)
  2. Extraer los puntos clave
  3. Escribir esos puntos en un archivo markdown
  4. Referenciar ese archivo más tarde con solo su URL

Ahora, en lugar de mantener 10,000 tokens de información en el contexto, solo necesitas:

Ver research/company-47.md para análisis completo

Esto comprime 10,000 tokens en ~10 tokens.

Es compresión de contexto con pérdida, pero la pérdida es controlada y los detalles completos siempre están disponibles cuando se necesitan.

Esto permite a los agentes tener efectivamente memoria ilimitada sin explotar su ventana de contexto.

Auto-recitación: empuja los objetivos al final del contexto

Otro patrón brillante: el archivo todo.md.

Este es un archivo que el agente actualiza continuamente durante su ejecución:

# Tareas Pendientes

- [x] Investigar empresa 1
- [x] Investigar empresa 2
- [ ] Investigar empresa 3
- [ ] Investigar empresa 4
...
- [ ] Investigar empresa 50

Cada vez que el agente completa una tarea, actualiza este archivo.

¿Por qué es esto importante?

Porque escribir al archivo empuja el objetivo al final del contexto, donde el modelo presta más atención.

Es auto-recitación continua - el agente se recuerda constantemente qué está tratando de lograr.

Sin esto, un agente con un contexto largo puede literalmente olvidar cuál era su objetivo original.

Por qué esto vale 3,600 millones de dólares

Meta no compró Manus por su modelo.

Lo compró por su arquitectura de contexto.

Estas técnicas - contextos paralelos frescos, preservación de errores, sistema de archivos como memoria, auto-recitación - resuelven los problemas fundamentales que hacen que la mayoría de los agentes de IA fallen silenciosamente.

Y aquí está lo más importante:

Estos patrones son aplicables a cualquier sistema de agentes.

No necesitas un modelo propietario. No necesitas hardware especial. Solo necesitas pensar diferente sobre cómo los agentes manejan el contexto.

La mayoría de las empresas están tratando de construir mejores modelos.

Las empresas ganadoras están construyendo mejor ingeniería de contexto.

Conclusión: la ventana de contexto no es el límite

El límite real de los agentes de IA no es la ventana de contexto.

Es nuestra creatividad arquitectónica.

Manus demostró que con la arquitectura correcta, puedes:

  • Procesar tareas arbitrariamente grandes sin alucinaciones
  • Mantener costos constantes sin importar el tamaño del problema
  • Permitir que los agentes aprendan de sus errores
  • Dar a los agentes memoria efectivamente ilimitada

Y todo esto sin esperar a GPT-6 o a la próxima ventana de contexto de un millón de tokens.

El futuro de los agentes de IA no se trata de modelos más grandes.

Se trata de ingeniería de contexto más inteligente.


Referencias:

Unite al boletín

Recibí actualizaciones sobre mis últimos proyectos, artículos y experimentos con IA y desarrollo web.