अनुक्रमणिका
5 मिनट पढ़ने में

Meta द्वारा Manus को $3.6 बिलियन में अधिग्रहण का रहस्य: AI एजेंट वास्तव में क्यों विफल होते हैं

Meta ने Manus को लगभग $3.6 बिलियन में अधिग्रहित किया। रहस्य बड़ा मॉडल नहीं था - यह कॉन्टेक्स्ट इंजीनियरिंग थी। यहाँ जानें कि अधिकांश AI एजेंट क्या गलत कर रहे हैं।

जब Meta ने Manus को लगभग $3.6 बिलियन में अधिग्रहित किया, तो हर कोई यही सोच रहा था - “इनके पास कौन सा बड़ा मॉडल है?”

जवाब चौंकाने वाला था: कोई नहीं।

Manus ने वही GPT-4 और Claude मॉडल्स इस्तेमाल किए जो आप और मैं इस्तेमाल कर रहे हैं। असली रहस्य था context engineering - और यही वो चीज है जो 99% AI एजेंट्स गलत कर रहे हैं।

समस्या: AI एजेंट्स झूठ क्यों बोलने लगते हैं

Manus की टीम ने एक simple experiment किया:

50 कंपनियों के बारे में research करो।

परिणाम? AI ने 8वीं या 9वीं कंपनी के बाद डेटा fabricate करना शुरू कर दिया।

यह fabrication threshold है - वह बिंदु जहाँ AI अपना ध्यान खो देता है और facts को imaginary information से replace करने लगता है।

क्यों होता है यह?

  1. Lost in the middle: Research बताती है कि LLMs context window के middle में information को ignore करते हैं - वे beginning और end पर focus करते हैं।

  2. Exponential cost: Context window जितनी बड़ी, cost उतनी ज्यादा। 1M tokens का मतलब है हर request में हजारों dollars फूंकना।

  3. Cognitive ceiling: Humans भी 7±2 items से ज्यादा track नहीं कर सकते। AI के लिए यह limit context size के साथ बढ़ता है, लेकिन infinite नहीं होता।

  4. Training bias: Models को छोटे contexts पर train किया जाता है, इसलिए बड़े contexts पर performance degrade हो जाती है।

समाधान: Multi-Agent Parallel Architecture

Manus ने traditional monolithic approach को तोड़ा।

उन्होंने 50-company research को 50 parallel sub-agents में split किया। हर agent को एक fresh context window मिली - no pollution, no context exhaustion, no fabrication।

Architecture की खूबियाँ

Main Agent (Orchestrator)

    ├─ Agent 1: Company A research (fresh context)
    ├─ Agent 2: Company B research (fresh context)
    ├─ Agent 3: Company C research (fresh context)
    └─ ... (47 और agents)

फायदे:

  • हर sub-agent clean slate से शुरू करता है
  • Parallel execution = faster results
  • No fabrication क्योंकि कोई context overload नहीं
  • Cost-effective क्योंकि हर task के लिए सिर्फ जरूरी context load होता है

Error Preservation: Failures को Erase मत करो

यहाँ एक counter-intuitive insight है: Manus errors को preserve करता है।

अधिकांश systems failures को छिपा देते हैं। Manus उन्हें context में रखता है ताकि agent learn कर सके:

Attempt 1: Failed to scrape website (403 Forbidden)
Attempt 2: Used API instead → Success

यह pattern subsequent tasks में avoid होता है। AI अपनी mistakes से सीखता है - exactly जैसे humans करते हैं।

File System as Unlimited Memory

Manus ने एक brilliant trick discover की: file system को external memory की तरह इस्तेमाल करो।

कैसे काम करता है

  1. Research notes को files में लिखो: जैसे human researcher notepad में notes लेता है
  2. URLs compress करो: Full website content की जगह URL reference store करो
  3. On-demand retrieval: जब जरूरत हो, तभी file पढ़ो

यह approach infinite memory देता है बिना context window को blow किए।

// Traditional approach (context pollution)
const context = `
  Company A: [5000 tokens]
  Company B: [5000 tokens]
  Company C: [5000 tokens]
  ... (context exhausted)
`

// Manus approach (file-based memory)
writeFile('company-a.md', companyAData)
writeFile('company-b.md', companyBData)
// Context में सिर्फ filenames
const context = `
  Results: company-a.md, company-b.md, company-c.md
`

Self-Recitation: Goals को Context के End में Push करो

Manus continuously एक todo.md file update करता है।

यह क्यों important है? क्योंकि LLMs context के end पर सबसे ज्यादा attention देते हैं।

Example Workflow

# todo.md (continuously updated)

## Completed
- [x] Research Company A
- [x] Research Company B

## In Progress
- [ ] Research Company C

## Next Steps
- [ ] Research Company D
- [ ] Compile final report

हर update goals को context के end में push करता है, जहाँ AI उन्हें सबसे ज्यादा notice करेगा।

यह self-recitation pattern है - AI खुद को याद दिलाता है कि उसे क्या करना है, बार-बार।

Real-World Impact: Wide Research Feature

Manus की Wide Research feature इन सभी techniques का practical demonstration है:

  • Users 50+ sources से simultaneously research कर सकते हैं
  • कोई fabrication नहीं
  • Fresh insights हर source से
  • Cost-effective parallel processing

Traditional single-agent approach इसे impossible बना देता। Context engineering ने इसे production-ready बनाया।

Conclusion: Context Engineering Is the New Moat

Meta ने Manus को $3.6 बिलियन में नहीं खरीदा क्योंकि उनके पास better model था।

उन्होंने इसे खरीदा क्योंकि Manus ने context engineering को solve किया।

Key Takeaways

  1. Bigger context ≠ Better results: Fabrication threshold असली limit है
  2. Multi-agent architecture: Fresh contexts = no fabrication
  3. Preserve errors: Failures से सीखना scaling के लिए crucial है
  4. File system memory: Unlimited storage बिना context pollution के
  5. Self-recitation: Goals को end में रखो, जहाँ attention maximum है

जब हर कोई bigger models chase कर रहा था, Manus ने better architecture build किया।

यही असली competitive advantage है।

अगर आप AI agents build कर रहे हैं और context window को दोष दे रहे हैं - रुकिए। समस्या window size नहीं है। समस्या यह है कि आप इसे कैसे use कर रहे हैं।

Context engineering वो secret weapon है जिसकी हर AI engineer को जरूरत है - और अब आप जानते हैं कि इसे कैसे करना है।


References

न्यूज़लेटर से जुड़ें

मेरे नवीनतम प्रोजेक्ट्स, लेखों और AI तथा वेब डेवलपमेंट प्रयोगों के बारे में अपडेट प्राप्त करें।