# Meta द्वारा Manus को $3.6 बिलियन में अधिग्रहण का रहस्य: AI एजेंट वास्तव में क्यों विफल होते हैं > Author: Tony Lee > Published: 2026-02-08 > URL: https://tonylee.im/hi/blog/manus-meta-acquisition-context-engineering-secret/ > Reading time: 5 minutes > Language: hi > Tags: ai, ai-agents, context-engineering, meta, manus, architecture ## Canonical https://tonylee.im/hi/blog/manus-meta-acquisition-context-engineering-secret/ ## Rollout Alternates en: https://tonylee.im/en/blog/manus-meta-acquisition-context-engineering-secret/ ko: https://tonylee.im/ko/blog/manus-meta-acquisition-context-engineering-secret/ ja: https://tonylee.im/ja/blog/manus-meta-acquisition-context-engineering-secret/ zh-CN: https://tonylee.im/zh-CN/blog/manus-meta-acquisition-context-engineering-secret/ zh-TW: https://tonylee.im/zh-TW/blog/manus-meta-acquisition-context-engineering-secret/ ## Description Meta ने Manus को लगभग $3.6 बिलियन में अधिग्रहित किया। रहस्य बड़ा मॉडल नहीं था - यह कॉन्टेक्स्ट इंजीनियरिंग थी। यहाँ जानें कि अधिकांश AI एजेंट क्या गलत कर रहे हैं। ## Summary Meta द्वारा Manus को $3.6 बिलियन में अधिग्रहण का रहस्य: AI एजेंट वास्तव में क्यों विफल होते हैं is part of Tony Lee's ongoing coverage of AI agents, developer tools, startup strategy, and AI industry shifts. ## Outline - समस्या: AI एजेंट्स झूठ क्यों बोलने लगते हैं - क्यों होता है यह? - समाधान: Multi-Agent Parallel Architecture - Architecture की खूबियाँ - Error Preservation: Failures को Erase मत करो - File System as Unlimited Memory - कैसे काम करता है - Self-Recitation: Goals को Context के End में Push करो - Example Workflow - Completed - In Progress - Next Steps - Real-World Impact: Wide Research Feature - Conclusion: Context Engineering Is the New Moat - Key Takeaways - References ## Content जब Meta ने Manus को लगभग **$3.6 बिलियन** में अधिग्रहित किया, तो हर कोई यही सोच रहा था - "इनके पास कौन सा बड़ा मॉडल है?" जवाब चौंकाने वाला था: **कोई नहीं।** Manus ने वही GPT-4 और Claude मॉडल्स इस्तेमाल किए जो आप और मैं इस्तेमाल कर रहे हैं। असली रहस्य था **context engineering** - और यही वो चीज है जो 99% AI एजेंट्स गलत कर रहे हैं। ## समस्या: AI एजेंट्स झूठ क्यों बोलने लगते हैं Manus की टीम ने एक simple experiment किया: > 50 कंपनियों के बारे में research करो। परिणाम? AI ने **8वीं या 9वीं कंपनी** के बाद डेटा fabricate करना शुरू कर दिया। यह **fabrication threshold** है - वह बिंदु जहाँ AI अपना ध्यान खो देता है और facts को imaginary information से replace करने लगता है। ### क्यों होता है यह? 1. **Lost in the middle**: Research बताती है कि LLMs context window के middle में information को ignore करते हैं - वे beginning और end पर focus करते हैं। 2. **Exponential cost**: Context window जितनी बड़ी, cost उतनी ज्यादा। 1M tokens का मतलब है हर request में हजारों dollars फूंकना। 3. **Cognitive ceiling**: Humans भी 7±2 items से ज्यादा track नहीं कर सकते। AI के लिए यह limit context size के साथ बढ़ता है, लेकिन infinite नहीं होता। 4. **Training bias**: Models को छोटे contexts पर train किया जाता है, इसलिए बड़े contexts पर performance degrade हो जाती है। ## समाधान: Multi-Agent Parallel Architecture Manus ने traditional monolithic approach को तोड़ा। उन्होंने 50-company research को **50 parallel sub-agents** में split किया। हर agent को एक fresh context window मिली - no pollution, no context exhaustion, no fabrication। ### Architecture की खूबियाँ ``` Main Agent (Orchestrator) ↓ ├─ Agent 1: Company A research (fresh context) ├─ Agent 2: Company B research (fresh context) ├─ Agent 3: Company C research (fresh context) └─ ... (47 और agents) ``` **फायदे:** - हर sub-agent **clean slate** से शुरू करता है - Parallel execution = faster results - No fabrication क्योंकि कोई context overload नहीं - Cost-effective क्योंकि हर task के लिए सिर्फ जरूरी context load होता है ## Error Preservation: Failures को Erase मत करो यहाँ एक counter-intuitive insight है: **Manus errors को preserve करता है।** अधिकांश systems failures को छिपा देते हैं। Manus उन्हें context में रखता है ताकि agent learn कर सके: ```markdown Attempt 1: Failed to scrape website (403 Forbidden) Attempt 2: Used API instead → Success ``` यह pattern subsequent tasks में avoid होता है। AI अपनी mistakes से सीखता है - exactly जैसे humans करते हैं। ## File System as Unlimited Memory Manus ने एक brilliant trick discover की: **file system को external memory की तरह इस्तेमाल करो।** ### कैसे काम करता है 1. **Research notes को files में लिखो**: जैसे human researcher notepad में notes लेता है 2. **URLs compress करो**: Full website content की जगह URL reference store करो 3. **On-demand retrieval**: जब जरूरत हो, तभी file पढ़ो यह approach **infinite memory** देता है बिना context window को blow किए। ```typescript // Traditional approach (context pollution) const context = ` Company A: [5000 tokens] Company B: [5000 tokens] Company C: [5000 tokens] ... (context exhausted) ` // Manus approach (file-based memory) writeFile('company-a.md', companyAData) writeFile('company-b.md', companyBData) // Context में सिर्फ filenames const context = ` Results: company-a.md, company-b.md, company-c.md ` ``` ## Self-Recitation: Goals को Context के End में Push करो Manus continuously एक **todo.md file** update करता है। यह क्यों important है? क्योंकि LLMs **context के end पर सबसे ज्यादा attention देते हैं।** ### Example Workflow ```markdown # todo.md (continuously updated) ## Completed - [x] Research Company A - [x] Research Company B ## In Progress - [ ] Research Company C ## Next Steps - [ ] Research Company D - [ ] Compile final report ``` हर update goals को context के end में push करता है, जहाँ AI उन्हें **सबसे ज्यादा notice करेगा।** यह **self-recitation** pattern है - AI खुद को याद दिलाता है कि उसे क्या करना है, बार-बार। ## Real-World Impact: Wide Research Feature Manus की **Wide Research** feature इन सभी techniques का practical demonstration है: - Users 50+ sources से simultaneously research कर सकते हैं - कोई fabrication नहीं - Fresh insights हर source से - Cost-effective parallel processing Traditional single-agent approach इसे impossible बना देता। Context engineering ने इसे production-ready बनाया। ## Conclusion: Context Engineering Is the New Moat Meta ने Manus को $3.6 बिलियन में नहीं खरीदा क्योंकि उनके पास better model था। उन्होंने इसे खरीदा क्योंकि **Manus ने context engineering को solve किया।** ### Key Takeaways 1. **Bigger context ≠ Better results**: Fabrication threshold असली limit है 2. **Multi-agent architecture**: Fresh contexts = no fabrication 3. **Preserve errors**: Failures से सीखना scaling के लिए crucial है 4. **File system memory**: Unlimited storage बिना context pollution के 5. **Self-recitation**: Goals को end में रखो, जहाँ attention maximum है जब हर कोई bigger models chase कर रहा था, Manus ने better architecture build किया। **यही असली competitive advantage है।** अगर आप AI agents build कर रहे हैं और context window को दोष दे रहे हैं - **रुकिए।** समस्या window size नहीं है। समस्या यह है कि आप इसे कैसे use कर रहे हैं। Context engineering वो secret weapon है जिसकी हर AI engineer को जरूरत है - और अब आप जानते हैं कि इसे कैसे करना है। --- ## References - [Context Engineering for AI Agents: Lessons from Building Manus](https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus) - [Wide Research: Solving the Context Problem](https://manus.im/blog/manus-wide-research-solve-context-problem) ## Related URLs - Author: https://tonylee.im/en/author/ - Publication: https://tonylee.im/en/blog/about/ - Related article: https://tonylee.im/hi/blog/eight-hooks-that-guarantee-ai-agent-reliability/ - Related article: https://tonylee.im/hi/blog/medvi-two-person-430m-ai-compressed-funnel/ - Related article: https://tonylee.im/hi/blog/claude-code-layers-over-tools-2026/ ## Citation - Author: Tony Lee - Site: tonylee.im - Canonical URL: https://tonylee.im/hi/blog/manus-meta-acquisition-context-engineering-secret/ ## Bot Guidance - This file is intended for AI agents, search assistants, and text-mode retrieval. - Prefer citing the canonical article URL instead of this text endpoint. - Use the rollout alternates when you need the same article in another prioritized language. --- Author: Tony Lee | Website: https://tonylee.im For more articles, visit: https://tonylee.im/hi/blog/ This content is original and authored by Tony Lee. Please attribute when quoting or referencing.