अनुक्रमणिका
5 मिनट पढ़ने में

2026 में AI की जीतने वाली रणनीति बस एक loop है

मैंने skills बनाए, subagents configure किए, slash commands सेट किए। फिर एक रात भर चलने वाले loop ने इन सबसे बेहतर नतीजे दिए। तीन loop architectures जो वाकई काम करते हैं।

मैंने skills बनाए। subagents और slash commands configure किए। फिर एक रात भर चलने वाले loop ने वो नतीजे लाकर दिए जो इस पूरे setup ने मिलकर नहीं दिए थे।

मार्च 2026 में AI से सबसे ज़्यादा निकालने का तरीका कोई complex pipeline नहीं है। यह एक simple loop है जो रुकता नहीं।

Ralph Loop: एक Line का Bash जो असफलता को भी पार कर जाता है

मूल command है while :; do cat PROMPT.md | claude-code ; done। जब agent काम खत्म करके बाहर निकलने की कोशिश करता है, एक Stop Hook उसे रोक देता है और वही prompt दोबारा अंदर भेज देता है।

सबसे ज़रूरी बात यह है कि हर iteration एक fresh context window से शुरू होता है। पिछला काम सिर्फ git history और file system में रहता है। Context खुद हमेशा साफ शुरू होता है। यह उस classic problem को खत्म कर देता है जहाँ लंबी conversation के साथ agent loops की quality गिरती जाती है।

हर pass के बाद सीखी हुई बातें AGENTS.md में लिखी जाती हैं। अगले iteration का agent उन notes को automatically पढ़ता है, इसलिए वही गलतियाँ दोबारा नहीं होतीं। जब कोई काम 10 बार से ज़्यादा fail हो जाए, तो उसे stuck mark कर दिया जाता है और retry के लिए छोटे टुकड़ों में तोड़ा जाता है। असफलता खुद data बन जाती है। Huntley के शब्दों में, “deterministically bad” नतीजे सीधे अगले loop के input में जाते हैं।

एक ईमानदारी से बताऊँ: पहली बार Ralph चलाया तो करीब 10 में से 3 loops वही error दोहराते रहे और tokens बर्बाद हुए। cumulative learning तभी काम आई जब मैंने prompt को ठीक से design किया ताकि AGENTS.md में सही चीज़ें लिखी जाएँ। tool कम मायने रखता है, उसके आसपास का prompt design ज़्यादा।

RLM: एक Model जो तर्क करने के लिए खुद को call करता है

एक लंबा document किसी LLM को दो और accuracy अंत तक जाते-जाते गिरती जाती है। RLM इस समस्या को बिल्कुल अलग तरीके से हल करता है।

model को सीधे long prompt देने के बजाय, text को Python REPL variables में load किया जाता है। model फिर code लिखता है जो उन variables को slice, search, और selectively read करता है, और खुद को सिर्फ relevant हिस्सों के साथ दोबारा call करता है। context window बड़ी करने के बजाय, model खुद तय करता है कि अपने context को कैसे navigate करना है।

GPT-5-mini के साथ RLM ने OOLONG benchmark पर GPT-5 के सही जवाबों से दोगुने से ज़्यादा score किए। recursive calls की पूरी trajectory code के रूप में preserve रहती है, इसलिए यह trace किया जा सकता है कि model किसी जवाब तक कैसे पहुँचा। summarization या RAG जो information compress करते हैं, उनके उलट, RLM specific fragments को sub-LM calls पर delegate करता है। structurally information loss नहीं होता।

autoresearch: सोते वक्त 100 Experiments

agent को एक train.py दो और उसे जो चाहे बदलने दो। architecture बदले, optimizer tweek करे, कुछ भी। training बिल्कुल 5 मिनट के लिए चलाओ। अगर val_bpb बेहतर हुई, commit करो। नहीं हुई, reset करो।

रात भर यही दोहराते रहो और सुबह तक logs मिलती हैं जो बताती हैं कि कौन-से बदलाव काम आए और कौन-से नहीं। human बस direction program.md में लिखता है।

5 मिनट का fixed time budget ही इसे काम करने लायक बनाता है। agent चाहे model size बदले या batch size, हर experiment identical conditions में चलता है। fair comparison high-quality iteration की बुनियाद है। सब कुछ git branch पर चलता है, इसलिए failed experiments reset के साथ गायब हो जाते हैं और successful ones commits के रूप में जमा होते जाते हैं। सुबह का git log पूरी improvement की कहानी बताता है।

Karpathy का अगला vision एक distributed research structure है जैसे SETI@home, जहाँ कई agents अलग-अलग दिशाओं में experiment करें और results merge करें। यह कहना ज़रूरी है कि autoresearch अभी single machine पर चलता है, और जो experiment 5 मिनट में कोई meaningful difference नहीं दिखाता वह discard हो जाता है। हर तरह की research के लिए यह सही नहीं है।

AI में repetition क्यों काम करती है

तीनों tools एक साझा सिद्धांत पर चलते हैं। ये सभी test-time compute scaling का फायदा उठाते हैं: inference के समय ज़्यादा computation खर्च करने से model बड़ा बनाए बिना performance बेहतर होती है।

OpenAI के o1 ने यह सिद्धांत पहले ही साबित कर दिया था। Ralph इसे code quality पर apply करता है। RLM इसे context comprehension पर। autoresearch इसे research पर।

जब तीन चीज़ें एक साथ आती हैं, तो output simple code से आगे निकल जाता है:

  • एक काम की idea
  • एक loop जिसमें clear verification conditions हों
  • रात भर चलाने के लिए पर्याप्त token budget

आपके सोने के 8 घंटे किसी और के लिए 100 improvements का मौका हैं। ज़ाहिर है, सभी 100 कामयाब नहीं होंगे। ठीक है। जमा हुई असफलताएँ अगले loop का ईंधन हैं।

न्यूज़लेटर से जुड़ें

मेरे नवीनतम प्रोजेक्ट्स, लेखों और AI तथा वेब डेवलपमेंट प्रयोगों के बारे में अपडेट प्राप्त करें।