目錄
2 分鐘閱讀

5個設定將你推入最頂尖0.01%的AI用戶

訂閱Claude Code或Codex已令你超越大多數人。但這五項設定——代理、團隊、MCP、監控、自動化——才能真正把你推入頂尖0.01%。

訂閱Claude Code或Codex已經令你跑贏大多數人。呢兩款工具開箱即用已經好強。但大部分訂閱者從來唔會去碰下面嗰層設定,而偏偏係嗰度先至有真正嘅分野。

我見過好多人用默認設定用咗幾個月,成績唔差,但一旦撥動幾個開關,立刻就去到另一個層次。差距唔在於技術或者提示詞技巧,而在於你有冇開啟那些隨產品附帶、但默認處於休眠狀態嘅功能。

關鍵設定有五個,全部而家就可以用,唔需要任何自定義工具。

專屬代理按角色分工

Claude Code同Codex都支持插件生態,可以引入針對特定角色嘅代理。唔需要由零開始寫自定義提示詞,只需安裝一個包,就有預建好嘅工作流。

對開發者嚟講,Superpowers(27.9k stars)係主流選擇。裝好之後你就有從腦暴、規劃、實作到代碼審查嘅完整流程。價值唔單止係方便,呢啲代理帶有強烈主張嘅工作流,強制執行大多數開發者會跳過嘅步驟:寫代碼前先寫計劃、提交前先審查、設計同實作分開處理。

PM有pm-skills,65個技能涵蓋/discover/strategy/write-prd等等。Marketer可以拉入marketingskills處理內容及SEO工作流。

安裝唔使一分鐘:

# Claude Code
/plugin marketplace add obra/superpowers-marketplace
/plugin install superpowers@superpowers-marketplace

# Codex
# Follow .codex/INSTALL.md in the Superpowers repo

令我意外嘅係,代理之間嘅邊界本身就很重要。當腦暴作為獨立代理運行,而唔係同實作混在一起,腦暴步驟先會真正探索各種可能性,而唔係直接跳去第一個看起來可行嘅方案。角色分隔強制帶來一種靠人手很難維持嘅工作流紀律。

代理團隊並行處理工作

兩款工具都內建多代理功能,但默認係關閉嘅。開啟之後,你可以同時運行多個代理處理任務嘅不同部分。

我試過一個三代理團隊:前端、後端同測試。每個代理並發處理自己嗰部分。同順序執行嘅分別即刻就明顯感受到。本來一個代理要三輪來回先完成嘅任務,因為代理之間唔互相阻塞,一輪就搞掂。

# Claude Code — add to ~/.claude/settings.json under "env"
"CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"

# Codex — in the CLI
/experimental toggle Multi-agents ON

並行執行嘅好處係真實嘅,但協調方面嘅好處更令我驚喜。當代理同時處理不同關注點,佢哋自然就會產生組件之間嘅接口。前端代理定義自己需要乜嘢API形狀,後端代理定義自己提供乜嘢。不匹配嘅地方即刻浮現,唔會藏到整合階段先爆出來。

有一個值得留意嘅摩擦點。代理團隊消耗context更快。三個代理並行跑大概係單個代理消耗context window速度嘅三倍。如果你唔監控context用量(見下文),你會更頻繁遇到壓縮,然後搞唔清點解質量突然下降。

MCP接通外部工具

冇MCP(Model Context Protocol)嘅話,你嘅AI代理只能讀寫本地文件。MCP係通往外部服務嘅橋樑,以下四個整合涵蓋大部分工作流。

exa.ai 處理語義網絡搜索。當你嘅代理需要最新文檔或近期技術討論,exa返回嘅結果真正符合查詢意圖。我由Tavily轉用exa,係因為太多搜索返回嘅係SEO優化頁面而唔係技術內容。

Context7 按版本提取官方庫文檔。呢個直接減少幻覺。當Claude Code用某個庫生成代碼時,Context7 餵俾佢你實際使用版本嘅真實API面,而唔係模型從訓練數據記住嘅嘢。

GitHub MCP 讓你嘅代理唔離開終端就可以管理PR同issue。創建PR、閱讀review評論、推送修復,全部在同一個session完成。

Playwright MCP 畀你嘅代理直接控制瀏覽器。自動化測試、抓取數據、基於瀏覽器嘅工作流,唔需要切換工具就可以實現。

# Claude Code — one line per integration
claude mcp add playwright --command "npx @playwright/mcp@latest"
# For global access, add to ~/.claude.json

# Codex
codex mcp add  # same pattern
# Managed in ~/.codex/config.toml

如果你唔係開發者,覺得四個整合太多,就由exa.ai單獨開始。畀代理搜索網絡嘅能力,已經涵蓋出奇地多嘅使用場景。

實時監控防止靜默失敗

Context window耗盡係AI編碼session退化最常見嘅原因,而且係靜默發生嘅。你仲在得到不錯嘅結果,然後答案突然變得模糊、重複或錯誤。等你察覺嘅時候,已經係在低質量輸出上浪費咗時間。

Claude Code在終端狀態欄始終顯示模型信息、context利用率百分比同token消耗。/context命令分析什麼在消耗你嘅window。/cost顯示本次session嘅花費。聽起來微不足道,直到你真正用起來。在能實時看到每次交互嘅成本之前,我唔明白幾時應該用Opus、幾時Sonnet就夠。

Codex採用不同方式,其app dashboard在單一視圖顯示每個代理嘅進度,Traces面板可以審計每一次工具調用。

# Claude Code
/context   # breakdown by category
/cost      # session spend
/stats     # usage statistics

# Codex
# App dashboard → per-agent status
# Traces → full tool call history

監控習慣改變你嘅工作方式。當你見到context在填滿,你開始以不同嘅方式構建任務。更小、更專注嘅session,有清晰嘅交接點,而唔係不斷退化嘅馬拉松session。你學識哪些操作耗費context(大文件讀取、長工具調用鏈),然後重新構建工作流以減少浪費。

自動化消除重複性工作

如果你每日都係手動做同樣嘅檢查,你係在放棄最唾手可得嘅生產力提升。兩款工具都支持計劃同循環任務執行。

開發者可以自動化錯誤日誌審查、代碼review分類同部署狀態檢查。PM可以排程競品監控同簡報生成。Marketer可以自動化內容表現分析。

# Claude Code — via Cowork app
/schedule  # register recurring tasks
# Example: "Every day at 9am, summarize Slack and generate briefing"

# Claude Code — via CLI
/loop 5m check deployment status  # interval-based execution

# Codex — via app
# Automations panel → create recurring tasks
# Runs in isolated workspace, results queue for review

Codex嘅隔離模型值得注意。自動化任務在與你活躍文件分隔嘅獨立工作空間中運行。結果排隊等待你審查,而唔係直接修改你嘅工作狀態。呢點比聽起來更重要。一個在你同時編輯文件嘅時候也在編輯文件嘅自動化,好一點係產生合並衝突,差一點係靜默覆蓋。

全套整合選項

如果分別設定五項功能感覺摩擦太大,存在可以一次安裝全部嘅封裝工具。

對Claude Code用戶,oh-my-claudecode一步設定好代理、團隊、MCP整合、監控同自動化。Codex用戶有oh-my-codex做同樣嘅事。

兩個值得記住嘅命令:planautopilot。Plan給你一個結構化嘅實施方案,autopilot從想法到可運行代碼全程自主執行。

呢啲封裝工具以可配置性換取速度。如果你想了解每個組件做乜嘢,先單獨設定佢哋。如果你想立刻提高生產力,封裝工具令你更快到位。

點解設定比提示詞工程更重要

AI工具嘅討論過度聚焦在提示詞工程。更好嘅提示詞,更好嘅結果。呢話有一定道理,但很快就到頂。那些取得顯著更好成果嘅人,並唔係因為寫咗顯著更好嘅提示詞。佢哋係將工具配置成一種根本不同嘅運作模式:並行而非順序、連接而非孤立、有監控而非盲目、自動化而非手動。

今日改變一個設定,就會在你之後每一個session中複利累積。從這五項中挑一個對你工作最相關嘅,現在就開啟。設定只需幾分鐘,分別立竿見影。

訂閱通訊

獲取關於我最新項目、文章同埋 AI 和 Web 開發實驗嘅更新。