目錄
1 分鐘閱讀

四種脈絡,決定 AI 幫到你還是浪費你時間

我花了整個週末將逾百MB的PDF塞進代理模型,結果輸出反而愈來愈差。把餵給模型的東西分成四類之後,問題才終於看清楚。

我花了整個週末解析超過100MB的PDF。假設很簡單:餵給代理的知識愈多,輸出就愈好。我錯了。

折騰幾天之後,我畫了一張圖,把自己一直在餵的東西分成四個類別。問題立刻變得一目了然。問題從來不在於量,而在於脈絡的種類。

餵模型它已經知道的東西,只會讓情況更糟

大型語言模型的訓練語料規模達到數萬億個token。當你把同樣的資訊貼進prompt,這些多餘的token佔去context window的空間,把注意力從真正重要的地方分散走。你本來想幫助模型的資訊,反而變成了束縛。

我親自測試過。把Python語法和基本React模式塞進prompt,模型開始跟自己的訓練資料打架,輸出比完全不給脈絡時還要奇怪。堆積足夠多的冗餘資訊,就會產生「脈絡腐化」,模型的回應會逐步退化。「輸入愈多等於輸出愈聰明」這個直覺,是prompt工程裡最危險的陷阱。

環境脈絡是模型唯一無法自行推斷的類型

專案目錄結構、團隊規範、內部API schema——這些東西根本不存在於訓練資料裡,模型在沒有明確輸入的情況下完全無從推論。這個類別,才是脈絡真正值得存在的地方。

圍繞環境脈絡的工具發展,現在比任何其他範疇都要快。文件OCR的工作正在各大洲同步推進:韓國有Upstage和Korea Deep Learning,法國有Mistral,印度有Sarvam,中國有百度、智譜、DeepSeek,甚至小紅書也在做。語音這個以前最難捕捉的媒介也正在被收錄。Granola這類會議記錄工具,把過去電話一掛就消失的對話給保留下來。Typeless、Wispr Flow、Willow則把想法即時轉換成文字。瀏覽器活動、環境視覺輸入、你隨眼掃過卻沒有刻意記憶的東西,都已經逐步轉化成結構化脈絡。

趨勢很清晰:以前會蒸發掉的資訊,正在被轉換成模型能夠使用的形式。

知道與執行之間的落差,正是人與人之間開始分化的地方

環境脈絡告訴模型存在什麼。技能(Skills)告訴它怎麼做、以什麼順序做、做到什麼標準。儲存和核實知識,人人都做得到。但一旦加入結構化執行,即依據推理來定義操作序列,人與人之間的差距就開始拉開。

一個好的技能定義不是簡單的指令清單。它包含六件事:規範、「完成」的定義、任務分解、缺陷修補方法、反模式,以及環境適應。把所有任務塞進一個技能,保證失敗。把工作拆分成細粒度的技能,再透過AGENTS.md之類的工作流程文件組合起來,代理才能靈活運作。即使是粗略的提示性筆記,也能用/skill-creator之類的工具即時轉化成技能。

這裡最重要的是設計視角。儲存中間文件、先分析再執行、定義驗證標準,這些決定決定了代理是成功還是失敗。我是從實際生產使用中學到「優先用腳本而非MCP」的,不是從理論推導出來的。技能也會隨使用而磨鍊,給代理比較範例,它就能自我優化執行方式。

坦白說,要把技能設計做對,花的時間比我預期的長得多。頭幾次嘗試不是太寬泛(代理忽略了一半的指示),就是太死板(稍微改變任務形式就無法應對)。那個甜蜜點,足夠具體到能指引方向、又足夠彈性到能因應變化,是真的要反覆迭代才找得到的。

意圖與品味,才是為何相同設定會產生截然不同結果的原因

觀察人們工作超過十年,有一個模式一直出現。收集和核實知識,每個人都在做。通用知識現在由AI掌握的量已經超越任何人類。技能透過重複積累。然而,使用完全相同模型的人,輸出結果依然大相逕庭。

看看vibe coding的作品就知道了。有些人的作品會引來「你怎麼做到的?」的反應,其他人的則毫無聲響。差別就在於:一個人接受AI的預設美學,另一個人堅持推向一個具體的願景。快速捕捉資訊,和用特定的意圖去過濾資訊,是兩種完全不同的能力。後者需要考慮受眾的角度和完整的周邊脈絡,是一種更高階的思維。

模型不知道你想要什麼。你必須能夠表達出來。這正是為何在AI時代,品味比知識更重要。

愈難自動化的東西,背後那個人就愈有價值

通用知識已經歸AI所有。把更多這類東西加進prompt,只會積極地造成損害。環境脈絡正以愈來愈快的速度被OCR和語音工具捕捉。技能可以透過重複和結構建立,然後委託給代理。意圖與品味,是唯一完全抵抗自動化的類別。

蒐集AI工具和資訊固然重要,但真正的槓桿不在那裡。比起把更多脈絡塞進prompt,更好的做法是更精確地知道自己想要什麼。你在AI時代的價值,活在你的品味裡。

訂閱通訊

獲取關於我最新項目、文章同埋 AI 和 Web 開發實驗嘅更新。