一覧へ
1 分で読めます 2026

AIが助けになるか時間の無駄になるかを決める、4つのコンテキスト

100MB超のPDFをエージェントに詰め込んだ週末の失敗談から見えてきた、AI時代に本当に価値あるものとは何か。

ある週末、100MBを超えるPDFを丸ごとエージェントに食わせることに費やしました。仮説はシンプルでした。知識を多く与えるほど、出力が良くなるはずだと。結果は完全に外れました。

数日間の試行錯誤の末、自分が渡していたものを4つのカテゴリーに分類してグラフを描いてみました。問題はすぐに見えました。量の問題ではなかった。コンテキストの「種類」の問題だったのです。

モデルがすでに知っていることを渡すと逆効果になる

LLMは数兆トークンのデータで学習を終えています。同じ情報をプロンプトに貼り付けると、その冗長なトークンがコンテキストウィンドウを占有し、本当に重要な部分への注意を薄めてしまいます。助けようとして追加した情報が、かえってモデルの能力を制限するわけです。

これを実際に試してみました。PythonのシンタックスやReactの基本パターンをプロンプトに詰め込むと、モデルが自分のトレーニングと矛盾し始め、何も渡さないよりも奇妙な出力を生成しました。こうした冗長な情報を積み重ねると「コンテキスト腐敗」が起き、モデルの応答が徐々に劣化していきます。「インプットを増やせば賢くなる」という直感は、プロンプトエンジニアリングにおいて最も危険な罠です。

モデルが自力で推測できない唯一の種類が環境コンテキスト

プロジェクトのディレクトリ構造、チームの規約、内部APIのスキーマ。こうした情報は学習データには存在せず、明示的に渡さない限りモデルには推論する手がかりがありません。コンテキストが真に価値を発揮するのは、このカテゴリーにおいてです。

環境コンテキストを取得するためのツールは、現在どの分野よりも速く進化しています。ドキュメントOCRの取り組みは世界中で同時並行で進んでおり、韓国ではUpstageとKorea Deep Learning、フランスではMistral、インドではSarvam、中国ではBaidu・Zhipu・DeepSeek・さらには小紅書まで参入しています。かつて最も揮発性の高いメディアとされていた音声も、今では捕捉できるようになりました。Granolaのような会議メモツールは、通話が終わった瞬間に消えていた会話を保存します。Typeless、Wispr Flow、Willowはリアルタイムで思考をテキストに変換します。ブラウザの操作履歴、周辺の視覚情報、無意識に目にしたものまで、すでに構造化されたコンテキストになりつつあります。

消えていた情報がモデルの使えるデータへと変換される。この流れはもう止まらないと思います。

知識と実行の間にある溝が、人との差を生む

環境コンテキストはモデルに「何があるか」を教えます。スキルは「どの順序で、どの水準で行うか」を教えます。知識の保存と検証は誰でもできます。しかし構造化された実行を加えると、推論に基づいてシーケンスを定義すると、人と人の差が広がり始めます。

優れたスキル定義は単純な手順リストではありません。規律、完了の定義、タスク分解、欠陥修正の方法、アンチパターン、環境への適応という6つの要素を含んでいます。すべてのタスクを一つのスキルに押し込めば必ず失敗します。作業を細かいスキルに分解し、AGENTS.mdのようなワークフローファイルを通じて組み合わせることで、エージェントは柔軟に動けるようになります。

設計の視点がここで最も重要になります。中間ファイルを保存すること、実行前に分析すること、検証基準を定義すること。これらの判断がエージェントの成否を決めます。MCPよりスクリプトを優先するという教訓も、理論ではなく本番環境での使用を通じて学びました。

正直に言うと、スキル設計をうまく機能させるまで、予想以上に時間がかかりました。最初の数回の試みは、広すぎるか(エージェントが指示の半分を無視する)、硬すぎるか(タスクのわずかな変化に適応できない)のどちらかでした。十分に具体的でありながら、柔軟性も保てるちょうどいいバランスを見つけるには、本当の意味での反復が必要でした。

まったく同じ環境を使っても結果が違う理由は、意図とセンスにある

10年以上にわたって人の仕事を観察してきた中で、一つのパターンが繰り返し現れます。知識の収集と検証は誰もがやっています。一般的な知識は今やAIが人間より多く保有しています。スキルは繰り返しによって積み重なります。それでも、まったく同じモデルを使っている人たちが、まるで異なる結果を出しています。

バイブコーディングの出力を見てみてください。ある人の作ったものは「どうやって作ったの?」という反応を引き出します。別の人のものは沈黙を生みます。違いはどこにあるかというと、AIのデフォルトの美学を受け入れる人と、特定のビジョンを追い求める人の間にあります。情報を素早くキャッチする能力と、それを特定の意図でフィルタリングする能力は、まったく別の能力です。後者には、相手の視点と全体のコンテキストを同時に考慮するという、より高次の思考が必要です。

モデルはあなたが何を望んでいるか知りません。それを表現できなければ意味がない。AI時代において知識よりセンスが重要な理由は、ここにあります。

自動化しにくいものほど、それを持つ人間の価値は高い

一般的な知識はすでにAIが持っています。それをプロンプトに追加するのは積極的に害をもたらします。環境コンテキストはOCRや音声ツールによってどんどん捕捉されています。スキルは反復と構造を通じて構築でき、エージェントに委任できます。意図とセンスだけが、自動化に完全に抵抗し続ける唯一のカテゴリーです。

AIのツールや情報を集めることは重要です。でも、本当のレバレッジはそこにはありません。プロンプトにコンテキストを詰め込む代わりに、自分が何を求めているかをより精緻に知ることに投資する方が、はるかに価値があります。AI時代のあなたの価値は、センスの中に宿っています。

ニュースレターに登録

最新のプロジェクト、記事、AIとWeb開発の実験に関する情報をお届けします。