チェックリスト
AIエージェントチーム立ち上げチェックリスト
スコープ、取得面、責務分離、検証、bot-readable surfaceを整理したAIエージェントチーム向け実践チェックリストです。
多くのエージェントチームはコーディング前に失敗します。アーカイブURLと主力ページを混ぜ、メインセッションを過負荷にし、取得面を曖昧にしたまま進めるからです。これは公開や拡張の前に満たすべき最低ラインです。
エージェントオーケストレーション
単一エージェントで十分な場面、分割すべき場面、人間とボットの両方に読みやすい取得面を保つ方法を整理したプレイブックです。
課題
- 同じMarkdownを大量複製してpSEOと呼んでしまう。
- 有用なページよりアーカイブや補助URLが増え、インデックス品質が落ちる。
期待される成果
- 意図が明確でボットにも取得しやすい高価値詳細ページを作れる。
- 厳選したハブとユーティリティページだけを生成し、インデックスを整理できる。
スコープと責務
1ページ1タスクに絞る
重要な理由: 用語集、チェックリスト、比較を一度にやるページは読者にもクローラにも弱くなります。
やること: 1行の成功条件を書き、その条件に効かない要素は削ります。
主力ページと補助URLを分ける
重要な理由: 補助URLがクロール可能だと、Googleは主力ページではなく低価値面に予算を使います。
やること: llms.txtのような補助エンドポイントはX-Robots-Tag noindexにし、サイトマップから外します。
並列作業前にオーナーを決める
重要な理由: 2人が同じ関心領域を静かに触ると、マルチエージェントの出力品質が落ちます。
やること: 実装前にファイルまたはサブシステムの責任範囲を宣言します。
取得面と検証
詳細ページごとに機械可読な入口を1つ持つ
重要な理由: 安定したテキスト取得面があればボット取得は速くなりますが、その面が検索結果で競合してはいけません。
やること: ページごとのllms.txtまたは同等の平文面を用意し、検索インデックスから外します。
公開前にstructured dataを検証する
重要な理由: schemaはページ意図、canonical URL、本文コピーが一致している時だけ効きます。
やること: 公開前にcanonical、hreflang、JSON-LD、タイトルをまとめて確認します。
バッチで公開する
重要な理由: インデックスの詰まりは、一度に大きく出すより小さなバッチの方が原因を追いやすいです。
やること: まず小さな塊を公開し、Search Consoleの結果を見てから次のバッチを拡大します。
関連記事
AIエージェントの信頼性を100%にする8つのHook
CLAUDE.mdのルールが守られる確率は約80%です。Hookは100%です。6ヶ月間の検証で一度も外さなかった8つを紹介します。
2026年のClaude Code:ツールよりもレイヤーが重要
人気のClaude Code拡張機能を3つ同じ週にインストールしたが、生産性はほとんど変わらなかった。問題はどのツールを選ぶかではなかった。
Codexの設定が効かない理由:.codex/フォルダ構造の落とし穴
config.tomlを編集してAGENTS.mdにルールを書いたのに、何も反映されなかった。問題は設定の内容ではなく、ファイルの置き場所にあった。
著者
Tony Lee / 이정민Tony Lee(イ・ジョンミン、토니리)は、SEO、AEO、AIエージェント、スタートアップ実行を扱うAIエンジニア兼ソロビルダー、創業者です。
要約
エージェントワークフローやprogrammatic resource、bot向けコンテンツ面を公開する前にこのチェックリストを使ってください。