一覧へ
1 分で読めます

Anthropic・OpenAI・Google 同時アップデート4つと隠れた共通点

3社がほぼ同時にコーディングエージェントを更新した。方向性が重なる。勝負を分けるのはモデルではなく、開発者ワークフローを吸収する速度だ。

先週、奇妙なことが起きた。

Anthropic、OpenAI、Google が示し合わせたかのように、コーディングエージェント関連のアップデートを立て続けにリリースした。内容は違うが、向いている方向が妙に重なっている。

4つのアップデートを順に見ていく。最後に、全部に共通する構造の話をする。

Claude Code Remote Control

これは tmux + Tailscale を使っていた開発者への直接の回答だ。

「コーディングセッションをスマホに引き継ぎたい」という需要は以前からあった。コミュニティがやっていたのは、tmux でセッションを維持して Tailscale で外からアクセスするという方法。動きはするが、設定は面倒だった。

Anthropic はそれをターミナル1行で置き換えた。/remote-control と打つだけで、QRコードが出てスマホで読み取ればすぐつながる。

現状の仕様を整理すると:

  • 対象: Max プランのリサーチプレビュー段階
  • 接続: QRコードスキャンで即時モバイル接続
  • 継続性: ノートPCがスリープしても自動再接続
  • ファイルシステム: ローカルファイルとMCPサーバーはそのまま維持

「リサーチプレビュー」という言葉が気になるが、方向性は明確だ。セッションをデバイスをまたいで持ち歩けるようにする。

Cowork エンタープライズ拡張

OpenAI の Cowork 拡張は、プラグインマーケットプレイスが核心だ。

管理者が社内専用のプラグインマーケットを作り、チームごとに配布できるようになった。HR 向け、IB(投資銀行)向けなど、職種別テンプレートが10種追加されている。

今回のアップデートの主な内容:

  • 新コネクタ12個: Docusign、FactSet などのエンタープライズ系が並ぶ
  • スラッシュコマンドの強化: 構造化入力フォームが付いた。コマンドを叩くだけでなく、フォームで入力を整理できる
  • 使用量追跡: OpenTelemetry ベースで組み込まれた
  • プラグインフォーマット: Claude Agent SDK と同一フォーマット

最後の点が地味に効いてくる。フォーマットを揃えておけば、プラグイン資産が両方のエコシステムで使い回せる。企業側の導入障壁が下がる。

Codex サブエージェントと Responses API WebSocket

この2つは別々のアップデートだが、組み合わさると意味が変わる。

Codex のサブエージェント機能: 複雑なタスクを並列に分割して処理できるようになった。大きなコーディングタスクをサブタスクに切って、並行で走らせる。

Responses API の WebSocket モード: HTTP の都度接続がなくなる。接続を張りっぱなしにできるので、ツールコールのたびにハンドシェイクが走らなくて済む。

この効果が数字に出ている。20回以上のツールコールを含むタスクで20〜40%高速化。Cline チームのテストでは、複雑なマルチファイルコーディングで約40%の改善が出たという。

サブエージェントで並列処理を増やしつつ、WebSocket で通信コストを下げる。相乗効果がある。

Gemini CLI に Hooks 追加

Claude Code が2024年9月に導入した機能を、Google が v0.26.0 で追随した。

Hooks はエージェントループをコードで制御するための仕組みだ。

使い方の例:

  • BeforeTool フック: ツール実行前に割り込む。API キー漏洩を防ぐスクリプトをここに仕込める
  • AfterAgent フック: エージェントの実行後に処理を追加。Ralph ループ(エージェントが自分自身の出力をレビューするパターン)の実装に使える

設定の優先順位はプロジェクト、ユーザー、システムの3段階。プロジェクト固有の設定がユーザー設定より優先され、ユーザー設定がシステムデフォルトより優先される。

Claude Code のユーザーにはおなじみの構造だ。

4つに共通していること

ここが本題だ。

4つのアップデートをあらためて並べてみると:

  1. tmux + Tailscale でリモート接続していたユーザー → Remote Control に吸収
  2. Slack や Notion と手動で連携していたチーム → プラグインマーケットに吸収
  3. HTTP の非効率をパッチで回避していた開発者 → WebSocket に吸収
  4. .sh スクリプトでエージェントループを制御していたユーザー → Hooks に吸収

どれも「ユーザーがすでにやっていた行動」を製品側が公式に取り込んだものだ。

リモート接続の需要はコミュニティが先に発見した。プラグインエコシステムはユーザーが先に構築していた。フックシステムはパワーユーザーがスクリプトで実装していた。製品はそれを後から標準機能にした。

これは AI ツール特有の現象ではないが、AI ツールではサイクルが異常に速い。

ワークフロー吸収力が勝負を分ける

モデルの性能差は、一定のレベルを超えると日常的なコーディングタスクではあまり体感できなくなる。GPT-4 と Claude 3.5 を実務で使い比べると、どちらもよくできていて、差よりも使い慣れによる生産性差の方が大きかったりする。

だとすると、競争の軸はどこになるか。

開発者が自然にやっていることを、どれだけ速く製品に組み込めるか。ワークフローの吸収速度だ。

コミュニティが .cursorrules を使い始めたら、それが正式な設定フォーマットになる。tmux でセッション管理していたら、それが /remote-control になる。スクリプトでフックを作っていたら、それが公式 API になる。

3社が同じ週にアップデートを出してきたのは、偶然ではないと思っている。互いに観測し合いながら、開発者コミュニティの動きを先取りしようとしている。

次のサイクルで何が吸収されるか、コミュニティの動きを見ておく価値はある。

ニュースレターに登録

最新のプロジェクト、記事、AIとWeb開発の実験に関する情報をお届けします。