Anthropic、OpenAI、Google 四项更新背后的隐藏共同点
三家公司几乎同时更新了编码代理。方向高度重合。真正的竞争焦点不是模型,而是吸收开发者工作流的速度。
这周有个细节值得注意:Anthropic、OpenAI、Google 几乎在同一时间段各自推出了编码代理的新功能。单独看每一条,都是正常的产品迭代。但放在一起看,你会发现一个一致的方向:它们在争抢的不是模型能力,而是开发者的工作流。
先把四项更新过一遍,再谈背后的逻辑。
一、Claude Code 远程控制
这个功能的定位非常直接:取代 tmux + Tailscale 的组合拳。
以前如果你想在外出时监控或控制本地跑着的 Claude Code 任务,通常需要自己搭一套远程访问方案。现在只需要在终端输入 /remote-control,扫一下生成的二维码,手机就能接管会话。
具体细节:目前是 Max 计划的研究预览,二维码扫描即时连接,笔记本电脑休眠后会话自动重连,本地文件系统和 MCP 服务器状态保持不变。
没有额外配置,没有端口转发,没有 SSH 隧道。这个功能的价值不在于技术有多复杂,而在于它把一个本来需要自己动手搭建的东西,变成了一行命令。
二、Cowork 企业扩展
Cowork 这次更新的核心是插件市场。
管理员现在可以创建内部专用的插件市场,并按团队粒度部署不同的插件组合。这个设计思路和 VSCode 的插件机制很像:平台提供框架,生态由社区和企业自己填充。
其他几个值得关注的点:
- 新增了 HR、IB 等 10 种职能模板,降低特定场景的上手成本
- 12 个新连接器,包括 Docusign 和 FactSet,明显是在往金融和法务场景发力
- 斜杠命令现在支持结构化输入表单,不再是纯文本输入
- 使用量追踪基于 OpenTelemetry,方便接入企业已有的可观测性体系
- 插件格式和 Claude Agent SDK 统一,内外打通
最后这一点是关键。同一套插件格式,意味着企业内部开发的工具可以无缝迁移,也意味着 Anthropic 在悄悄建立一个标准。
三、Codex 子代理 + Responses API WebSocket
这是 OpenAI 这次的两个更新,分开看都是增量改进,合在一起才能看出意图。
Codex 正式加入了子代理功能,复杂任务可以拆分成多个并行子任务分别处理。这在架构上并不新鲜,但集成进 Codex 意味着这个能力变得开箱即用。
Responses API 开始支持 WebSocket 模式。这个改动对延迟敏感的场景影响很大:传统的 HTTP 轮询在每次工具调用后都需要重新建立连接,而 WebSocket 保持长连接。据 Cline 团队的测试,20 次以上工具调用的场景提速 20-40%,复杂多文件编码任务改善幅度约 40%。
两个功能单独出现都说得通,但放在一起(并行子代理 + 低延迟通信),明显是在为更复杂的编码工作流铺路。
四、Gemini CLI 添加 Hooks
这个功能的历史值得一提:Claude Code 在去年 9 月率先引入了钩子系统,Google 在 Gemini CLI v0.26.0 跟进实现了类似机制。
Hooks 允许开发者在代理的工具执行前后插入自定义逻辑。几个典型用途:
- 工具执行前做安全检查,比如阻止对特定目录的写操作
- AfterAgent 钩子可以实现”Ralph 循环”,在任务完成后自动触发下一个操作
- 配置优先级分三级:项目级、用户级、系统级,方便团队统一管理
这个功能本质上是把代理的控制权部分还给了用户。你不再只是给代理下指令,而是可以定义它的行为边界和自动化逻辑。
真正的竞争在哪里
四项更新,分属三家公司,几乎同期发布。
如果你只看功能列表,会觉得这不过是常规的产品迭代。但有一个共同点很难忽视:这四个功能,全都是在把开发者社区已经在做的事情吸收进产品。
远程访问 Claude Code?社区早就在用 tmux + Tailscale 自己搭了。企业内部插件市场?有人在自己维护 prompt 库和工具脚本。WebSocket 长连接?对延迟敏感的团队早就在想办法减少 HTTP 开销。Hooks 钩子?高级用户一直在用各种方式 hack 代理的行为。
这些都不是产品凭空发明的需求,而是开发者已经证明了价值之后,产品把它们标准化、打包、变成官方支持的功能。
这是一个有趣的竞争模式:谁能更快地识别社区的真实行为,并把它吸收进产品,谁就能更快地把工作流锁定在自己的生态里。
模型能力当然重要,但在顶级模型性能差距越来越小的今天,工作流的吸收速度可能才是真正决定市场格局的变量。
三家公司都在朝这个方向走,只是速度和路径不同。
如果你在用这些工具,有什么感受?欢迎留言聊聊。
订阅通讯
获取关于我最新项目、文章以及 AI 和 Web 开发实验的更新。