目录
1 分钟阅读

2026年AI五大预测:智能体、芯片与历史性Exit

从SaaS末日到模型专用芯片,关于2026年AI走向的五个大胆预测:大概有50%的把握说对。

说实话,我一直在犹豫要不要写预测文章。跟联合创始人Hyeonji Hwang私下聊是一回事,公开写出来是另一回事。

猜对了别人说”这不明摆着的嘛”,猜错了就很尴尬。但2026年开年以来发生的事情,速度实在不寻常,所以我决定整理一下自己的思路。

开发者(其实是所有人)今年不会被取代,但从今年起必须寻找新的能力方向

作为一个生物工程专业出身的人,几天前有一条消息让我非常震撼。人类基因组测序成本25年前是27亿美元(人类基因组计划),5年前降到了1,000美元,这周Element Biosciences发布了100美元的设备VITARI。即使在生物技术这个变化最慢的领域之一,速度都已经如此之快。大多数行业的变革速度只会更快。

而软件行业要快得多。移动时代设备更换周期慢,人们有时间适应;但AI是以天为单位在变化的,这就是软件的本质。

  • 2024年 Cursor普及 → Bolt·Lovable全栈应用生成 → Karpathy的”氛围编程” → 2025年 Claude Code·Opus 4.5·Gemini 3.0 Pro发布 → 2026年1月 SaaS末日(SaaSpocalypse)。仅仅两年就走到了这一步
  • SaaS末日:仅2月第一周,软件板块市值就蒸发了2,850亿美元。Anthropic的Claude Cowork插件发布是导火索。这种感觉跟ChatGPT问世(2022年12月)后的2023年初如出一辙
  • 美国基础设施软件工程师仍然短缺,但其他岗位在统计数据上已经受到冲击。初级软件工程师招聘相比2023年减少了45%

今后,哪怕仅仅是跟上信息流,也只有那些同时运行几十个智能体的少数人才能做到。我以开发者为例,但每个人都应该提前培养其他能力, , 外包销售能力、社交媒体沟通能力、稳定的投资收益管理等。

软件只有作为数据源提供商或AI套餐包装才能存活

从用户角度来看,是原版还是仿品根本不重要。打官司也只是浪费时间,所以滥用的一方越来越多。在AI时代真正有价值的是那些模型难以学习、但能在推理时实时调用的数据。

这个趋势在1月就已经非常清晰了。

数据源获取:关键是连接,不是训练

  • Perplexity与BlueMatrix达成合作,将机构投资者金融研究数据直接集成到其Enterprise产品中(1月13日宣布)
  • Manus与SimilarWeb合作,通过MCP服务器将网站/应用流量数据接入,让AI智能体可以直接分析(同日宣布)
  • 这类数据让模型去用远比让模型去学更有效。要超过积累了多年数据的企业,极其困难

模型访问权打包:月付$100-$200提供超过$10,000的价值

  • Claude Max $100-$200/月,ChatGPT Pro $200/月,Higgsfield $149-$249/月, , 直接通过API使用要花$200-$400的用量,被包装成套餐后让用户觉得”这个价格居然有这么大价值?”
  • Anthropic的产品负责人甚至提到”正在考虑$500/月的套餐”,可见高端订阅需求之强
  • Seedance 2.0、GPT-3.5-Codex等, , 比任何人都更快、以更有效的价格提供独家模型访问,这是AI软件仅剩的价值

结论就是:构建能在推理前半段提供的数据API,或者打包AI模型访问权,或者更快地做企业级外包。后半段的分析没有意义, , AI做得更好、更便宜。

AI智能体引爆第五次硬件繁荣(硬件现在是为智能体服务的)

OpenClaw把这个趋势展现得淋漓尽致。奥地利开发者Peter Steinberger打造的这个开源个人智能体,上线72小时内GitHub星标突破6万,目前已超过14.5万。它通过WhatsApp、Telegram、Slack等即时通讯应用自动完成邮件管理、日程安排、网页浏览甚至购物。DigitalOcean推出了一键部署,Raspberry Pi发布了官方指南。

问题从这里开始。

  • 智能体必须在用户需要时即时响应,所以每个智能体需要一台独立设备(或实例)
  • 仅”一人一智能体”的概念就能让当前计算需求翻倍以上。如果一个人运行10个、100个个人智能体呢?
  • 设备 = CPU等算力 + DRAM·SSD等存储 + 网络设备的组合。用服务器或Mac Mini等计算设备,每个人/每个智能体在独立的Docker容器中运行
  • 有些工作用传统芯片就能完成,这对中国企业来说是巨大机会。三星和SK海力士犹豫之后重新开工扩产线,原因可能就在于此

(feat. 三星、SK海力士、台积电、闪迪:参照英伟达的案例,估值可能仍然偏低。但不同于英伟达,中国作为替代方案的存在也是一个陷阱)

每个AI模型都有专属芯片的时代开启了(The Model is the CHIP)

加拿大多伦多的Taalas发布了专为Llama 3.1 8B设计的ASIC芯片HC1。结果是每秒17,000个token, , 比Nvidia H200快73倍,比目前最快的Cerebras也快约10倍。通过将模型权重直接刻入晶体管,HC1不需要HBM也不需要液冷,功耗仅为十分之一

Taalas累计融资2.19亿美元,计划在HC2中支持200亿参数的模型。

值得注意的是,所有人都说这些芯片能效不行、不可扩展,但最终专用芯片创业公司还是吸引了大量资本。

  • 12月24日 Nvidia以200亿美元许可Groq的LPU技术,并引入核心人才(创始人Jonathan Ross、总裁Sunny Madra), , 实质上是收购
  • Cerebras撤回IPO,融资超10亿美元,坚持独立路线
  • 模型专用芯片只需更换两块掩模版,约2个月即可适配新模型, , 与前沿模型结合后,可能彻底改变推理成本结构

一个新的半导体时代正在明确展开。

一家类似OpenClaw的创业公司将在年内完成历史性Exit

这个预测的依据是一个已经成立的模式。

模式的建立:Browser-use → Manus → Meta收购

  • 2025年,开源项目Browser-use展示了AI自动化的可能性
  • Manus将Sonnet 4与Browser-use结合,开启了智能体时代(2025年3月)
  • 结果:8个月内超高速达成**$100M ARR**。12月29日Meta以超过20亿美元收购。史上最短独角兽Exit案例之一

下一个Exit的要素:OpenClaw → pi-mono → ?

  • OpenClaw本身就是开源的,创始人Peter Steinberger已确认于2月15日加入OpenAI。OpenClaw以基金会形式独立运营
  • OpenClaw的引擎pi-mono(Mario Zechner开发,约8,900 GitHub星标)正在成为个人智能体服务的核心SDK
  • 中国方面,阿里巴巴、腾讯、字节跳动都已发布针对OpenClaw优化的智能体。Minimax M2.5、Kimi Claw等模型和服务都在转向OpenClaw兼容
  • 用户期望正从”问ChatGPT”转向”让智能体来做”。只要稍微放开数据访问权限,便利性就是压倒性的

我确信会有大约3个极其出色地利用pi-mono的服务出现,其中一个会被收购。

订阅通讯

获取关于我最新项目、文章以及 AI 和 Web 开发实验的更新。