亚马逊今日公布扩大版 Anthropic 合作,其数字重塑了对实验室与 hyperscaler 关系的思考方式。亚马逊新增投资至多 250 亿美元(即期 50 亿,后续至多 200 亿),在此之前已投入 80 亿。Anthropic 则在下一个十年回馈 AWS 逾 1000 亿美元的消费承诺。这不是赞助,也不是云信用互换,而是任何大型 AI 实验室与任何 hyperscaler 之间最深度的资本加算力的纠缠。
算力侧的数字才是耐看的。AWS 已为 Anthropic 部署逾 100 万片 Trainium2,多数落在去年上线的多数据中心集群 Project Rainier 内。2026 年 6 月底之前会再加 Trainium2。2026 下半年,Trainium2 与 Trainium3 的扩展将新增近 1 千兆瓦容量。整个十年的上限是 5 千兆瓦,未来还可切入 Trainium4 及后续芯片。CPU 侧,数以千万计的 Graviton 核心(96 核一代)承担 Trainium 以外的工作负载。这是 Anthropic 在亚马逊自研硅之上打造旗舰机队,规模大到让对 NVIDIA 的依赖在其训练与服务占比中不断缩小。
三件事要记下。其一,集中度:Anthropic 的云姿态是 AWS-first,让所谓「多云」成为技术性说法而非对冲。今日公告未提及与 Azure 或 GCP 的安排,但把十年 1000 亿美元的开支承诺给单一厂商,实质上已是引力意义上的独家。其二,硅的政治。Trainium 是亚马逊对 NVIDIA 训练定价权的回应,而 Anthropic 在 Trainium 上跑前沿工作负载达到这个规模,正是亚马逊自 2023 年最初合作以来一直在追的那个验证案例。其三,监管阴影。公告未提及反垄断,但最大云厂商向第三大前沿实验室注入 250 亿美元股权,正是美国与英国的竞争主管机构过去两年一直在关注的结构。
如果你在通过 Bedrock 搭 Claude,实务上的含义是容量叙事趋于稳定。Anthropic 的算力跑道现在以千兆瓦和十年承诺为度量,而不是季度信用额度的切块,这转化为闭源竞争对手若无类似协议难以企及的 API 可用性与价格稳定性。如果你在搭开放权重那一边——DeepSeek、月之暗面、Qwen、GLM——含义就不一样了。hyperscaler 与实验室的锁定模式现在是真金白银的真实规模,这意味着开放权重存在的经济理由之一,恰是对抗这种集中。AI 产业的两种未来今年正在并行定价。Amazon-Anthropic 的数字,就是其中一种未来最清晰的一张快照。
