亚马逊于 4 月 28 日宣布,AWS 的 Bedrock 服务现已提供 OpenAI 的最新模型、Codex 代码编写服务,以及一款名为 Bedrock Managed Agents 的新产品 —— 专门用于 OpenAI 的推理模型,内置 agent steering 与安全功能。该公告距 OpenAI 公开终止微软对其产品的独家分销权不到 24 小时。两则公告并非巧合:此前 AWS 与 OpenAI 高达 500 亿美元的合作曾被微软的独家条款卡住,如今 OpenAI 把这个卡点拿掉。Andy Jassy 昨日就微软消息发出的「非常有趣的公告」推文,正是 AWS 立刻动手的现场信号。
Bedrock Managed Agents 才是更值得关注的部分。Bedrock 作为 AWS 的 AI 应用构建与模型选择服务已经两年,但一直缺少专门为 OpenAI 推理模型调校的一等公民式 agent 支持。新产品把 OpenAI 的 o 系列定位为 AWS-原生 agentic 应用的默认推理引擎。对开发者而言,这是第一次能在 AWS 基础设施上构建由 OpenAI 推理驱动的 agent —— 不必再走 Azure 或自托管 vLLM 栈。Codex 的上线同样重要,它把 OpenAI 的编码模型放到了与 Bedrock 其他产品(Claude、Llama、Titan、Mistral)同一个表面。在 Bedrock 上,你现在可以通过一次 API 调用,在 OpenAI Codex 与 Anthropic Claude 之间切换。
战略层面的重组才是更大的故事。微软–OpenAI 关系已经松动了几个月:OpenAI 签了高达 500 亿美元的 AWS 合作、签了 Oracle 合作,如今又在 AWS Bedrock 上分销。据报道,微软正在打造一款由 Claude 而非 GPT 驱动的新 agent 产品,并已在 Anthropic 与其他模型方进行投资。从 2019 年到 2025 年定义微软–OpenAI 关系的那种独家关系,已经结束。取而代之的是多云、多供应商的分销 —— 更像 2010 年代的云市场:三家 hyperscaler 在价格与功能对等上竞争,而非通过独家合作。前沿 AI 的分销层,刚刚与模型层解耦。
对 builders 而言,三条具体后果。第一,如果你之前因 Azure lock-in 而推迟了基于 OpenAI 的功能在多区域或多云上的部署,lock-in 已不复存在 —— AWS 原生部署如今是一个选项。第二,Bedrock 现在支持的「一次 API 调用就能在 Claude 与 GPT 之间切换」,正是基准测试该有的环境:你的应用可以在不更换基础设施的情况下,对不同供应商的推理模型做 A/B 测试。在你押注某一款模型之前,先把它搭起来。第三,Bedrock Managed Agents 是对 Google Agents CLI 与 Anthropic 的 MCP 推动的一次竞争回应 —— 现在每一朵云都提供托管的 agent 层。该层的收敛意味着差异化往下移到具体细节:agent 可观测性、安全边界、评估流水线。挑你云的 agent 层,要看故障模式工具,而不是市场宣传。
