Uber正在扩大与AWS的合作,在Amazon的定制Trainium芯片上运行更多共享出行基础设施,这标志着Amazon通过专用AI芯片与Nvidia竞争策略的又一次胜利。扩大的合同将Uber的更多工作负载从Oracle和Google Cloud转移到AWS的定制硬件上,尽管具体的工作负载和财务条款未被披露。

这很重要,因为它验证了Amazon在定制芯片上的数十亿美元押注确实在生产环境中发挥作用。当所有人都痴迷于Nvidia的GPU垄断时,Amazon一直在悄悄构建替代方案,用Trainium进行训练,用Inferentia进行推理。Uber扩大的承诺表明这些芯片能够大规模处理真实世界的ML工作负载——不仅仅是AWS的营销演示。这也是对Oracle和Google的战略打击,它们一直试图通过自己的AI基础设施策略重新赢回企业工作负载。

这一举措符合Uber的更广泛模式:在更少的云提供商上整合,同时要求AI工作负载更好的经济性。Uber处理大量实时数据用于定价、路由和匹配——正是定制芯片能够比通用GPU提供成本优势的那种推理密集型工作负载。不清楚的是Uber是在使用Trainium训练新模型还是只是在现有模型上运行推理。

对于开发者来说,这表明Amazon的定制芯片已经为要求苛刻的ML工作负载做好了生产准备。如果你在AWS上构建并面临高推理成本,Trainium和Inferentia实例可能值得测试。但真正的故事是基础设施整合——押注一个云提供商的完整AI堆栈,而不是在供应商之间混合搭配。