Uber正在擴大與AWS的合作夥伴關係,在Amazon的客製化Trainium晶片上運行更多共乘基礎設施,這標誌著Amazon通過專用AI矽晶片與Nvidia競爭策略的又一次勝利。擴大的合約將Uber的更多工作負載從Oracle和Google Cloud轉移到AWS的客製化硬體上,儘管具體的工作負載和財務條款未被披露。

這很重要,因為它驗證了Amazon在客製化晶片上的數十億美元賭注確實在生產環境中發揮作用。當所有人都沉迷於Nvidia的GPU壟斷時,Amazon一直在悄悄構建替代方案,用Trainium進行訓練,用Inferentia進行推論。Uber擴大的承諾表明這些晶片能夠大規模處理真實世界的ML工作負載——不僅僅是AWS的行銷演示。這也是對Oracle和Google的戰略打擊,它們一直試圖通過自己的AI基礎設施策略重新贏回企業工作負載。

這一舉措符合Uber的更廣泛模式:在更少的雲端提供商上整合,同時要求AI工作負載更好的經濟性。Uber處理大量即時資料用於定價、路由和配對——正是客製化矽晶片能夠比通用GPU提供成本優勢的那種推論密集型工作負載。不清楚的是Uber是在使用Trainium訓練新模型還是只是在現有模型上運行推論。

對於開發者來說,這表明Amazon的客製化晶片已經為要求苛刻的ML工作負載做好了生產準備。如果你在AWS上構建並面臨高推論成本,Trainium和Inferentia執行個體可能值得測試。但真正的故事是基礎設施整合——押注一個雲端提供商的完整AI堆疊,而不是在供應商之間混合搭配。