A Uber está expandindo sua parceria com a AWS para rodar mais infraestrutura de ride-sharing nos chips Trainium customizados da Amazon, marcando mais uma vitória para a estratégia da Amazon de competir com a Nvidia através de silício IA construído especificamente. O contrato expandido move workloads adicionais da Uber do Oracle e Google Cloud para o hardware customizado da AWS, embora workloads específicos e termos financeiros não tenham sido divulgados.

Isso importa porque é uma validação de que a aposta multibilionária da Amazon em chips customizados realmente está funcionando em produção. Enquanto todo mundo se obceca com o monopólio de GPU da Nvidia, a Amazon tem construído silenciosamente uma alternativa com Trainium para treinamento e Inferentia para inferência. O compromisso expandido da Uber sugere que esses chips conseguem lidar com workloads ML do mundo real em escala—não apenas demos de marketing da AWS. É também um golpe estratégico no Oracle e Google, que têm tentado reconquistar workloads empresariais com suas próprias jogadas de infraestrutura IA.

O movimento se encaixa no padrão mais amplo da Uber de consolidar em menos provedores cloud enquanto demanda melhores condições econômicas para workloads IA. A Uber processa quantidades massivas de dados em tempo real para preços, roteamento e matching—exatamente o tipo de workloads pesados em inferência onde silício customizado pode entregar vantagens de custo sobre GPUs de propósito geral. O que não está claro é se a Uber está usando Trainium para treinar novos modelos ou apenas rodar inferência nos existentes.

Para desenvolvedores, isso sinaliza que os chips customizados da Amazon estão prontos para produção em workloads ML exigentes. Se você está construindo na AWS e lidando com altos custos de inferência, as instâncias Trainium e Inferentia podem valer a pena testar. Mas a história real é consolidação de infraestrutura—apostar no stack IA completo de um provedor cloud ao invés de misturar e combinar entre vendors.