O Google se comprometeu a implementar múltiplas gerações futuras de processadores Xeon da Intel em sua infraestrutura de nuvem, marcando um voto de confiança significativo na infraestrutura de IA centrada em CPU. A parceria de múltiplos anos se estende além do uso atual do Google Cloud dos processadores Xeon 6 da Intel em instâncias C4 e N4 para incluir co-desenvolvimento personalizado de unidades de processamento de infraestrutura (IPU) baseadas em ASIC. As ações da Intel saltaram 4,7% no anúncio, sugerindo que Wall Street vê isso como validação da estratégia de IA da Intel além de apenas manufatura.

Este acordo destaca uma mudança crítica no pensamento de infraestrutura de IA. Enquanto a indústria se obseca com escassez de GPU e chips de treinamento, a implementação real de sistemas de IA requer orquestração massiva de CPU para processamento de dados, coordenação de modelos e gerenciamento de sistemas. O comentário do CEO da Intel Lip-Bu Tan de que "IA não roda só em aceleradores—roda em sistemas" corta através do hype de GPU para abordar o que realmente mantém cargas de trabalho de IA rodando em produção. O compromisso do Google abrange múltiplas gerações de processadores, indicando que estão planejando para um futuro centrado em CPU mesmo enquanto competidores correm atrás de aceleradores exóticos.

A parte de co-desenvolvimento IPU, que começou em 2021, revela a colaboração técnica mais profunda aqui. Esses chips personalizados descarregam tarefas específicas de data center dos CPU, criando pilhas de infraestrutura de IA mais eficientes. A Intel se recusou a compartilhar detalhes de preços, mas o compromisso de múltiplos anos sugere que isso não é apenas sobre aquisição—é sobre arquitetar em conjunto a próxima geração de infraestrutura de implementação de IA. Para desenvolvedores construindo sistemas de IA de produção, essa parceria sinaliza que otimização de CPU e computação heterogênea importarão mais que poder bruto de GPU para a maioria das aplicações do mundo real.