Amazon a annoncé aujourd'hui un partenariat Anthropic élargi avec des chiffres qui recadrent comment penser aux relations laboratoire-hyperscaler. Jusqu'à 25 milliards $ en nouveaux investissements d'Amazon (5 milliards immédiats, jusqu'à 20 milliards plus tard), en plus des 8 milliards qu'Amazon avait déjà mis. Anthropic réciproque avec plus de 100 milliards $ en dépenses AWS sur la prochaine décennie. C'est pas un sponsorat ou un échange de crédits cloud. C'est l'enchevêtrement capital-plus-compute le plus profond qu'un laboratoire d'IA majeur ait avec n'importe quel hyperscaler.

Le côté compute est là où les chiffres deviennent intéressants. AWS a déjà déployé plus d'un million de puces Trainium2 pour Anthropic, la plupart à l'intérieur de Project Rainier, le cluster multi-datacenter qui est venu en ligne l'an dernier. Du Trainium2 additionnel atterrit d'ici fin juin 2026. Au deuxième semestre 2026, l'expansion Trainium2 pis Trainium3 ajoutera près d'1 gigawatt de nouvelle capacité. Le plafond sur la décennie est jusqu'à 5 gigawatts au total, avec options de rouler sur Trainium4 et ses successeurs quand ils sortiront. Côté CPU, des dizaines de millions de cœurs Graviton (la génération 96 cœurs) gèrent tout ce que Trainium fait pas. C'est Anthropic qui construit un flagship sur le silicium custom d'Amazon à une échelle qui fait de la dépendance à NVIDIA une fraction rétrécissante de leur empreinte d'entraînement pis de service.

Trois choses à enregistrer. Un, la concentration : la posture cloud d'Anthropic est AWS-first d'une façon qui rend « multi-cloud » une technicité plutôt qu'une couverture. L'annonce d'aujourd'hui n'aborde pas les arrangements Azure ou GCP, mais un engagement de dépense de 100 milliards $ sur une décennie à un seul fournisseur est effectivement de l'exclusivité par gravité. Deux, la politique du silicium. Les puces Trainium sont la réponse d'Amazon au pouvoir de prix de NVIDIA en entraînement d'IA, pis Anthropic roulant une charge frontière sur Trainium à cette échelle est le cas de validation sur lequel Amazon travaille depuis le partenariat original de 2023. Trois, l'ombre réglementaire. L'annonce ne mentionne pas d'antitrust, mais 25 milliards $ d'équité du plus gros fournisseur cloud dans le troisième plus gros laboratoire frontière est exactement la structure que les autorités de concurrence aux US pis au UK surveillent depuis les deux dernières années.

Si tu construis sur Claude via Bedrock, l'implication pratique est que l'histoire de capacité est stable. La piste de compute d'Anthropic se mesure maintenant en gigawatts pis en engagements d'une décennie, pas en tranches de crédits trimestrielles, pis ça se traduit en disponibilité d'API pis stabilité de prix que les compétiteurs fermés sans arrangements similaires vont peiner à matcher. Si tu construis du côté poids ouverts — DeepSeek, Moonshot, Qwen, GLM — l'implication est différente. Le modèle de lockup hyperscaler-laboratoire est maintenant du vrai argent à grande échelle, ce qui veut dire que la raison économique pour les poids ouverts d'exister est en partie à propos de résister exactement à ce genre de concentration. Deux futurs pour l'industrie de l'IA se font pricer en parallèle cette année. Les chiffres Amazon-Anthropic sont l'instantané le plus net d'un des deux.