Amazon anunció hoy una alianza Anthropic expandida con números que reformulan cómo pensar en relaciones laboratorio-hyperscaler. Hasta $25 mil millones en nueva inversión de Amazon ($5 mil millones inmediatos, hasta $20 mil millones después), encima de los $8 mil millones que Amazon ya había puesto. Anthropic recíproca con más de $100 mil millones en gasto AWS a lo largo de la próxima década. Esto no es un sponsorship o un intercambio de créditos cloud. Es el enredo capital-más-compute más profundo que cualquier laboratorio de IA mayor tiene con cualquier hyperscaler.
El lado compute es donde los números se vuelven interesantes. AWS ya ha desplegado más de un millón de chips Trainium2 para Anthropic, la mayoría dentro de Project Rainier, el cluster multi-datacenter que entró en línea el año pasado. Trainium2 adicional aterriza para fines de junio 2026. En la segunda mitad de 2026, la expansión Trainium2 y Trainium3 añadirá casi 1 gigavatio de nueva capacidad. El techo de la década es hasta 5 gigavatios en total, con opciones para rodar hacia Trainium4 y chips sucesores cuando salgan. En el lado CPU, decenas de millones de núcleos Graviton (la generación de 96 núcleos) manejan todo lo que Trainium no hace. Esto es Anthropic construyendo un flagship sobre silicio custom de Amazon a una escala que hace de la dependencia de NVIDIA una fracción menguante de su huella de entrenamiento y servicio.
Tres cosas para registrar. Uno, la concentración: la postura cloud de Anthropic es AWS-first en una forma que hace de "multi-cloud" una tecnicidad en vez de una cobertura. El anuncio de hoy no aborda arreglos de Azure o GCP, pero un compromiso de gasto de $100 mil millones sobre una década a un solo proveedor es efectivamente exclusividad por gravedad. Dos, la política del silicio. Los chips Trainium son la respuesta de Amazon al poder de precios de NVIDIA en entrenamiento de IA, y Anthropic corriendo una carga frontera sobre Trainium a esta escala es el caso de validación en el que Amazon ha estado trabajando desde la alianza original de 2023. Tres, la sombra regulatoria. El anuncio no menciona antitrust, pero $25 mil millones de equity del proveedor cloud más grande al tercer laboratorio frontera más grande es exactamente la estructura que las autoridades de competencia en EE.UU. y Reino Unido han estado vigilando los últimos dos años.
Si estás construyendo sobre Claude vía Bedrock, la implicación práctica es que la historia de capacidad es estable. La pista de compute de Anthropic se mide ahora en gigavatios y en compromisos de década, no en tramos de crédito trimestrales, y eso se traduce en disponibilidad de API y estabilidad de precios que competidores cerrados sin acuerdos similares lucharán por igualar. Si estás construyendo en el lado de pesos abiertos — DeepSeek, Moonshot, Qwen, GLM — la implicación es diferente. El modelo de lockup hyperscaler-laboratorio es ahora dinero real a escala real, lo que significa que la razón económica para que los pesos abiertos existan es en parte sobre resistir exactamente este tipo de concentración. Dos futuros para la industria de IA se están costeando en paralelo este año. Los números Amazon-Anthropic son la instantánea más clara de uno de ellos.
