L'infrastructure de CoreWeave est construite spécifiquement pour l'IA : clusters GPU NVIDIA avec réseau InfiniBand (essentiel pour l'entraînement distribué), stockage haute bande passante (pour charger de grands datasets et checkpoints), et orchestration basée sur Kubernetes optimisée pour les charges de travail GPU. Cette spécialisation leur permet d'atteindre des taux d'utilisation GPU plus élevés que les clouds généralistes, ce qui se traduit par de meilleurs prix.
CoreWeave a levé plus de 10 milliards de dollars en capital et en dette — un pari massif sur le fait que la demande de cloud GPU va continuer de croître. Le risque : si la demande d'entraînement IA stagne ou se déplace vers des puces personnalisées (TPU, Trainium, Groq), leur infrastructure centrée GPU perd de la valeur. L'opportunité : si la demande GPU continue sa croissance exponentielle (ce que la plupart des observateurs de l'industrie attendent pour au moins les prochaines années), CoreWeave est bien positionné pour capturer une part significative d'un très grand marché.