Meta prévoit construire 10 nouvelles centrales au gaz naturel pour alimenter son prochain centre de données IA Hyperion, générant assez d'électricité pour alimenter tout l'état du Dakota du Sud. Ce massif investissement en infrastructure énergétique souligne la réalité brutale derrière les demandes exponentielles de calcul de l'IA—entraîner et faire fonctionner des modèles de pointe nécessite une puissance à échelle industrielle que l'infrastructure renouvelable actuelle ne peut tout simplement pas fournir à la demande.
Cette décision expose l'écart entre les engagements climatiques des géants tech et leurs ambitions IA. Alors que Meta s'est engagée à des émissions nettes zéro d'ici 2030, l'entreprise mise maintenant sur les combustibles fossiles pour répondre aux demandes énergétiques 24/7 des clusters d'entraînement IA. Le timing n'est pas coïncidental—alors que la taille des modèles explose et que chaque géant tech fait la course pour construire l'AGI, les centres de données sont devenus les nouvelles raffineries de pétrole. Les émissions de Google ont bondi de 50% depuis 2019, celles de Microsoft ont augmenté de 30%, largement causées par l'infrastructure IA. La stratégie de centrales au gaz de Meta suggère qu'ils ont fait les calculs : rater la course à l'IA coûte plus cher que rater les objectifs climatiques.
Ce qui est particulièrement révélateur, c'est l'ampleur—10 centrales pour un seul centre de données signale qu'on entre en territoire inexploré pour la consommation énergétique de l'IA. Les installations hyperscale précédentes nécessitaient typiquement 1-2 sources d'alimentation dédiées. Soit Meta planifie quelque chose de sans précédent dans l'entraînement de modèles, soit les gains d'efficacité énergétique promis par les nouvelles puces ne se matérialisent pas assez rapidement pour compenser la demande.
Pour les développeurs, ça devrait être un signal d'alarme concernant les coûts d'inférence. Si l'infrastructure d'entraînement nécessite une génération d'énergie au niveau étatique, faire fonctionner ces modèles ne sera pas donné. Commencez à optimiser pour l'efficacité maintenant, parce que l'ère du calcul IA abondant et abordable se termine avant d'avoir vraiment commencé.
