Un centro de datos de IA no es solo una versión más grande de una granja de servidores tradicional. La restricción fundamental ha cambiado de densidad de cómputo a densidad de energía. Un rack empresarial estándar consume 7–10 kilovatios; un rack cargado con ocho GPUs NVIDIA H100 consume 40–70 kW, y los racks de próxima generación GB200 NVL72 superan los 120 kW. Esto significa que un centro de datos de IA con la misma superficie que una instalación convencional podría necesitar 5–10 veces la capacidad eléctrica. Asegurar tanta energía — frecuentemente más de 100 megavatios por instalación — se ha convertido en el cuello de botella principal, que es por lo que empresas como Microsoft, Amazon y Google están firmando acuerdos con plantas nucleares, explorando reactores modulares pequeños y reviviendo estaciones de energía desmanteladas solo para alimentar sus clusters de GPUs.
El enfriamiento por aire tradicional simplemente no puede manejar las cargas de trabajo modernas de IA. Cuando empacas miles de GPUs consumiendo 700 vatios cada una en un espacio confinado, la generación de calor es asombrosa — un solo servidor H100 produce aproximadamente la misma carga térmica que un calefactor eléctrico a máxima potencia. Esto ha empujado a la industria hacia el enfriamiento líquido a una velocidad sin precedentes. El enfriamiento líquido directo al chip, donde el refrigerante fluye a través de placas frías montadas directamente sobre la GPU, es ahora estándar en las nuevas instalaciones de IA. Algunos operadores van más allá con enfriamiento por inmersión total, sumergiendo servidores completos en fluido dieléctrico. Los sistemas GB200 de NVIDIA esencialmente requieren enfriamiento líquido — no hay configuración práctica enfriada por aire. Este cambio tiene implicaciones masivas para centros de datos existentes: retrofitar una instalación diseñada para enfriamiento por aire para soportar enfriamiento líquido frecuentemente significa arrancar pisos elevados, añadir infraestructura de plomería y mejorar la capacidad estructural del edificio para manejar el peso de sistemas llenos de refrigerante.
La red de interconexión dentro de un centro de datos de IA es donde vive la verdadera complejidad de ingeniería. Cuando 10,000 GPUs necesitan sincronizar actualizaciones de gradientes durante una corrida de entrenamiento, la interconexión tiene que entregar ancho de banda masivo con latencia mínima y pérdida de paquetes casi nula. InfiniBand, originalmente desarrollado para computación de alto rendimiento, domina los clusters de entrenamiento de IA porque ofrece 400 Gb/s por puerto (con NDR de 800 Gb/s llegando a producción) y funciones como RDMA que bypasean el CPU completamente para transferencias de datos. Ethernet está alcanzando — el Ultra Ethernet Consortium y Spectrum-X de NVIDIA están empujando 800 GbE con RoCE (RDMA over Converged Ethernet) — pero InfiniBand sigue siendo el estándar para cargas de trabajo de entrenamiento serias. La topología de red también importa: diseños fat-tree y rail-optimized aseguran que cualquier GPU pueda comunicarse con cualquier otra GPU a ancho de banda completo, lo cual es crítico cuando tu estrategia de paralelismo divide un modelo a través de cientos de nodos.
Dónde construyes un centro de datos de IA es una decisión estratégica impulsada por disponibilidad de energía, clima, conectividad de fibra y, cada vez más, geopolítica. El norte de Virginia (corredor de Ashburn) alberga la concentración más densa de centros de datos en la Tierra, pero las restricciones de energía están empujando nuevas construcciones a lugares como el centro de Texas, los países nórdicos y el Medio Oriente. Los climas fríos reducen costos de enfriamiento — el centro de datos de Meta en Luleå, Suecia usa aire exterior para enfriar la mayor parte del año. La energía hidroeléctrica barata atrae instalaciones a Québec y el Noroeste del Pacífico. Mientras tanto, iniciativas de IA soberana están impulsando a países como Arabia Saudita, los EAU e India a construir clusters de GPU domésticos para no depender de los hyperscalers americanos para capacidad de IA. El resultado es una construcción global estimada en más de $300 mil millones hasta 2027, convirtiendo a los centros de datos de IA en una de las mayores inversiones en infraestructura de la historia.