La nueva carrera espacial se libra en los centros de datos. La expansión de la IA exige instalaciones con mayor densidad, eficiencia energética y conectividad ultrarrápida.
El auge imparable de la inteligencia artificial está redefiniendo la arquitectura de los centros de datos. Lo que hasta hace pocos años parecía una quimera —infraestructuras de alta densidad para soportar cargas computacionales colosales— hoy es una necesidad urgente. Con modelos de lenguaje cada vez más grandes y exigentes, la industria tecnológica se ha lanzado de lleno a construir centros de datos diseñados específicamente para la IA.
La nueva edad dorada del cómputo
Desde que el estudio “Scaling Laws for Neural Language Models” en 2020 confirmara que los modelos de IA escalan sus capacidades conforme crecen en tamaño, datos y potencia computacional, la tendencia ha sido clara: construir centros de datos gigantescos repletos de GPUs. Sin embargo, el preentrenamiento ya no es suficiente. Las nuevas técnicas de post-entrenamiento, como el aprendizaje por refuerzo con retroalimentación automatizada —pionerizado por DeepSeek—, y la computación en tiempo de inferencia, están impulsando una nueva generación de modelos con razonamiento adaptativo.
Todas estas técnicas tienen un denominador común: una necesidad cada vez mayor de recursos computacionales y, por ende, de centros de datos capaces de albergar ese poder de cálculo.
De los racks vacíos a la superdensidad
Tradicionalmente, las infraestructuras de IA han sido integradas en centros de datos convencionales, pero eso empieza a quedarse corto. Según el Uptime Institute, la densidad media global por rack es inferior a 6 kW, mientras que GPUs como las NVIDIA H200 exigen más de 40 kW por rack. El resultado: racks medio vacíos, espacio desaprovechado y un sistema ineficiente.
Hoy en día, las densidades en centros de datos para IA ya se miden en decenas o incluso centenas de kW por rack. Este salto viene acompañado de una necesidad crítica de reducir la latencia entre nodos de GPU y maximizar el ancho de banda local, lo que exige proximidad física extrema entre servidores y redes de alta velocidad diseñadas para rendimiento óptimo.
Un ejemplo paradigmático es el xAI Colossus Cluster, el mayor superordenador de IA del mundo, con 100.000 GPUs y cuatro salas de datos. Construido en solo 122 días, incorpora refrigeración líquida directa a chip y puertas traseras activas, evitando sistemas tradicionales de contención térmica.
Enfriamiento extremo y almacenamiento energético
El Colossus, revelado por Supermicro con la aprobación de Elon Musk, también muestra cómo se están usando soluciones como Tesla Megapacks para amortiguar picos de consumo eléctrico de milisegundos durante procesos intensivos de entrenamiento, ofreciendo una fiabilidad sin precedentes.
La arquitectura combina CDUs con bombas redundantes, bloques de refrigeración líquida personalizados y hasta nueve puertos de red por servidor para una conectividad óptima entre clústeres GPU y no GPU.
Una carrera global por la supremacía en IA
Estados Unidos lidera la construcción de centros de datos de IA, con proyectos como el Stargate de OpenAI, SoftBank y Oracle, que contempla una inversión de hasta 500.000 millones de dólares. Amazon planea destinar 100.000 millones a infraestructura tecnológica —principalmente para IA—, mientras que Google invertirá 75.000 millones y Microsoft 80.000 millones solo este año fiscal. Meta no se queda atrás, con hasta 65.000 millones dedicados a entrenar sus modelos Llama.
Y esta carrera apenas ha comenzado.
El mayor reto: la energía
Si no hubiera restricciones presupuestarias ni de componentes, ¿qué frena la construcción de estos centros de datos? La respuesta es clara: la energía. El entrenamiento de modelos gigantes requiere cada vez más electricidad, lo que obliga a las empresas a cerrar acuerdos a largo plazo con proveedores de energía, incluyendo centrales nucleares y fuentes renovables. La sostenibilidad energética es, sin duda, uno de los grandes retos a resolver.
Conclusión: El centro de datos para IA del futuro no solo dependerá de la última generación de GPUs o redes ultrarrápidas. Será una infraestructura donde cada vatio cuente, donde el diseño térmico, la eficiencia energética y la escalabilidad sean tan importantes como el poder de cálculo. El éxito en la carrera por la supremacía en inteligencia artificial dependerá tanto de la capacidad de innovar como de la de construir de forma sostenible.
vía: w.media