Por qué los centros de datos en el espacio son (hoy) una pésima idea

En los últimos meses se ha puesto de moda una idea tan llamativa como problemática: lanzar centros de datos al espacio para alimentar la revolución de la inteligencia artificial. Sobre el papel suena futurista y elegante: energía solar “infinita”, refrigeración natural en el frío del espacio, cero impacto en la red eléctrica terrestre…

La realidad técnica es justo la contraria. Un exingeniero de la NASA con doctorado en electrónica espacial y exGoogle (donde trabajó precisamente en despliegue de capacidad de IA en la nube) lo ha resumido sin rodeos: es una idea “terrible” que “no tiene ningún sentido” desde el punto de vista de ingeniería.

Y cuando se miran los detalles, cuesta llevarle la contraria.


1. No, en el espacio no hay “energía infinita”

Uno de los argumentos más repetidos es que en el espacio habría energía solar abundante para alimentar GPUs y TPUs sin las limitaciones de la atmósfera terrestre. Pero los números no acompañan.

La mayor instalación solar que hemos desplegado fuera de la Tierra es la de la Estación Espacial Internacional (ISS). Es un sistema gigantesco, del orden de 2.500 m² de paneles, que en condiciones ideales puede entregar algo más de 200 kW de potencia. Montarla requirió varias misiones del transbordador y mucho trabajo en órbita.

Si se toma como referencia una GPU de alto rendimiento como una NVIDIA H200, estamos hablando de unos 0,7 kW de consumo por chip, que en la práctica se acerca a 1 kW por GPU cuando se suman pérdidas y conversión eléctrica. Con ese dato, una “planta solar ISS” en órbita podría alimentar, a lo sumo, unas 200 GPUs.

Puede parecer mucho, hasta que se compara con un centro de datos real: el nuevo megacentro de IA que OpenAI va a desplegar en Noruega apunta a unas 100.000 GPUs. Para igualar solo esa instalación habría que lanzar del orden de 500 satélites del tamaño eléctrico de la ISS. Y eso dejando de lado todo el resto de sistemas de soporte.

La alternativa nuclear tampoco sigue la fantasía sci-fi. No se trata de meter un reactor de central nuclear en órbita, sino de RTGs (generadores termoeléctricos de radioisótopos) como los que alimentan sondas espaciales: típicamente 50–150 W. Ni siquiera suficiente para una sola GPU de última generación, y con el añadido de lanzar repetidamente material radiactivo con riesgo no trivial en caso de fallo del cohete.


2. El mito del “espacio frío” y la realidad de la refrigeración en vacío

Otro tópico: “En el espacio hace frío, así que enfriar servidores será fácil”.
La respuesta corta: no. La respuesta larga: muy no.

En la Tierra los centros de datos aprovechan sobre todo la convección: aire (o líquido) que absorbe el calor y lo lleva a otra parte. Ventiladores, intercambiadores y, cada vez más, refrigeración líquida trasladan el calor desde los chips a sistemas que lo disipan en el entorno.

En el espacio no hay aire, prácticamente hay vacío. Eso significa que la convección desaparece. Sólo quedan dos mecanismos:

  • Conducción: trasladar calor dentro de la propia estructura.
  • Radiación: emitir calor al espacio a través de paneles radiadores.

La ISS utiliza un sistema de control térmico activo con bucles de amoniaco y enormes radiadores. Ese sistema puede disipar unos 16 kW de potencia térmica, suficiente para el equivalente aproximado a 16 GPUs tipo H200. Cada panel de radiador asociado tiene unos 42,5 m² de superficie.

Si se quisiera disipar 200 kW (las mismas 200 GPUs de antes), habría que escalar ese sistema unas 12,5 veces: hablamos de más de 500 m² de radiadores. El resultado sería un satélite enorme, con paneles térmicos que superarían de largo el tamaño de los propios paneles solares necesarios para alimentar el “minicentro de datos”… que, recordemos, equivale apenas a tres racks terrestres estándar.

Y eso suponiendo que se pueda orientar continuamente el radiador “hacia la oscuridad” y gestionar el baile de temperaturas extremo entre la cara al Sol y la cara en sombra. La ingeniería térmica en espacio profundo es un arte complejo incluso para cargas de 1 W; escalarlo a centenares de kilovatios de GPUs es directamente una pesadilla.


3. Radiación: el enemigo invisible de las GPUs

Aunque se resolvieran energía y refrigeración, quedaría otro problema gigante: la radiación espacial.

Fuera de la atmósfera y, según la órbita, dentro o fuera de los cinturones de Van Allen, los sistemas electrónicos están expuestos a un flujo constante de partículas de alta energía procedentes del Sol y del espacio profundo: electrones relativistas, protones y núcleos atómicos que atraviesan el silicio casi a la velocidad de la luz.

Eso provoca varios efectos:

  • SEU (Single Event Upset): partículas que inducen un pulso y cambian bits en memoria o lógica. Dan lugar a errores aleatorios.
  • Latch-up: la partícula dispara un camino de conducción entre las líneas de alimentación dentro del chip, creando un cortocircuito local que puede dañar permanentemente el componente si no se mitiga a tiempo.
  • Efectos de dosis acumulada: el chip va degradándose con el tiempo; los transistores con geometrías tan pequeñas como las de las GPUs modernas se vuelven más lentos e ineficientes, sube el consumo y baja la frecuencia máxima estable.

La solución clásica en misiones espaciales es diseñar electrónica endurecida a la radiación: geometrías más grandes, topologías especiales de puerta, redundancia a nivel de circuito, márgenes de reloj conservadores. El resultado: procesadores que rinden como CPUs de hace 15–20 años, pero sobreviven en órbita durante años.

Intentar llevar una GPU o TPU de vanguardia, con nodos de 5 nm, 4 nm o menos, y gigantescos troqueles de silicio y memoria HBM integrados, es casi la peor combinación posible para radiación: enorme área expuesta, transistores minúsculos y altísima densidad de estado.

Se podría, en teoría, diseñar una “GPU espacial” con nodos más gruesos y técnicas RHBD… pero su rendimiento sería una fracción del que hoy se logra en tierra, justo lo contrario de lo que pretende la fiebre por los centros de datos en órbita.


4. Comunicaciones: un cuello de botella imposible de ignorar

Un centro de datos de IA moderno se apoya en redes internas de 100–400 Gbps por enlace, con mallas de interconexión dedicadas y baja latencia para entrenar modelos distribuidos o servir inferencia a gran escala.

Un satélite típico, en cambio, se comunica por radio con el suelo en orden de 1 Gbps sostenido como cifra razonable. Las comunicaciones ópticas (láser) prometen mucho más ancho de banda, pero dependen de condiciones atmosféricas ideales y tecnología aún emergente para uso masivo.

Aunque se pudiera subir y bajar mucho más datos, la latencia física de estar a cientos o miles de kilómetros de altura —y, sobre todo, la limitación de enlaces en paralelo— convierten la idea de usar un “datacenter en órbita” como parte de una nube comercial de IA en algo muy poco práctico.


5. Costes desorbitados para un rendimiento mediocre

Juntando todas las piezas —energía, refrigeración, radiación, comunicaciones, operación, lanzamientos, reemplazo de hardware— la conclusión económica es clara: lograr en órbita el equivalente a unos pocos racks de GPUs supondría inversiones y riesgos que ni remotamente se justifican frente a construir centros de datos avanzados en la Tierra.

En el mejor de los casos, se obtendría una infraestructura carísima, difícil de mantener, de rendimiento limitado y con una vida útil condicionada por la degradación radiativa y por las inevitables fallas de los lanzadores o de los propios satélites.

Mientras tanto, en la superficie, la industria sigue avanzando en soluciones mucho más sensatas:

  • Centros de datos cerca de fuentes renovables (hidroeléctrica, eólica, nuclear).
  • Refrigeración líquida eficiente y, en algunos casos, inmersión directa.
  • Reutilización del calor residual para calefacción urbana o procesos industriales.
  • Optimización del consumo y de la carga de trabajo de los modelos de IA.

Una buena idea de marketing, una mala idea de ingeniería

¿Se puede, técnicamente, construir un “datacenter espacial”? A base de dinero y cabezas brillantes, casi cualquier cosa es posible. Pero que sea posible no quiere decir que tenga sentido.

En este caso concreto, la comparación honesta con alternativas terrestres deja la idea orbital en lo que es: un espejismo futurista atractivo para titulares y presentaciones, pero profundamente ineficiente y frágil cuando se baja al detalle técnico.

Si algo nos recuerda este debate es una lección sencilla: antes de soñar con nubes literales sobre nuestras cabezas, merece la pena exprimir todo lo que ya sabemos hacer muy bien aquí abajo, en ese planeta donde, por suerte, todavía tenemos atmósfera, gravedad razonable… y centros de datos que no hay que lanzar con cohetes.

vía: taranis.ie

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×