La carrera por la computación para Inteligencia Artificial ya no se libra solo en tierra, entre fábricas de chips, redes de fibra y megacentros de datos. Una nueva generación de compañías está intentando abrir otro frente: la órbita baja. En ese contexto, la startup Starcloud ha puesto sobre la mesa un plan tan llamativo como difícil de ejecutar: desplegar hardware de AWS Outposts en el espacio y, a largo plazo, construir una constelación de hasta 88.000 satélites orientados a cargas de computación.
El anuncio no se interpreta como un simple experimento “curioso”. Es, más bien, otro síntoma de un mercado en el que el cuello de botella ya no es únicamente la potencia de cálculo, sino cómo y dónde se alimenta, se refrigera y se escala esa potencia sin que la infraestructura terrestre (energía, permisos, suelo, agua, redes) se convierta en la limitación real. La promesa de la computación orbital intenta explotar ventajas físicas evidentes —energía solar disponible durante gran parte del tiempo y refrigeración por radiación—, aunque el salto desde una demostración a una flota masiva está lleno de incógnitas técnicas, económicas y regulatorias.
¿Qué pinta AWS Outposts en una historia de satélites?
AWS Outposts es, en esencia, AWS “en tu casa”: racks/servidores gestionados por Amazon Web Services para ejecutar servicios y cargas cerca del dato, con una experiencia operativa similar a la nube, pero en entornos on-premise o edge. Tradicionalmente, su encaje se ha vendido en escenarios como baja latencia, residencia de datos, integración con sistemas locales o plantas industriales.
La lectura estratégica de “Outposts en órbita” es clara: si la computación se mueve hacia el borde (edge), el borde puede terminar siendo… literalmente, el espacio. Para workloads que generan datos lejos de un centro de datos (observación terrestre, sensores, comunicaciones, analítica distribuida), procesar “arriba” reduce el volumen a bajar a tierra y puede acelerar decisiones. Dicho de otro modo: menos “transportar datos”, más “transportar resultados”.
Además, Outposts no es un producto estático. AWS ha ido actualizando la plataforma y su hardware para seguir el ritmo de sus instancias y de las necesidades de los entornos empresariales, un detalle relevante si una compañía pretende basarse en esa línea de producto para montar una capa de computación fuera del planeta.
De la demo con GPUs “de centro de datos” al sueño orbital
Starcloud no llega a esta idea desde cero. La compañía (con historia reciente ligada a la idea de “data centers en el espacio”) ha buscado validar, paso a paso, que puede operar computación de alto rendimiento en condiciones orbitales. En noviembre de 2025, lanzó un primer satélite con una GPU NVIDIA H100, y posteriormente comunicó pruebas de ejecución de modelos de lenguaje en ese entorno, usando una GPU de clase “data center” en órbita. Ese tipo de hitos se utilizan para demostrar viabilidad básica (energía, disipación térmica, telemetría, estabilidad), aunque no responden todavía a la pregunta clave: si el modelo puede escalar con fiabilidad, costes aceptables y mantenimiento sostenible.
La ambición declarada de una constelación de hasta 88.000 satélites eleva la conversación desde el laboratorio a la industria pesada: diseño y fabricación a escala, logística de lanzamientos, gestión de espectro, operación continua, reemplazos, degradación por radiación, y, sobre todo, el impacto en congestión orbital y normas de sostenibilidad espacial.
Por qué la idea seduce… y por qué asusta
La computación orbital “vende” bien sobre el papel por tres razones:
- Energía: la alimentación es el gran condicionante de la IA. En tierra, el acceso a potencia eléctrica y subestaciones se ha convertido en un freno para nuevos despliegues. En órbita, la energía solar y el dimensionamiento de paneles abren otro enfoque, aunque con límites prácticos y costes.
- Refrigeración: los centros de datos se están rediseñando por densidades y por refrigeración líquida. En el espacio, la disipación no funciona como en la Tierra, pero la radiación térmica y el diseño del satélite permiten plantear estrategias distintas.
- Edge real: si el dato nace en el espacio (sensores, observación, telecomunicaciones), procesarlo cerca reduce latencias de ida y vuelta y minimiza downlink.
Pero los riesgos son igual de evidentes:
- Fiabilidad y mantenimiento: un centro de datos terrestre se visita, se repara y se actualiza. En órbita, el mantenimiento físico es excepcional y caro. Todo tiene que diseñarse para fallar menos… y para reemplazarse más.
- Seguridad y cadena de confianza: si se ejecutan cargas sensibles, la seguridad no es solo “cifrado y acceso”, sino también confianza en firmware, arranque seguro, telemetría y aislamiento de tenants. La superficie de ataque cambia cuando el nodo está a cientos de kilómetros y depende de enlaces RF.
- Red y latencia: llevar computación al espacio no elimina la física. Hay enlaces, ventanas de cobertura, handovers y dependencia de estaciones terrestres. La experiencia puede ser excelente para ciertos patrones de trabajo… e inviable para otros.
- Regulación: desplegar decenas de miles de satélites implica licencias, coordinación internacional y cumplimiento de condiciones de operación. Y, cada vez más, debate público sobre basura espacial y congestión.
Lo que esta tendencia puede cambiar en el sector
Aunque la idea de “centros de datos en órbita” suene futurista, su valor como señal de mercado es inmediato: el crecimiento de la IA está empujando a explorar cualquier ventaja física o geográfica que reduzca el coste marginal de computación, energía y refrigeración.
Para el mundo sysadmin y dev, el interés está en la consecuencia: si una capa de computación estandarizada (tipo Outposts) se vuelve ubicua, el despliegue de aplicaciones podría acabar extendiéndose a ubicaciones que hoy se consideran extremas. Eso obligará a repensar observabilidad, actualización segura, modelos de fallo, y un enfoque más estricto de “infraestructura inmutable” y “zero trust”, porque los entornos no serán “tu rack en tu sala”, sino nodos remotos con conectividad variable.
El anuncio de Starcloud, por tanto, no se lee únicamente como una anécdota espacial. Es un intento de reescribir dónde puede vivir el “edge” cuando el planeta empieza a quedarse pequeño para la demanda de computación.
Preguntas frecuentes
¿Qué es AWS Outposts y para qué se usa normalmente en empresas?
Es hardware gestionado por AWS (racks/servidores) para ejecutar servicios y cargas con experiencia AWS en entornos on-premise o edge. Se suele usar por baja latencia, residencia del dato, integración con sistemas locales y operación consistente entre nube y CPD.
¿Qué casos de uso reales tendría la computación en órbita para Inteligencia Artificial?
Procesado de datos cerca de su origen (observación terrestre, sensores, telecomunicaciones), filtrado/compresión antes de bajar a tierra, inferencia distribuida y analítica donde el cuello de botella es el enlace y no el cálculo.
¿Cuáles son los mayores retos técnicos de un “data center satelital”?
Fiabilidad sin mantenimiento regular, resistencia a radiación, gestión térmica específica, seguridad del arranque y firmware, conectividad intermitente y operación a escala (monitorización, actualizaciones, reemplazos).
¿Puede esto sustituir a los centros de datos en tierra?
A corto y medio plazo, no. Es más plausible como complemento para nichos de edge extremo o para cargas con ventajas claras al procesar en órbita. El grueso del cómputo seguirá donde la energía, la red y la logística sean más eficientes.
vía: LinkedIN