NVIDIA redibuja la supercomputación de la era de la IA: de los “AI factories” al superordenador que cabe bajo el árbol de Navidad

La conferencia SC25, celebrada en San Luis (Misuri), ha confirmado algo que muchos en el sector ya intuían: la supercomputación ya no va solo de procesar más rápido, sino de repensar por completo cómo se diseñan y operan los centros de datos en la era de la inteligencia artificial. NVIDIA ha aprovechado el evento para desplegar un auténtico arsenal tecnológico que afecta a todos los niveles de la pila: GPU, CPU, DPUs, redes fotónicas, computación cuántica, eficiencia energética y hasta el sobremesa de los desarrolladores.

El mensaje de fondo es claro: los “AI factories” —fábricas de IA capaces de entrenar y desplegar modelos con billones de parámetros— necesitan una arquitectura coherente, eficiente y cada vez más inteligente. Y NVIDIA quiere ser el sistema operativo de facto de esas fábricas.

SC25 Fireside Chat

DGX Spark: el superordenador que cabe en un escritorio

Una de las estrellas de SC25 ha sido NVIDIA DGX Spark, definido como el “superordenador de IA más pequeño del mundo”. Se trata de un equipo de sobremesa que ofrece 1 petaflop de rendimiento de IA y 128 GB de memoria unificada, suficiente para ejecutar inferencia sobre modelos de hasta 200.000 millones de parámetros y afinar modelos de gran tamaño de forma local.

La máquina está basada en la arquitectura Grace Blackwell, que integra CPU, GPU, red y toda la pila de software de NVIDIA AI en un formato compacto. El resultado es una estación de trabajo para desarrolladores que acerca al escritorio lo que antes exigía un rack completo.

Uno de los puntos clave de DGX Spark es el uso de NVLink-C2C, que proporciona hasta 5 veces más ancho de banda que PCIe Gen5 entre CPU y GPU. Eso se traduce en:

  • Menos cuellos de botella al mover datos entre memoria de CPU y GPU.
  • Inferencias más rápidas y eficientes en modelos gigantes.
  • Flujos de trabajo de fine-tuning y experimentación mucho más ágiles, sin depender siempre del clúster central.

No deja de ser simbólico que Jensen Huang, fundador y CEO de NVIDIA, apareciera por sorpresa en SC25 para regalar varias unidades de DGX Spark y bromear con que “quedarán genial debajo del árbol de Navidad”. Es un gesto, pero también una declaración: la supercomputación de IA ya no es un recurso lejano, sino una herramienta que empieza a bajar al nivel individual del equipo de desarrollo.


BlueField-4: la DPU que actúa como “sistema operativo” de las fábricas de IA

A medida que los clusters de IA crecen, el problema ya no es solo disponer de más GPUs, sino alimentar y orquestar correctamente esos recursos. Ahí entra NVIDIA BlueField-4, la nueva generación de DPUs (Data Processing Units) pensada para convertirse en el procesador que gobierna el “sistema operativo” de los AI factories.

nvidia bluefield 4

BlueField-4 combina:

  • Una CPU NVIDIA Grace de 64 núcleos.
  • NVIDIA ConnectX-9 para redes de alta velocidad.
  • Integración nativa con NVIDIA DOCA, el framework de microservicios para redes, almacenamiento y seguridad.

Su papel es descargar del CPU y de la GPU todas las tareas de infraestructura:

  • Red: tráfico este-oeste masivo, telemetría en tiempo real, virtualización de redes.
  • Almacenamiento: acceso paralelo a datos estructurados, no estructurados y “IA-nativos” (datasets, checkpoints, embeddings…).
  • Seguridad: segmentación, zero-trust, cifrado y aislamiento entre tenants.

Tres grandes actores del almacenamiento para IA y HPC —DDN, VAST Data y WEKA— ya están construyendo sobre BlueField-4 para llevar los servicios de datos lo más cerca posible de las GPUs:

  • DDN quiere maximizar la utilización de GPU acelerando los pipelines de datos para entrenamientos y simulaciones masivas.
  • VAST Data apuesta por mover datos de forma inteligente en tiempo real a través de clusters de IA de gran escala.
  • WEKA lanza su arquitectura NeuralMesh sobre BlueField-4, ejecutando servicios de almacenamiento directamente en la DPU para simplificar y acelerar la infraestructura de IA.

En la práctica, BlueField-4 convierte el almacenamiento y las redes en multiplicadores de rendimiento, en lugar de simples “cuellos de botella” que el hardware de cómputo tiene que esperar.


Redes fotónicas Quantum-X: menos energía, más resiliencia para redes de 800 Gb/s

Si las GPUs son el motor de las fábricas de IA, la red es el sistema circulatorio. Y en redes, NVIDIA ha puesto el foco en dos retos clave: eficiencia energética y fiabilidad.

Los nuevos switches NVIDIA Quantum-X Photonics InfiniBand CPO integran directamente la óptica en el propio conmutador (co-packaged optics), eliminando los clásicos transceptores enchufables, uno de los puntos débiles recurrentes en grandes despliegues.

Según NVIDIA, esta apuesta por la integración óptica ofrece:

  • Hasta 3,5 veces mejor eficiencia energética.
  • 10 veces más resiliencia, reduciendo drásticamente fallos relacionados con enlaces ópticos.
  • Trabajo continuo hasta 5 veces más tiempo sin interrupciones en aplicaciones sensibles.

Centros como TACC (Texas Advanced Computing Center), Lambda y CoreWeave han anunciado que integrarán Quantum-X Photonics en sus próximos sistemas, con el objetivo de soportar cargas de trabajo de IA masiva con menores costes operativos y mayor estabilidad.

Esta línea complementa a los switches NVIDIA Quantum-X800 InfiniBand, capaces de ofrecer 800 Gb/s de throughput de extremo a extremo, con innovaciones como SHARPv4 (reducción en red) y soporte FP8 para entrenar modelos de billones de parámetros reduciendo el tráfico de datos entre nodos.


NVIDIA Apollo y Warp: la física entra en la era de la IA

La supercomputación de la era de la IA no es solo “más GPU”, también es nuevos modelos y frameworks para simular el mundo físico de forma mucho más rápida y precisa.

NVIDIA Apollo: modelos abiertos para IA aplicada a física

En SC25, NVIDIA presentó NVIDIA Apollo, una familia de modelos abiertos para IA de física diseñados para acelerar simulaciones en campos como:

  • Automatización de diseño electrónico y semiconductores.
  • Dinámica de fluidos computacional (CFD).
  • Mecánica estructural y electromagnetismo.
  • Modelización de clima, meteorología y fenómenos complejos.

Apollo combina arquitecturas de machine learning de última generación —neural operators, transformers y métodos de difusión— con conocimiento específico de dominio. NVIDIA proporcionará checkpoints preentrenados y flujos de referencia para entrenamiento, inferencia y benchmarking, de forma que las empresas puedan adaptar los modelos a sus propias necesidades.

Grandes actores industriales como Applied Materials, Cadence, LAM Research, Luminary Cloud, KLA, PhysicsX, Rescale, Siemens o Synopsys ya están incorporando Apollo en sus pipelines de diseño y simulación.

NVIDIA Warp: rendimiento de CUDA con productividad de Python

Complementando esta familia de modelos, NVIDIA Warp se posiciona como un framework Python de código abierto para acelerar física computacional y cargas de trabajo de IA hasta 245 veces en GPU.

Warp permite:

  • Escribir kernels de simulación en Python con una sintaxis de alto nivel.
  • Compilar esos kernels a código CUDA altamente optimizado.
  • Integrar fácilmente las simulaciones con pipelines de PyTorch, JAX, NVIDIA PhysicsNeMo y NVIDIA Omniverse.

Empresas como Siemens, Neural Concept y Luminary Cloud ya lo usan para construir workflows de simulación 3D GPU-acelerados que generan datos a gran escala para entrenar y validar modelos de IA. La idea es clara: bajar la barrera de entrada a la simulación de alto rendimiento para ingenieros y científicos que trabajan en Python, sin obligarles a convertirse en expertos en CUDA.


NVQLink: el puente entre supercomputadores GPU y procesadores cuánticos

Otro de los anuncios con más calado estratégico es NVQLink, un interconect universal que enlaza procesadores cuánticos con GPUs de NVIDIA para construir sistemas híbridos cuántico-clásicos.

infiniband corp blog connectx 9 supernic c9180

NVQLink promete:

  • Hasta 40 petaflops de rendimiento de IA a precisión FP4 en workflows híbridos.
  • Latencias del orden de microsengundos, críticas para aplicaciones de corrección de errores cuánticos y control en tiempo real.
  • Una arquitectura abierta sobre CUDA-Q, de forma que desarrolladores y centros de supercomputación puedan integrar diferentes QPUs bajo un mismo modelo de programación.

El ejemplo más llamativo es el de Quantinuum, cuyo nuevo QPU Helios se ha integrado con GPUs de NVIDIA vía NVQLink para lograr:

  • La primera decodificación en tiempo real de códigos de corrección de errores qLDPC a gran escala.
  • Una fidelidad cercana al 99 %, frente al ~95 % sin corrección.
  • Un tiempo de reacción de 60 microsegundos, 16 veces mejor que el requisito de 1 milisegundo del propio Helios.

Numerosos centros de supercomputación de Europa, EE. UU. y Asia-Pacífico —incluyendo JSC, CINECA, AIST G-QuAT, RIKEN, KISTI, NCHC, Pawsey, así como laboratorios nacionales estadounidenses— ya han anunciado que adoptarán NVQLink para impulsar su investigación en computación cuántica práctica.


Japón, Arm y la batalla por la eficiencia energética

La visión de NVIDIA no se limita al hardware y el software: también abarca la geopolítica de la IA y el gran cuello de botella emergente, la energía.

RIKEN y Japón: IA para ciencia y cuántica soberana

NVIDIA y RIKEN están construyendo dos nuevos superordenadores GPU-acelerados en Japón, con un total de 2.140 GPUs Blackwell conectadas mediante GB200 NVL4 y redes Quantum-X800.

  • Un sistema con 1.600 GPUs estará dedicado a IA para ciencia (vida, materiales, clima, manufactura, automatización de laboratorio).
  • Otro sistema, con 540 GPUs, se centrará en computación cuántica, algoritmos híbridos y simulación.

Estos sistemas complementan el proyecto FugakuNEXT, codesarrollado por RIKEN, Fujitsu y NVIDIA, que aspira a ofrecer 100 veces más rendimiento que el actual Fugaku e integrar ordenadores cuánticos de producción antes de 2030.

Arm + NVLink Fusion: unir CPU y GPU a escala de rack

En paralelo, Arm está adoptando NVIDIA NVLink Fusion, un interconect coherente de alto ancho de banda surgido de Grace Blackwell.

El objetivo es conectar CPUs basadas en Arm Neoverse con GPUs y otros aceleradores en una arquitectura unificada a escala de rack, eliminando cuellos de botella de memoria y ancho de banda que limitan el rendimiento de IA.

Dado que todos los grandes proveedores —AWS, Google, Microsoft, Oracle, Meta— construyen ya sobre Neoverse, la combinación con NVLink Fusion apunta a convertirse en un estándar de facto para infraestructuras de IA eficientes por vatio en los próximos años.


Domain Power Service: la energía como recurso orquestable

Por último, NVIDIA puso sobre la mesa un tema que empieza a preocupar tanto como el rendimiento: cómo alimentar estas fábricas de IA sin reventar la factura eléctrica ni la red.

El nuevo Domain Power Service (DPS) trata la potencia eléctrica como un recurso dinámico que se modela y orquesta igual que se hace hoy con CPU, GPU o memoria. Funciona como un servicio sobre Kubernetes, capaz de:

  • Modelar el consumo desde el nivel de rack hasta toda la instalación.
  • Ajustar de forma inteligente el límite de potencia para extraer más rendimiento por megavatio.
  • Coordinarse con NVIDIA Omniverse DSX Blueprint, Power Reservation Steering y Workload Power Profile dentro de la suite DSX Boost, para equilibrar cargas y eficiencia.

Además, DPS expone APIs hacia la red eléctrica, facilitando mecanismos automáticos de respuesta a la demanda y reducción de carga en momentos de pico. La idea es que los centros de datos de IA dejen de ser un problema para el sistema eléctrico y se conviertan en actores capaces de ayudar a estabilizarlo.


FAQs sobre la nueva era de supercomputación de NVIDIA

1. ¿Qué es NVIDIA DGX Spark y para qué tipo de usuarios está pensado?
DGX Spark es un superordenador de IA en formato sobremesa que ofrece 1 petaflop de rendimiento y 128 GB de memoria unificada. Está pensado para desarrolladores, equipos de investigación y empresas que necesitan experimentar, hacer inferencia y afinar modelos de hasta 200.000 millones de parámetros de forma local, sin depender siempre de un gran clúster central.

2. ¿Qué aporta NVIDIA BlueField-4 DPU a una “fábrica de IA”?
BlueField-4 descarga del CPU y de las GPUs todas las tareas de red, almacenamiento y seguridad, ejecutándolas en una DPU especializada con CPU Grace y networking ConnectX-9. Esto libera recursos de cómputo para el entrenamiento e inferencia de modelos, mejora la seguridad (zero-trust) y permite que proveedores como DDN, VAST Data o WEKA acerquen sus servicios de datos al propio plano de cómputo, reduciendo latencias y aumentando la utilización de GPU.

3. ¿En qué se diferencian los switches NVIDIA Quantum-X Photonics de los switches InfiniBand tradicionales?
Quantum-X Photonics integra la óptica directamente en el conmutador mediante co-packaged optics, eliminando módulos transceptores enchufables. Esto reduce fallos por enlaces ópticos, mejora la eficiencia energética (hasta 3,5 veces) y aumenta la resiliencia (10 veces más), permitiendo que las aplicaciones de IA a gran escala funcionen durante más tiempo sin interrupciones y con menos consumo eléctrico por bit transmitido.

4. ¿Por qué es importante NVQLink para la computación cuántica práctica?
NVQLink actúa como un puente de muy baja latencia entre procesadores cuánticos (QPU) y GPUs, permitiendo implementar corrección de errores en tiempo real y workflows híbridos cuántico-clásicos. El caso de Quantinuum Helios, con decodificación en tiempo real de códigos qLDPC y fidelidad cercana al 99 %, ilustra cómo esta conexión hace viable llevar la computación cuántica desde el laboratorio a aplicaciones científicas e industriales reales.


Fuentes:

  • NVIDIA Blog – “Accelerated Computing, Networking Drive Supercomputing in Age of AI”
  • Comunicaciones y materiales públicos de NVIDIA sobre DGX Spark, BlueField-4, Quantum-X, Apollo, Warp, NVQLink y Domain Power Service

vía: blogs.nvidia

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×