Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

CoreWeave marca un hito con la NVIDIA GB300 NVL72: primera nube en desplegar la plataforma Blackwell Ultra a escala rack

En una nueva demostración de liderazgo en infraestructura de inteligencia artificial, CoreWeave (Nasdaq: CRWV) se ha convertido en el primer proveedor cloud del mundo en desplegar la plataforma NVIDIA GB300 NVL72, una solución a escala rack que integra las nuevas GPU Blackwell Ultra. El movimiento posiciona a CoreWeave a la vanguardia del cómputo acelerado, superando a rivales como AWS, Google Cloud y Microsoft Azure, en el acceso a la tecnología más puntera para cargas de IA generativa, inferencia de agentes y razonamiento multimodal.

Un salto de rendimiento sin precedentes

La GB300 NVL72 representa un avance significativo en la evolución de la arquitectura Blackwell de NVIDIA. Sus cifras impresionan:

  • Hasta 10× más velocidad de respuesta para agentes conversacionales.
  • 5× más rendimiento por vatio respecto a Hopper (H100).
  • 50× más throughput de inferencia para modelos de razonamiento.

Cada sistema NVL72 contiene:

  • 72 GPUs NVIDIA Blackwell Ultra (GB200) con inferencia FP4 y entrenamiento FP8.
  • 36 CPUs Grace (basadas en ARM Neoverse) para tareas de control y cómputo general.
  • 36 DPUs BlueField-3, con capacidades de red y seguridad avanzadas.
  • Una interconexión de 14,4 GB/s por GPU con NVLink y NVSwitch.

La capacidad de inferencia alcanza 1,1 exaFLOPS FP4 por rack, lo que lo convierte en uno de los sistemas más potentes disponibles públicamente. En comparación, el sistema DGX GH200 presentado por NVIDIA en 2024 ofrece 8 TB de memoria compartida, pero a un coste energético mayor y con menor integración rack-a-rack.

Comparativa con otros hyperscalers

ProveedorGPU de referenciaAñoCapacidad Inferencia (FP4)Tiempo Llama 3 (405B)Refrigeración
CoreWeaveGB300 NVL72 (72x B200 Ultra)20251,1 exaFLOPS/rack27,3 minLíquida personalizada
AWS (Trainium2)Trn2 Accelerator20240,3 exaFLOPS estimado~55 minAire (standard)
Microsoft AzureND MI300x v5 (AMD)20240,8 exaFLOPS/rack (FP8)~33 minLíquida por inmersión
Google CloudTPU v5p20240,5 exaFLOPS (bfloat16)~45 minRefrigeración líquida

CoreWeave no solo supera a sus competidores en potencia bruta, sino también en eficiencia energética y rapidez de despliegue. Mientras AWS y Microsoft avanzan en colaboración con AMD y chips personalizados, CoreWeave se mantiene fiel a NVIDIA y ha logrado ser el primero en llevar GB300 NVL72 a disponibilidad general para clientes.

Ecosistema completo: software, visibilidad y DevOps

Más allá del hardware, CoreWeave ha integrado esta nueva plataforma con su pila de software cloud-native:

  • CoreWeave Kubernetes Service (CKS): para gestionar contenedores en entornos de IA.
  • Slurm on Kubernetes (SUNK): ideal para cargas HPC y de entrenamiento masivo.
  • Rack Lifecycle Controller (RLCC): para gestionar mantenimiento, energía y alertas por rack.
  • Integración con Weights & Biases: monitorización detallada de hardware y salud de clústeres.

Todo esto garantiza que los ingenieros de IA puedan escalar y ajustar sus modelos con una visibilidad sin precedentes sobre cada GPU, rack o región.

Reconocimientos y expansión

En junio, CoreWeave marcó otro hito: el entrenamiento del modelo Llama 3.1 con 405.000 millones de parámetros en solo 27,3 minutos usando 2.500 superchips GB200. Esta hazaña en MLPerf Training v5.0 fue desarrollada junto a NVIDIA e IBM, consolidando su posición de referencia en la computación de IA.

Además, CoreWeave ha sido el único proveedor con certificación Platinum en el sistema ClusterMAX™ de SemiAnalysis, una métrica que evalúa eficiencia, disponibilidad y escalabilidad de nubes para IA.

Comentario experto

“El despliegue de los sistemas GB300 NVL72 demuestra que estamos entrando en una nueva era de infraestructura cloud, donde el rendimiento por vatio y la capacidad de escalar agentes autónomos es clave. La integración entre hardware extremo, software nativo y observabilidad es lo que diferencia a CoreWeave en esta carrera”, afirma David Carrero, cofundador de Stackscale y experto en infraestructura cloud y bare-metal en Europa.

Una apuesta por el futuro del cómputo

Con este despliegue, CoreWeave no solo lanza el hardware más potente del momento, sino que reafirma su estrategia: ofrecer a laboratorios, startups y empresas de IA un entorno optimizado, escalable y listo para la próxima generación de modelos fundacionales.

La compañía prevé continuar expandiendo estos sistemas a sus centros de datos en Norteamérica y Europa durante el segundo semestre de 2025. En un entorno donde cada segundo y cada vatio cuentan, CoreWeave parece llevar la delantera.


Fuentes: Barron’s, PC Gamer, NVIDIA, CoreWeave, MLPerf, NetworkWorld, SemiAnalysis.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×