En una nueva demostración de liderazgo en infraestructura de inteligencia artificial, CoreWeave (Nasdaq: CRWV) se ha convertido en el primer proveedor cloud del mundo en desplegar la plataforma NVIDIA GB300 NVL72, una solución a escala rack que integra las nuevas GPU Blackwell Ultra. El movimiento posiciona a CoreWeave a la vanguardia del cómputo acelerado, superando a rivales como AWS, Google Cloud y Microsoft Azure, en el acceso a la tecnología más puntera para cargas de IA generativa, inferencia de agentes y razonamiento multimodal.
Un salto de rendimiento sin precedentes
La GB300 NVL72 representa un avance significativo en la evolución de la arquitectura Blackwell de NVIDIA. Sus cifras impresionan:
- Hasta 10× más velocidad de respuesta para agentes conversacionales.
- 5× más rendimiento por vatio respecto a Hopper (H100).
- 50× más throughput de inferencia para modelos de razonamiento.
Cada sistema NVL72 contiene:
- 72 GPUs NVIDIA Blackwell Ultra (GB200) con inferencia FP4 y entrenamiento FP8.
- 36 CPUs Grace (basadas en ARM Neoverse) para tareas de control y cómputo general.
- 36 DPUs BlueField-3, con capacidades de red y seguridad avanzadas.
- Una interconexión de 14,4 GB/s por GPU con NVLink y NVSwitch.
La capacidad de inferencia alcanza 1,1 exaFLOPS FP4 por rack, lo que lo convierte en uno de los sistemas más potentes disponibles públicamente. En comparación, el sistema DGX GH200 presentado por NVIDIA en 2024 ofrece 8 TB de memoria compartida, pero a un coste energético mayor y con menor integración rack-a-rack.
Comparativa con otros hyperscalers
Proveedor | GPU de referencia | Año | Capacidad Inferencia (FP4) | Tiempo Llama 3 (405B) | Refrigeración |
---|---|---|---|---|---|
CoreWeave | GB300 NVL72 (72x B200 Ultra) | 2025 | 1,1 exaFLOPS/rack | 27,3 min | Líquida personalizada |
AWS (Trainium2) | Trn2 Accelerator | 2024 | 0,3 exaFLOPS estimado | ~55 min | Aire (standard) |
Microsoft Azure | ND MI300x v5 (AMD) | 2024 | 0,8 exaFLOPS/rack (FP8) | ~33 min | Líquida por inmersión |
Google Cloud | TPU v5p | 2024 | 0,5 exaFLOPS (bfloat16) | ~45 min | Refrigeración líquida |
CoreWeave no solo supera a sus competidores en potencia bruta, sino también en eficiencia energética y rapidez de despliegue. Mientras AWS y Microsoft avanzan en colaboración con AMD y chips personalizados, CoreWeave se mantiene fiel a NVIDIA y ha logrado ser el primero en llevar GB300 NVL72 a disponibilidad general para clientes.
Ecosistema completo: software, visibilidad y DevOps
Más allá del hardware, CoreWeave ha integrado esta nueva plataforma con su pila de software cloud-native:
- CoreWeave Kubernetes Service (CKS): para gestionar contenedores en entornos de IA.
- Slurm on Kubernetes (SUNK): ideal para cargas HPC y de entrenamiento masivo.
- Rack Lifecycle Controller (RLCC): para gestionar mantenimiento, energía y alertas por rack.
- Integración con Weights & Biases: monitorización detallada de hardware y salud de clústeres.
Todo esto garantiza que los ingenieros de IA puedan escalar y ajustar sus modelos con una visibilidad sin precedentes sobre cada GPU, rack o región.
Reconocimientos y expansión
En junio, CoreWeave marcó otro hito: el entrenamiento del modelo Llama 3.1 con 405.000 millones de parámetros en solo 27,3 minutos usando 2.500 superchips GB200. Esta hazaña en MLPerf Training v5.0 fue desarrollada junto a NVIDIA e IBM, consolidando su posición de referencia en la computación de IA.
Además, CoreWeave ha sido el único proveedor con certificación Platinum en el sistema ClusterMAX™ de SemiAnalysis, una métrica que evalúa eficiencia, disponibilidad y escalabilidad de nubes para IA.
Comentario experto
“El despliegue de los sistemas GB300 NVL72 demuestra que estamos entrando en una nueva era de infraestructura cloud, donde el rendimiento por vatio y la capacidad de escalar agentes autónomos es clave. La integración entre hardware extremo, software nativo y observabilidad es lo que diferencia a CoreWeave en esta carrera”, afirma David Carrero, cofundador de Stackscale y experto en infraestructura cloud y bare-metal en Europa.
Una apuesta por el futuro del cómputo
Con este despliegue, CoreWeave no solo lanza el hardware más potente del momento, sino que reafirma su estrategia: ofrecer a laboratorios, startups y empresas de IA un entorno optimizado, escalable y listo para la próxima generación de modelos fundacionales.
La compañía prevé continuar expandiendo estos sistemas a sus centros de datos en Norteamérica y Europa durante el segundo semestre de 2025. En un entorno donde cada segundo y cada vatio cuentan, CoreWeave parece llevar la delantera.
Fuentes: Barron’s, PC Gamer, NVIDIA, CoreWeave, MLPerf, NetworkWorld, SemiAnalysis.