CoreWeave pone en producción miles de Blackwell y acelera la guerra del cloud de IA

CoreWeave ha dado un paso importante en la carrera por dominar la infraestructura para modelos avanzados de Inteligencia Artificial. La compañía se convirtió en uno de los primeros proveedores cloud en poner en producción a escala sistemas NVIDIA GB200 NVL72 para clientes, con Cohere, IBM y Mistral AI entre los primeros usuarios confirmados. NVIDIA y CoreWeave presentaron este despliegue como el arranque real de una nueva fase: pasar del anuncio de hardware a su uso efectivo para entrenamiento, inferencia y agentes de IA en entornos productivos.

La relevancia del movimiento no está solo en el número de GPU, sino en el tipo de sistema que entra en juego. GB200 NVL72 no es una instancia más dentro del catálogo habitual de aceleradores, sino una plataforma rack-scale que conecta 72 GPU Blackwell y 36 CPU Grace dentro de un mismo dominio NVLink, con redes NVIDIA Quantum-2 InfiniBand para escalar el clúster. CoreWeave ya había sido el primer proveedor cloud en anunciar disponibilidad general de instancias basadas en GB200 NVL72, y ahora el mensaje es que esas máquinas ya no están solo listas sobre el papel: están corriendo cargas reales de algunos de los nombres más visibles del mercado de IA.

No es solo potencia bruta: es la batalla por el rack completo

Durante años, la competencia cloud alrededor de la IA se ha contado sobre todo en número de GPU. Con Grace Blackwell, NVIDIA intenta mover el foco hacia el sistema completo: interconexión, memoria unificada, topología de red, alimentación de datos y capacidad de operar como una sola máquina lógica a escala de rack. CoreWeave, por su parte, intenta posicionarse como el proveedor que llega antes a esa transición y que sabe desplegarla rápido para laboratorios y empresas que no pueden esperar meses a que madure el ecosistema.

Ese posicionamiento tiene una lectura estratégica clara. En la nube de IA ya no basta con ofrecer GPU sueltas o clústeres genéricos. Los clientes más avanzados buscan arquitecturas preparadas para razonamiento, agentes y modelos cada vez más grandes, donde el cuello de botella no está solo en el chip, sino en cómo se comporta todo el sistema cuando miles de aceleradores trabajan juntos. CoreWeave lleva tiempo intentando construir su marca alrededor de esa idea de “AI hyperscaler”, y el despliegue de GB200 NVL72 es, probablemente, una de las piezas más visibles de esa narrativa.

Qué están haciendo Cohere, IBM y Mistral con Blackwell

NVIDIA ha querido acompañar el anuncio con casos de uso concretos, y ahí aparecen tres nombres que ayudan a entender el tipo de clientes que persigue CoreWeave. Cohere está utilizando estos sistemas para desarrollar aplicaciones empresariales seguras y agentes personalizados dentro de su plataforma North. Según NVIDIA, la compañía ya está viendo hasta 3 veces más rendimiento en entrenamiento para modelos de 100.000 millones de parámetros frente a la generación Hopper, incluso sin optimizaciones específicas para Blackwell.

IBM, por su parte, está usando uno de los primeros despliegues de GB200 NVL72 a escala de miles de GPU para entrenar la siguiente generación de modelos Granite, su familia de modelos abiertos y orientados a empresa. La relación con CoreWeave no se limita a la computación: IBM también aporta su Storage Scale System como capa de almacenamiento de alto rendimiento para IA, algo que ya había sido anunciado por ambas compañías en enero de 2025 cuando detallaron el superordenador que CoreWeave iba a entregar a IBM para este fin.

Mistral AI, mientras tanto, ya ha comenzado a recibir su primer millar de GPU Blackwell para acelerar el desarrollo de nuevos modelos abiertos. En el anuncio de NVIDIA, el cofundador y CTO de Mistral, Timothée Lacroix, afirma haber visto una mejora de 2 veces en entrenamiento de modelos densos “nada más sacarlo de la caja”, es decir, sin ajustes adicionales. La compañía francesa ya venía trabajando con CoreWeave, pero esta nueva generación de infraestructura le permite empujar cargas de entrenamiento e inferencia a otra escala.

Tabla: así se reparte el despliegue inicial de GB200 NVL72 en CoreWeave

ClienteUso principalDato destacado
CohereEntrenamiento e inferencia para IA empresarial y agentes con NorthHasta 3x más rendimiento en entrenamiento de modelos de 100.000 millones de parámetros frente a Hopper, según NVIDIA
IBMEntrenamiento de la siguiente generación de GraniteDespliegue a escala de miles de GPU Blackwell y apoyo de IBM Storage Scale System
Mistral AIEntrenamiento y despliegue de nuevos modelos abiertos2x de mejora en entrenamiento de modelos densos sin optimizaciones adicionales, según NVIDIA
CoreWeaveOferta cloud rack-scale para IAInstancias con 72 GPU Blackwell y 36 CPU Grace; escalado de hasta 110.000 GPU con Quantum-2 InfiniBand

Los datos de la tabla no equivalen a benchmarks neutrales entre proveedores, sino a cifras y descripciones publicadas por NVIDIA, CoreWeave e IBM en sus anuncios oficiales. Aun así, sirven para entender bien dónde está la apuesta: menos marketing sobre la promesa futura y más mensajes centrados en workloads reales, clientes concretos y ganancias de rendimiento que ya pueden enseñarse.

El mensaje de fondo: la nube de IA entra en fase industrial

Hay otro matiz que merece atención. CoreWeave no está presentando solo instancias premium para unos pocos clientes, sino una infraestructura que, según su propia documentación, puede escalar hasta 110.000 GPU Blackwell con InfiniBand Quantum-2. En paralelo, la compañía había presumido ya de resultados récord en inferencia con Grace Blackwell dentro de MLPerf, reforzando la idea de que quiere competir no solo por capacidad instalada, sino también por rendimiento medible.

Eso encaja con un cambio más amplio en el mercado. La conversación sobre IA se está desplazando desde “quién tiene acceso a GPU” hacia “quién puede operar fábricas de IA completas”, con racks preintegrados, memoria, red, almacenamiento y software de gestión preparados para poner modelos frontier en producción. NVIDIA habla de “AI factories”, CoreWeave habla de velocidad de despliegue y clientes como IBM, Cohere y Mistral hablan de throughput, coste y tiempo hasta la primera respuesta. Son formas distintas de describir el mismo fenómeno: la IA ya no se está construyendo solo en laboratorios, sino en infraestructura industrial.

La gran incógnita ahora no es si Blackwell va a entrar en la nube, porque eso ya ha ocurrido, sino qué proveedores serán capaces de convertir ese acceso temprano en una ventaja duradera. CoreWeave ha logrado colocarse en primera línea con GB200 NVL72. El reto, a partir de aquí, será sostener esa ventaja cuando el resto del mercado responda con despliegues similares, más capacidad y, previsiblemente, una nueva guerra de precios y rendimiento en la nube de IA.

Preguntas frecuentes

¿Qué es exactamente NVIDIA GB200 NVL72?
Es una plataforma rack-scale de NVIDIA que integra 72 GPU Blackwell y 36 CPU Grace dentro de un mismo sistema conectado por NVLink, pensada para entrenamiento, inferencia, razonamiento y agentes de IA a gran escala.

¿Por qué es importante que CoreWeave la haya puesto en producción?
Porque pasar de la disponibilidad anunciada al uso real por clientes como Cohere, IBM y Mistral demuestra que la plataforma ya está operando con cargas productivas y no solo en pruebas o demostraciones.

¿Qué mejoras han comunicado los primeros clientes?
Cohere habla de hasta 3 veces más rendimiento en entrenamiento frente a Hopper para modelos de 100.000 millones de parámetros, mientras Mistral cita una mejora de 2 veces en entrenamiento de modelos densos sin optimizaciones adicionales. IBM ha destacado la aceleración esperada para su familia Granite.

¿Hasta dónde puede escalar esta infraestructura en CoreWeave?
CoreWeave afirma que sus instancias Blackwell aceleradas por GB200 NVL72 pueden escalar hasta 110.000 GPU con redes NVIDIA Quantum-2 InfiniBand.

vía: blogs.nvidia

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×