Empresas como Cohere, IBM y Mistral AI ya utilizan los nuevos sistemas NVL72 en la nube para entrenar agentes de IA a gran escala.
CoreWeave se ha convertido en uno de los primeros proveedores de nube en poner en funcionamiento los sistemas NVIDIA GB200 NVL72 a gran escala, dando acceso a miles de GPUs Grace Blackwell a sus clientes. Empresas pioneras en inteligencia artificial como Cohere, IBM y Mistral AI ya están aprovechando esta infraestructura para entrenar y desplegar modelos avanzados de IA con un rendimiento sin precedentes.
Los nuevos sistemas NVL72, diseñados para cargas de trabajo de agentes de IA y razonamiento, ofrecen una arquitectura con 72 GPUs interconectadas mediante NVLink y 36 CPUs Grace, lo que permite un procesamiento masivo de datos con baja latencia, eficiencia energética y escalabilidad sin igual.
Cohere: hasta 3 veces más rendimiento para modelos de 100.000 millones de parámetros
La compañía Cohere, especializada en soluciones de IA empresarial, ya ha comenzado a utilizar estos sistemas para entrenar modelos masivos y desplegar agentes personalizados mediante su plataforma North. Según la empresa, los sistemas NVL72 ofrecen hasta 3 veces más rendimiento que los GPUs Hopper anteriores, incluso antes de aplicar optimizaciones específicas para Blackwell.
Autumn Moulder, vicepresidenta de ingeniería en Cohere, destaca que la integración ha sido sencilla y que la memoria unificada y la precisión FP4 del nuevo sistema están permitiendo inferencias más eficientes y económicas. “Estamos deseando ver aún mayores mejoras con futuras optimizaciones”, afirmó.
IBM: impulsando los modelos Granite con IA segura y eficiente
IBM también ha accedido a miles de GPUs GB200 a través de CoreWeave para acelerar el entrenamiento de su familia de modelos Granite, que serán open source y estarán orientados a aplicaciones empresariales con foco en seguridad, velocidad y coste.
Estos modelos forman la base de soluciones como IBM watsonx Orchestrate, destinadas a la automatización de flujos de trabajo mediante agentes de IA. IBM también está utilizando su sistema de almacenamiento IBM Storage Scale System integrado con la nube de CoreWeave para garantizar un rendimiento de E/S a la altura de estas cargas.
“Esta colaboración con CoreWeave nos permitirá construir modelos de alto rendimiento y bajo coste para la nueva generación de IA empresarial”, señaló Sriram Raghavan, vicepresidente de IA de IBM Research.
Mistral AI: duplicando el rendimiento para modelos open source
La startup francesa Mistral AI, reconocida por sus modelos de código abierto con alto poder de razonamiento, está recibiendo sus primeros mil GPUs GB200 para acelerar el desarrollo de nuevas generaciones de modelos lingüísticos.
Según Thimothee Lacroix, cofundador y CTO de Mistral, “sin optimizaciones adicionales, ya hemos visto una mejora del 2× en el entrenamiento de modelos densos”, lo que abre nuevas posibilidades para escalar sus modelos e inferencias en tiempo real.
CoreWeave y el despliegue masivo de NVIDIA Blackwell
CoreWeave no solo ofrece estas instancias para clientes empresariales a largo plazo, sino que también las pone a disposición de otros usuarios mediante su infraestructura en la nube. Cada instancia incluye NVLink a escala de rack, con redes NVIDIA Quantum-2 InfiniBand, y puede escalar hasta 110.000 GPUs, posicionándose como una de las plataformas más potentes del mundo para el desarrollo de inteligencia artificial.
Este avance marca un nuevo hito en la evolución del cómputo acelerado, permitiendo a las empresas entrenar e implementar modelos de IA cada vez más complejos y potentes, con una eficiencia sin precedentes.
Con esta implementación, CoreWeave y NVIDIA refuerzan su liderazgo en la carrera por habilitar la infraestructura que necesita la inteligencia artificial de próxima generación.
Fuente: Nvidia