En un movimiento que promete impulsar significativamente el desarrollo y la adopción de la inteligencia artificial (IA) generativa, Google Cloud y NVIDIA anunciaron hoy una profundización de su asociación. El objetivo es brindar a la comunidad de aprendizaje automático (ML) la tecnología que acelere sus esfuerzos para construir, escalar y administrar fácilmente aplicaciones de IA generativa.
Como parte de este acuerdo ampliado, Google anunció que adoptará la nueva plataforma informática NVIDIA Grace Blackwell AI, así como el servicio NVIDIA DGX Cloud en Google Cloud. Además, la plataforma DGX™ Cloud con tecnología NVIDIA H100 ya está disponible de forma general en Google Cloud.
Aprovechando su reciente colaboración para optimizar la familia de modelos abiertos Gemma, Google también adoptará los microservicios de inferencia NVIDIA NIM para proporcionar a los desarrolladores una plataforma abierta y flexible para entrenar e implementar usando sus herramientas y marcos preferidos. Las compañías también anunciaron soporte para JAX en GPU de NVIDIA e instancias de Vertex AI con tecnología de GPU NVIDIA H100 y L4 Tensor Core.
«La fortaleza de nuestra duradera asociación con NVIDIA comienza a nivel de hardware y se extiende a lo largo de nuestro portafolio, desde aceleradores GPU de última generación, hasta el ecosistema de software y nuestra plataforma administrada Vertex AI», dijo el CEO de Google Cloud, Thomas Kurian. «Junto con NVIDIA, nuestro equipo se compromete a proporcionar una plataforma de IA altamente accesible, abierta e integral para los desarrolladores de ML».
Por su parte, Jensen Huang, fundador y CEO de NVIDIA, señaló: «Las empresas están buscando soluciones que les permitan aprovechar al máximo la IA generativa en semanas y meses en lugar de años. Con ofertas de infraestructura ampliadas y nuevas integraciones con la pila completa de IA de NVIDIA, Google Cloud continúa brindando a los clientes una plataforma abierta y flexible para escalar fácilmente las aplicaciones de IA generativa».
Las nuevas integraciones entre NVIDIA y Google Cloud se basan en el compromiso de larga data de las compañías de proporcionar a la comunidad de IA capacidades líderes en cada capa de la pila de IA. Los componentes clave de la expansión de la asociación incluyen:
- Adopción de NVIDIA Grace Blackwell: la nueva plataforma Grace Blackwell permite a las organizaciones construir y ejecutar inferencia en tiempo real en grandes modelos de lenguaje de billones de parámetros. Google está adoptando la plataforma para varios despliegues internos y será uno de los primeros proveedores de nube en ofrecer instancias con tecnología Blackwell.
- DGX Cloud con tecnología Grace Blackwell llegará a Google Cloud: Google traerá sistemas NVIDIA GB200 NVL72, que combinan 72 GPU Blackwell y 36 CPU Grace interconectadas por NVLink® de quinta generación, a su infraestructura en la nube altamente escalable y de alto rendimiento. Diseñados para un entrenamiento e inferencia energéticamente eficientes en una era de LLM de billones de parámetros, los sistemas NVIDIA GB200 NVL72 estarán disponibles a través de DGX Cloud, una plataforma de IA que ofrece una experiencia sin servidor para desarrolladores empresariales que construyen y sirven LLM. DGX Cloud ya está disponible de forma general en instancias de VM A3 de Google Cloud con GPU NVIDIA H100 Tensor Core.
- Soporte para JAX en GPU: Google Cloud y NVIDIA colaboraron para llevar las ventajas de JAX a las GPU de NVIDIA, ampliando el acceso al entrenamiento de LLM a gran escala entre la comunidad de ML más amplia. JAX es un marco para el aprendizaje automático de alto rendimiento que está orientado al compilador y es nativo de Python, lo que lo convierte en uno de los marcos más fáciles de usar y de mayor rendimiento para el entrenamiento de LLM. Los profesionales de la IA ahora pueden usar JAX con GPU NVIDIA H100 en Google Cloud a través de MaxText y Accelerated Processing Kit (XPK).
- NVIDIA NIM en Google KubernetesKubernetes (referido en inglés comúnmente como “K8s”) ... Engine (GKE): los microservicios de inferencia NVIDIA NIM, parte de la plataforma de software NVIDIA AI Enterprise, se integrarán en GKE. Basado en motores de inferencia que incluyen TensorRT-LLM™, NIM ayuda a acelerar la implementación de IA generativa en empresas, admite una amplia gama de modelos líderes de IA y garantiza una inferencia de IA perfecta y escalable.
- Soporte para NVIDIA NeMo: Google Cloud ha facilitado la implementación del marco NVIDIA NeMo™ en su plataforma a través de Google Kubernetes Engine (GKE) y Google Cloud HPC Toolkit. Esto permite a los desarrolladores automatizar y escalar el entrenamiento y el servicio de modelos de IA generativa, y les permite implementar rápidamente entornos llave en mano a través de planos personalizables que inician el proceso de desarrollo. NVIDIA NeMo, parte de NVIDIA AI Enterprise, también está disponible en Google Marketplace, brindando a los clientes otra forma de acceder fácilmente a NeMo y otros marcos para acelerar el desarrollo de IA.
- Vertex AI y Dataflow amplían el soporte para GPU de NVIDIA: para avanzar en la ciencia de datos y el análisis, Vertex AI ahora admite VM A3 de Google Cloud con tecnología de GPU NVIDIA H100 y VM G2 con tecnología de GPU NVIDIA L4 Tensor Core. Esto proporciona a los equipos de MLOps infraestructura y herramientas escalables para administrar e implementar aplicaciones de IA con confianza. Dataflow también ha ampliado el soporte para el procesamiento de datos acelerado en GPU de NVIDIA.
Google Cloud ha ofrecido durante mucho tiempo instancias de VM de GPU con tecnología de hardware de vanguardia de NVIDIA junto con innovaciones líderes de Google. Las GPU de NVIDIA son un componente central de Google Cloud AI Hypercomputer, una arquitectura de supercomputación que unifica hardware optimizado para el rendimiento, software abierto y modelos de consumo flexibles. La asociación holística permite a los investigadores, científicos y desarrolladores de IA entrenar, ajustar y servir los modelos de IA más grandes y sofisticados, ahora con aún más de sus herramientas y marcos favoritos optimizados conjuntamente y disponibles en Google Cloud.
Clientes como Runway, Palo Alto Networks y Writer ya están aprovechando los beneficios de esta asociación ampliada para impulsar sus plataformas y flujos de trabajo de IA. Con un rendimiento significativamente mejorado, costos reducidos y la capacidad de escalar a miles de GPU en una sola estructura, las empresas pueden ofrecer modelos de la más alta calidad que superan a los de compañías con equipos más grandes y presupuestos mayores.
En resumen, la expansión de la asociación entre Google Cloud y NVIDIA marca un hito importante en el avance de la IA generativa. Al brindar a los desarrolladores una plataforma abierta y flexible con las últimas innovaciones en hardware y software, las compañías están allanando el camino para una adopción más amplia de aplicaciones de IA transformadoras en las empresas.