Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

GMI Cloud se une a DGX Cloud Lepton de NVIDIA para impulsar la próxima generación de inteligencia artificial

La compañía estadounidense ofrecerá clústeres GPU Blackwell y soporte global en la nueva plataforma de computación distribuida para desarrolladores de IA

La empresa GMI Cloud, especializada en infraestructura GPU como servicio (GPU-as-a-Service), ha anunciado su participación como uno de los primeros proveedores en integrarse con DGX Cloud Lepton, la nueva plataforma lanzada por NVIDIA para facilitar el acceso global a recursos de computación de alto rendimiento orientados a inteligencia artificial.

Con sede en Mountain View, California, GMI Cloud aporta a esta colaboración su infraestructura de GPU de última generación, que incluye clústeres con las nuevas GPUs NVIDIA Blackwell, optimizadas para cargas de trabajo de IA a gran escala, desde inferencia en tiempo real hasta entrenamientos prolongados bajo requisitos de soberanía digital.


¿Qué es DGX Cloud Lepton?

Presentado durante el marco del Computex 2025, DGX Cloud Lepton es una iniciativa de NVIDIA que busca resolver uno de los principales retos de los desarrolladores de IA: el acceso unificado, escalable y fiable a recursos GPU de alto rendimiento. A través de esta plataforma, los desarrolladores podrán acceder a capacidades distribuidas en todo el mundo para prototipar, entrenar, escalar e implementar modelos de IA sin restricciones.

La plataforma está integrada de forma nativa con herramientas clave del ecosistema de NVIDIA como:

  • NVIDIA NIM microservices
  • NVIDIA NeMo (modelos fundacionales y LLMs)
  • NVIDIA Blueprints (plantillas de IA empresarial)
  • NVIDIA Cloud Functions

La propuesta de GMI Cloud en el ecosistema Lepton

Como parte del lanzamiento de DGX Cloud Lepton, GMI Cloud pone a disposición de los desarrolladores clústeres de 16 nodos con GPUs Blackwell y soporte multirregional. Sus aportaciones clave incluyen:

  • Acceso directo a infraestructura GPU optimizada para coste, rendimiento y escalabilidad.
  • Disponibilidad regional estratégica, pensada para cumplir requisitos normativos y de baja latencia.
  • Infraestructura propietaria de pila completa, que permite ofrecer precios competitivos y despliegues rápidos.
  • Toolchain avanzada y despliegues acelerados, gracias a la integración con el stack completo de software de NVIDIA.

Alex Yeh, CEO de GMI Cloud, declaró:

“DGX Cloud Lepton refleja todo en lo que creemos: velocidad, soberanía y escalabilidad sin compromiso. Construimos nuestra infraestructura desde el silicio hasta la nube para que los desarrolladores puedan construir IA sin límites.”


Implicaciones para el ecosistema de IA

La colaboración entre GMI Cloud y NVIDIA refuerza una tendencia creciente: la necesidad de entornos de computación distribuidos y accesibles que reduzcan las barreras para el desarrollo de IA generativa, agentes autónomos e inferencia a escala.

Con esta alianza, GMI Cloud se posiciona como una alternativa sólida para equipos de IA que necesitan control total sobre costes, latencia y rendimiento, sin depender exclusivamente de hiperescaladores tradicionales.


GMI Cloud se presenta como un actor clave en la nueva era de infraestructura para IA, integrando potencia, soberanía y velocidad en una misma plataforma distribuida.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO