VMware vSphere y NVIDIA: Combinación de vGPU y Passthrough es posible

En respuesta a las constantes preguntas de clientes y partners sobre la posibilidad de combinar el uso de GPU virtual (vGPU) y Passthrough (DirectPath I/O) para abordar diferentes GPUs desde distintas VMs, VMware confirma que sí es viable. Sin embargo, la recomendación general es usar estos dos modos de acceso en VMs separadas en uno o más servidores host con dispositivos GPU diferentes.

En el ámbito de la computación intensiva, especialmente en despliegues de machine learning, esta combinación ha generado expectación. Las directrices señalan que, para una flexibilidad máxima, es preferible usar vGPU. Aunque, en ciertos casos, Passthrough podría ser más adecuado.

Si se cuenta con más de una GPU física en un servidor host ESXi, un subconjunto de esas GPUs físicas puede emplearse con la configuración NVIDIA vGPU, mientras que un subconjunto distinto puede utilizarse como GPUs Passthrough. Esta combinación fue una inquietud frecuente en las solicitudes de los clientes.

Para lograr una configuración respaldada por NVIDIA, es esencial usar estos tipos de acceso en VMs distintas y con GPUs físicas separadas. Una VM no debe tener simultáneamente una GPU Passthrough y una vGPU. Aunque es posible cambiar de un modo a otro, requiere apagar la VM y reconfigurarla en el cliente vSphere.

La diferencia clave entre Passthrough y vGPU radica en cómo abordan la GPU:

  1. Passthrough: Proporciona acceso completo de la GPU a una sola VM, minimizando la intervención del hipervisor. Una vez establecido, se instala el Controlador de Centro de Datos NVIDIA en la VM.
  2. vGPU: Ideal para compartir una GPU física entre múltiples VMs, algo que Passthrough no permite. Para habilitar vGPU, se debe configurar el Modo Gráfico del host ESXi al modo SharedPassthru.

La discusión también abordó tres controladores NVIDIA GPU específicos:

  1. Controlador de Centro de Datos NVIDIA: Exclusivo para VM en modo Passthrough.
  2. Controlador Host NVIDIA Virtual GPU (vGPU Manager): Instalado en el hipervisor ESXi, proporciona perfiles vGPU para las VMs.
  3. Controlador NVIDIA vGPU Grid Linux: Instalado en el sistema operativo invitado de una VM, permite el acceso vGPU.

Es vital no confundir el Controlador de Centro de Datos (driver #1) con el Controlador vGPU Grid Linux (driver #3) al configurar una VM para el acceso GPU. Aunque parezcan similares, tienen funciones distintas.

Por último, se abordaron ejemplos en los que varias GPUs operan en un solo host. Es crucial separar las VMs dependiendo de si necesitan vGPU o Passthrough.

Este avance tecnológico presenta una oportunidad significativa para mejorar y diversificar las operaciones en el ámbito de la computación, ofreciendo soluciones más flexibles y optimizadas a los usuarios.

vía: Blog Vmware

×