Red Hat, proveedor líder en soluciones de código abierto, y AMD (NASDAQ: AMD) han anunciado una colaboración estratégica para potenciar las capacidades de inteligencia artificial (IA) y optimizar la infraestructura virtualizada. Esta alianza reforzada permitirá a ambas compañías ofrecer a los clientes más opciones en entornos de nube híbrida, abarcando desde el despliegue de modelos de IA más eficientes hasta la modernización rentable de las máquinas virtuales (VM) tradicionales.
Con el crecimiento de la demanda y la diversidad de tareas impulsadas por la IA, las organizaciones necesitan contar con recursos y capacidades adecuados para afrontar estos nuevos desafíos. Sin embargo, la mayoría de los centros de datos siguen centrados en sistemas de TI tradicionales, lo que limita su capacidad para ejecutar cargas de trabajo intensivas como las asociadas a la IA.
Para abordar este reto, Red Hat y AMD combinan la potencia de las soluciones de código abierto de Red Hat con la amplia cartera de arquitecturas de computación de alto rendimiento de AMD, ofreciendo una propuesta conjunta adaptada a las nuevas necesidades del entorno tecnológico actual.
AMD y Red Hat: Hacia una IA generativa más eficiente
Red Hat y AMD combinan la potencia de Red Hat AI con la oferta de AMD en procesadores basados en x86 y arquitecturas de GPU para dar soporte a entornos optimizados, rentables y listos para la producción de cargas de trabajo habilitadas para IA. Las GPUs AMD Instinct ahora están totalmente habilitadas para Red Hat OpenShift AI, proporcionando a los clientes la potencia de procesamiento de alto rendimiento necesaria para las implantaciones de IA en la nube híbrida sin requisitos elevados de recursos. Además, el uso de GPUs AMD Instinct MI300X con Red Hat Enterprise Linux AI, Red Hat y AMD completaron pruebas en Microsoft Azure ND MI300X v5 para demostrar con éxito la inferencia de IA para escalar modelos de lenguaje pequeños (SLM), así como modelos de lenguaje grandes (LLM) desplegados a través de múltiples GPU en una sola VM, reduciendo la necesidad de desplegar a través de múltiples VM y reduciendo los costes de rendimiento.
Para impulsar aún más la aceleración del rendimiento y las capacidades de adaptación, Red Hat y AMD colaboran en el canal vLLM community para fomentar una inferencia de IA más eficiente. Con esta activación, Red Hat y AMD pretenden ofrecer:
- Rendimiento mejorado con GPUs AMD: Mediante la actualización de la biblioteca del kernel de AMD y la optimización de varios componentes como el kernel Triton y FP8, Red Hat y AMD mejoran el rendimiento de la inferencia tanto para modelos densos como cuantizados, permitiendo una ejecución más rápida y eficiente de vLLM en los aceleradores AMD Instinct MI300X.
- Soporte mejorado multi-GPU: La mejora de la comunicación colectiva y la optimización de las cargas de trabajo multi-GPU abren la puerta a implantaciones de IA más escalables y eficientes desde el punto de vista energético. Esto resulta especialmente beneficioso para tareas que requieren computación distribuida entre varias GPU, lo que reduce los cuellos de botella y mejora el rendimiento general.
- Mayor compromiso con el ecosistema vLLM: La colaboración cruzada entre Red Hat, AMD y otros líderes del sector como IBM ayuda a acelerar el desarrollo ascendente para impulsar mejoras continuas tanto para el proyecto vLLM como para la optimización de la GPU de AMD, lo que beneficia aún más a los usuarios de vLLM que confían en el hardware de AMD para la inferencia y el entrenamiento de IA.
Basándose en esta colaboración con la comunidad vLLM, las GPUs AMD Instinct soportarán Red Hat AI Inference Server, la distribución profesional para vLLM de Red Hat, lista para usar, para un servidor de inferencia de IA potente, fiable y escalable. Como principal colaborador comercial de vLLM, Red Hat se compromete a garantizar la compatibilidad al implantar vLLM en el hardware que elija la organización. Por supuesto, esto incluye las GPU AMD Instinct. La ejecución de vLLM en las GPU AMD Instinct permite a las organizaciones implantar cualquier modelo de IA de código abierto en hardware de GPU validado y probado para obtener una optimización y un rendimiento extraordinarios.
Las CPU AMD EPYC™ también permiten un rendimiento de IA de extremo a extremo y son ideales para alojar sistemas habilitados para GPU. Esto puede ayudar a mejorar el rendimiento y el retorno de la inversión (ROI) de cada servidor GPU incluso para las cargas de trabajo de IA más exigentes.
Transformando el centro de datos moderno
Al optimizar las bases de los centros de datos existentes, las organizaciones pueden reinvertir recursos de forma más eficaz y sencilla para permitir la innovación en IA. Red Hat OpenShift Virtualization, una característica de Red Hat OpenShift, ofrece una ruta simplificada para que las organizaciones migren y gestionen tareas de máquinas virtuales con la sencillez y velocidad de una plataforma de aplicaciones nativa de la nube. Red Hat OpenShift Virtualization está validado para procesadores AMD EPYC capaces de aprovechar el excelente rendimiento y la eficiencia energética de los procesadores AMD EPYC, siempre que sea necesario en la nube híbrida, al tiempo que mantienen un puente hacia un futuro nativo en la nube. Red Hat OpenShift Virtualization en CPU AMD EPYC ayuda a las empresas a optimizar la implementación de aplicaciones en servidores líderes, como los productos Dell PowerEdge, HPE ProLiant y Lenovo ThinkSystem. Al renovar un centro de datos heredado, Red Hat OpenShift Virtualization permite unificar las máquinas virtuales y las aplicaciones en contenedores, en las instalaciones, en nubes públicas o en la nube híbrida. Esto ayuda a permitir altos ratios de consolidación de la infraestructura que pueden conducir a un coste total de propiedad (TCO) significativamente menor en las dimensiones de hardware, licencias de software y energía. Se llega así a la ventaja añadida de permitir a los equipos de TI gestionar de forma más eficaz las cargas de trabajo críticas actuales, al tiempo que se liberan recursos y energía para aplicarlos a las cargas de trabajo de IA ahora y en el futuro.