Red Hat optimiza Red Hat AI para acelerar los despliegues de IA empresarial en modelos, aceleradores de IA y nubes

Red Hat sigue trabajando para ofrecer opciones a sus clientes dentro del ámbito de la IA empresarial con la presentación de Red Hat AI Inference Server, los modelos de terceros validados por Red Hat AI y la integración de las API de Llama Stack y el Protocolo de Contexto de Modelos. Mediante estos avances, Red Hat tienen la intención de impulsar las capacidades que las empresas necesitan para acelerar la adopción de la Ia.

Según Forrester, el software de código abierto será el catalizador para acelerar los esfuerzos de IA empresarial1. A medida que el panorama de la IA se vuelve más complejo y dinámico, Red Hat AI Inference Server y los modelos de terceros validados ofrecen una inferencia de modelos eficiente y una colección probada de modelos de IA optimizados para el rendimiento en la plataforma Red Hat AI. Junto con la integración de nuevas API para el desarrollo de agentes de IA generativa, incluyendo Llama Stack y MCP, Red Hat está trabajando para abordar la complejidad del despliegue, capacitando a los líderes de TI, científicos de datos y desarrolladores para acelerar las iniciativas de IA con mayor control y eficiencia.

Inferencia eficiente en la nube híbrida con Red Hat AI Inference Server

El portfolio de Red Hat AI ahora incluye el nuevo Red Hat AI Inference Server, que proporciona una inferencia más rápida, consistente y rentable a escala en entornos de nube híbrida. Esta incorporación clave está integrada en las últimas versiones de Red Hat OpenShift AI y Red Hat Enterprise Linux AI, y también está disponible como una oferta independiente, lo que permite a las organizaciones desplegar aplicaciones inteligentes con mayor eficiencia, flexibilidad y rendimiento.

Modelos probados y optimizados con los modelos de terceros validados por Red Hat AI

Los modelos de terceros validados por Red Hat AI, disponibles en Hugging Face, facilitan a las empresas encontrar los modelos adecuados para sus necesidades específicas. Red Hat AI ofrece una colección de modelos validados, así como guías de despliegue para aumentar la confianza del cliente en el rendimiento del modelo y la reproducibilidad de los resultados. Algunos modelos también están optimizados por Red Hat, aprovechando técnicas de compresión de modelos para reducir el tamaño y aumentar la velocidad de inferencia, lo que ayuda a minimizar el consumo de recursos y los costes operativos. Además, el proceso continuo de validación de modelos ayuda a los clientes de Red Hat AI a mantenerse a la vanguardia de la innovación en IA generativa optimizada.

APIs estandarizadas para el desarrollo de aplicaciones y agentes de IA con Llama Stack y MCP

Red Hat AI está integrando Llama Stack, desarrollado inicialmente por Meta, junto con MCP de Anthropic, para proporcionar a los usuarios APIs estandarizadas para la creación y despliegues de aplicaciones y agentes de IA. Llama Stack, actualmente disponible en versión preliminar para desarrolladores en Red Hat AI, ofrece una API unificada para acceder a la inferencia con vLLM, la generación aumentada por recuperación (RAG), la evaluación de modelos, las barreras de seguridad y los agentes, en cualquier modelo de IA generativa. MCP permite a los modelos integrarse con herramientas externas al proporcionar una interfaz estandarizada para conectar APIs, plugins y fuentes de datos en los flujos de trabajo de los agentes.

La última versión de Red Hat OpenShift AI (v2.20) ofrece mejoras adicionales para la creación, entrenamiento, despliegue y monitorización a escala tanto de modelos de IA generativa como de IA predictiva. Estas incluyen:

  • Catálogo de modelos optimizado (vista previa tecnológica): Proporciona un acceso sencillo a los modelos validados de Red Hat y de terceros, permite su despliegue en clústeres de Red Hat OpenShift AI a través de la interfaz de la consola web y gestiona el ciclo de vida de esos modelos aprovechando el registro integrado de Red Hat OpenShift AI.
  • Entrenamiento distribuido a través del KubeFlow Training Operator: Permite programar y ejecutar del ajuste de modelos InstructLab y otras cargas de trabajo de entrenamiento y ajuste basadas en PyTorch, distribuidas en múltiples nodos y GPUs de Red Hat OpenShift, e incluye la aceleración de redes RDMA distribuidas y la utilización optimizada de la GPU para reducir los costes.
  • Almacén de características (vista previa tecnológica): Basado en el proyecto de comunidad Kubeflow Feast, proporciona un repositorio centralizado para la gestión y el servicio de datos tanto para el entrenamiento como para la inferencia de modelos, agilizando los flujos de trabajo de datos para mejorar la precisión y la reutilización de los modelos.

Red Hat Enterprise Linux AI 1.5 introduce nuevas actualizaciones a la plataforma de modelos fundacionales de Red Hat para desarrollar, probar y ejecutar grandes modelos de lenguaje (LLM). Las características clave de la versión 1.5 incluyen:

  • Disponibilidad en Google Cloud Marketplace: Amplía las opciones para que los clientes ejecuten Red Hat Enterprise Linux AI en entornos de nube pública (junto con AWS y Azure), simplificando el despliegue y la gestión de cargas de trabajo de IA en Google Cloud.
  • Capacidades multilingües mejoradas para español, alemán, francés e italiano a través de InstructLab: Permite la personalización de modelos utilizando scripts nativos y desbloquea nuevas posibilidades para aplicaciones de IA multilingües. Los usuarios también pueden aportar sus propios modelos de «profesor» para tener un mayor control sobre la personalización y las pruebas de los modelos para casos de uso e idiomas específicos, con soporte futuro previsto para japonés, hindi y coreano.

El servicio Red Hat AI InstructLab en IBM Cloud también está ahora disponible de forma general. Este nuevo servicio en la nube agiliza más el proceso de personalización de modelos, mejorando la escalabilidad y la experiencia del usuario, lo que permite a las empresas aprovechar sus datos únicos con mayor facilidad y control.

La visión de Red Hat: cualquier modelo, cualquier acelerador, cualquier nube

El futuro de la IA debe estar definido por oportunidades ilimitadas, y no por las limitaciones impuestas por los silos de infraestructura. Red Hat ve un futuro donde las organizaciones pueden desplegar cualquier modelo, en cualquier acelerador, a través de cualquier nube, ofreciendo una experiencia de usuario excepcional y más consistente sin costes exorbitantes. Para desbloquear el verdadero potencial de las inversiones en IA generativa, las empresas necesitan una plataforma de inferencia universal: un estándar para una innovación en IA más fluida y de alto rendimiento, tanto ahora como en el futuro.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×