
Red Hat AI 3 trae la inferencia distribuida a producción: una plataforma abierta para agentes, Kubernetes y cualquier acelerador
Red Hat ha anunciado Red Hat AI 3, una evolución mayor de su plataforma empresarial de inteligencia artificial que integra Red Hat AI Inference Server, RHEL AI y OpenShift AI para resolver el gran cuello de botella de 2025: operativizar la inferencia a escala (la fase del “hacer”) y pasar de pruebas de concepto a producción sin rehacer la infraestructura. La propuesta pivota sobre tres ideas: inferencia distribuida nativa en Kubernetes (llm-d), experiencia unificada de plataforma (MaaS interno, AI Hub, Gen AI Studio) y cimientos para IA agéntica con APIs y estándares abiertos. El movimiento llega cuando el mercado gira del entrenamiento a la inferencia masiva en tiempo real y a los agentes; y cuando los CIOs buscan recortar latencia,