F5 ha ampliado su colaboración con Red Hat para llevar nuevas capacidades de seguridad a entornos Kubernetes, aplicaciones basadas en inteligencia artificial y operaciones IT modernizadas. El anuncio se centra en dos grandes frentes: la protección de aplicaciones y APIs en Red Hat OpenShift mediante NGINX Gateway Fabric, y la creación de arquitecturas de referencia para desplegar cargas de IA con más controles desde el inicio.
El movimiento llega en un momento en el que muchas empresas están llevando aplicaciones críticas a Kubernetes, mientras experimentan con chatbots internos, agentes, modelos generativos y flujos de IA conectados a datos sensibles. Esa combinación amplía mucho la superficie de ataque. Ya no basta con proteger una aplicación monolítica detrás de un firewall tradicional. Las organizaciones tienen que defender APIs, microservicios, gateways, modelos, prompts, integraciones, pipelines y tráfico entre componentes que cambian con rapidez.
WAF para Kubernetes sobre NGINX Gateway Fabric
La primera novedad es F5 WAF for NGINX sobre NGINX Gateway Fabric, disponible a través de un operador certificado para Red Hat OpenShift. La propuesta busca llevar protección de capa 7 a flujos nativos de Kubernetes, con controles de seguridad para aplicaciones y APIs que puedan gestionarse de forma declarativa, más cercana al trabajo diario de equipos DevOps y plataformas.
En la práctica, esto significa que las empresas que despliegan aplicaciones sobre OpenShift pueden incorporar reglas de Web Application Firewall dentro de su arquitectura Kubernetes sin romper necesariamente sus flujos de automatización. F5 habla de cobertura frente al OWASP Top 10 y de seguridad moderna para APIs, dos áreas especialmente sensibles en entornos donde los servicios se exponen, se versionan y se conectan con frecuencia.
El uso de un operador certificado para OpenShift también tiene una lectura empresarial. Kubernetes ha ganado mucha presencia, pero su operación sigue siendo compleja para organizaciones que necesitan soporte, gobierno y repetibilidad. Los operadores ayudan a instalar, actualizar y gestionar componentes dentro del clúster con patrones más automatizados. Para equipos de seguridad, esto puede reducir la distancia entre la política corporativa y el despliegue real.
El anuncio también refuerza el papel de NGINX dentro de la estrategia de F5. Desde la adquisición de NGINX, F5 ha intentado unir el mundo clásico de entrega y seguridad de aplicaciones con arquitecturas cloud native. NGINX Gateway Fabric encaja en esa transición porque se alinea con estándares de Kubernetes y con una forma de operar donde la configuración vive cada vez más en manifiestos, repositorios y pipelines.
La clave será que estas capacidades no se queden solo en una capa adicional de producto, sino que puedan integrarse de verdad en los procesos de desarrollo. En muchas empresas, la seguridad falla no porque no exista una herramienta, sino porque llega tarde, exige configuraciones manuales o se convierte en un cuello de botella para los equipos que despliegan aplicaciones. La seguridad como código intenta corregir eso: definir controles de forma repetible y revisable.
La seguridad de IA entra en OpenShift
La segunda parte del anuncio apunta directamente a la inteligencia artificial. F5 y Red Hat han trabajado en un AI quickstart para Red Hat OpenShift AI, con blueprints predefinidos que permitan a los equipos levantar y explorar arquitecturas de IA sin partir de cero. F5 menciona casos como F5 AI Guardrails y F5 AI Red Team, orientados a añadir controles y evaluación de riesgos en aplicaciones basadas en IA.
Este punto importa porque la IA empresarial no se despliega en el vacío. Un chatbot corporativo puede conectarse a bases de datos, documentos internos, sistemas de clientes, CRMs o herramientas de soporte. Un agente puede ejecutar acciones. Una aplicación de IA puede recibir documentos, interpretar imágenes, acceder a APIs o devolver información sensible. Cada una de esas capacidades introduce riesgos específicos: fuga de datos, inyección de prompts, uso indebido de herramientas, respuestas no autorizadas o exposición de información interna.
Red Hat OpenShift AI ofrece una plataforma para crear, entrenar, desplegar y operar aplicaciones de IA y machine learning sobre OpenShift. La colaboración con F5 intenta añadir a ese entorno una capa de seguridad y validación más cercana a las necesidades de sectores regulados o empresas que trabajan con datos sensibles. La promesa no es simplemente «usar IA», sino hacerlo con arquitecturas más repetibles y con controles desde el diseño.
Los quickstarts pueden ser útiles para organizaciones que están en fase de adopción. Muchas empresas tienen equipos interesados en IA, pero carecen de patrones claros para pasar de la prueba de concepto a un despliegue controlado. Contar con arquitecturas validadas puede acelerar el aprendizaje y reducir errores iniciales, siempre que se adapten después a los requisitos reales de cada compañía.
Kubernetes, APIs e IA: una misma superficie de riesgo
El anuncio de F5 y Red Hat refleja una convergencia importante. Kubernetes, APIs e IA ya no son piezas separadas. Las aplicaciones modernas se despliegan en contenedores, se exponen mediante gateways, se comunican por APIs y, cada vez más, incorporan componentes de IA. Si la seguridad se gestiona por separado en cada capa, el resultado puede ser difícil de gobernar.
Para un CISO, esto plantea una pregunta práctica: cómo aplicar políticas coherentes en entornos híbridos y multicloud donde conviven aplicaciones tradicionales, microservicios, APIs públicas, modelos de IA y servicios internos. La respuesta no puede depender solo de controles perimetrales. Hace falta visibilidad, políticas declarativas, integración con CI/CD, protección en tiempo de ejecución y herramientas que los equipos de plataforma puedan operar sin frenar al negocio.
F5 intenta posicionar su Application Delivery and Security Platform, ADSP, como una respuesta a esa complejidad. Red Hat aporta OpenShift como plataforma Kubernetes empresarial y OpenShift AI como base para cargas de IA. La combinación tiene sentido en empresas que buscan estandarizar despliegues y, al mismo tiempo, evitar que la seguridad quede como una capa añadida al final del proyecto.
También hay una dimensión de estándares abiertos. F5 y Red Hat insisten en arquitecturas escalables y abiertas, algo relevante para clientes que no quieren quedar encerrados en soluciones demasiado propietarias. En Kubernetes, esa preocupación es habitual: las empresas quieren aprovechar el ecosistema, pero sin perder soporte ni gobernanza.
Aun así, la adopción no será automática. Integrar WAF, gateways, seguridad de APIs y controles de IA exige cambios de proceso. Los equipos de desarrollo deben entender qué se valida, cómo se despliega y qué errores bloquean una promoción a producción. Los equipos de seguridad deben pasar de revisar al final a definir políticas reutilizables. Y los equipos de plataforma deben ofrecer plantillas que hagan fácil hacer lo correcto.
El valor del anuncio está precisamente ahí: no en presentar otra herramienta aislada, sino en acercar seguridad, entrega de aplicaciones y cargas de IA a una misma plataforma operativa. En un entorno donde los agentes y aplicaciones inteligentes empiezan a tocar procesos críticos, esta integración puede marcar la diferencia entre una adopción controlada y una acumulación de pilotos difíciles de proteger.
La IA está acelerando la modernización de aplicaciones, pero también está exponiendo debilidades en APIs, permisos, datos y operaciones cloud native. La colaboración entre F5 y Red Hat apunta a una idea que ganará peso en los próximos meses: las empresas no necesitan solo desplegar IA más rápido; necesitan desplegarla dentro de arquitecturas que puedan defender, auditar y mantener.
Preguntas frecuentes
¿Qué han anunciado F5 y Red Hat?
F5 ha ampliado sus soluciones para Red Hat OpenShift con F5 WAF for NGINX sobre NGINX Gateway Fabric y quickstarts de IA para Red Hat OpenShift AI.
¿Qué aporta F5 WAF for NGINX en OpenShift?
Permite incorporar protección de capa 7 para aplicaciones y APIs en entornos Kubernetes, con gestión declarativa y orientación a flujos DevOps.
¿Qué papel tiene NGINX Gateway Fabric?
Actúa como base para gestionar tráfico y gateways en Kubernetes, permitiendo integrar capacidades de seguridad y entrega de aplicaciones en arquitecturas cloud native.
¿Por qué es relevante para aplicaciones de IA?
Porque las aplicaciones de IA suelen conectarse a datos, APIs y herramientas internas. Eso exige controles frente a fugas de información, abuso de APIs, prompt injection y usos no autorizados.
vía: f5.com