Radware lanza un “cortafuegos para LLMs” y lleva la seguridad de la IA al nivel del prompt

Radware ha anunciado LLM Firewall, una nueva capa de protección pensada para empresas que ya están integrando modelos de lenguaje (LLM) en productos, asistentes y flujos internos. La idea es directa: parar ataques y abusos “en el prompt” (antes de que la petición llegue al modelo), en un momento en el que la adopción de IA generativa se acelera y, con ella, también la superficie de riesgo.

Según la compañía, LLM Firewall se ofrece como un “add-on” para todos los niveles de su suite Cloud Application Protection Services, y está planteado como la primera fase de una protección más amplia orientada a escenarios “agentic AI” (agentes que actúan de forma semiautónoma). Radware recalca además que el enfoque es agnóstico al modelo y está diseñado para integrarse sin frenar el despliegue.

Del WAF “clásico” al “WAF para prompts”

En su comunicación, Radware enmarca el producto como una evolución conceptual: si durante años el WAF protegía aplicaciones web de ataques a nivel HTTP, el salto ahora sería defender ataques en lenguaje natural, propios del comportamiento y la integración de los LLMs. La propia compañía menciona amenazas como prompt injection, jailbreaks y abuso de recursos, con detección y bloqueo en tiempo real.

En paralelo, el movimiento encaja con la conversación que se está imponiendo en los departamentos de infraestructura y operaciones: Gartner ha situado agentic AI entre las tendencias que más impacto tendrán en 2026, junto a plataformas de gobernanza de IA y seguridad frente a la desinformación, señalando que la innovación se está moviendo más rápido que los controles tradicionales.

Qué datos intenta proteger (y por qué importa)

Uno de los puntos más sensibles en entornos empresariales es la filtración de información personal o confidencial a través de prompts, respuestas o herramientas conectadas al modelo. Radware afirma que su LLM Firewall está diseñado para detectar y bloquear intentos de exfiltración de datos antes de que la solicitud llegue al LLM del cliente, y lo vincula a marcos regulatorios y de cumplimiento como GDPR y HIPAA (entre otros).

Este énfasis también se alinea con el marco de riesgos que se está consolidando en la industria. OWASP, por ejemplo, incluye en su Top 10 para aplicaciones con LLM riesgos como Prompt Injection y problemas ligados a la exposición de información sensible, reflejando que el vector ya no es solo “software tradicional”, sino la interacción lingüística y el pegado de la IA en procesos reales.

Un mercado que se está moviendo rápido

Radware no está sola en esta dirección. En las últimas semanas, grandes proveedores de seguridad y cloud han intensificado mensajes similares: Palo Alto Networks y Google Cloud anunciaron una ampliación de su alianza para asegurar el desarrollo y despliegue de soluciones de IA, con foco en protección “de código a cloud”, postura de IA, seguridad en ejecución y seguridad específica para agentes.

El patrón es claro: las empresas quieren aprovechar la IA… pero no a costa de abrir una puerta nueva hacia fugas de datos, suplantaciones, automatización maliciosa o decisiones fuera de control.

Qué deberían hacer las empresas, más allá del titular

La promesa de un “firewall para prompts” suena bien, pero en la práctica funciona mejor como parte de una estrategia por capas. En términos operativos, el mínimo razonable para equipos de seguridad y plataforma suele incluir:

  • Inventario real: dónde hay LLMs (apps, copilotos internos, bots de soporte), qué datos tocan y qué herramientas ejecutan.
  • Políticas de datos: qué información puede entrar en prompts, qué debe anonimizarse y qué nunca debería salir del perímetro.
  • Controles de identidad y permisos: quién puede invocar qué agente, con qué scopes y en qué contextos.
  • Monitorización específica: telemetría y alertas para patrones anómalos (picos de prompts, prompts con intención de extracción, comportamiento automatizado).
  • Pruebas ofensivas: red teaming y baterías de test orientadas a prompt injection/jailbreaks, no solo a CVEs “clásicos”.

En ese marco, productos como el anunciado por Radware buscan cubrir un hueco que muchas compañías están descubriendo tarde: la seguridad de la IA no se resuelve solo con firewalls de red, ni solo con “buenas prácticas” de desarrollo. También hay que gobernar el lenguaje.

vía: radware

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×