Predicciones 2026: los agentes de IA tendrán un rol dual en la batalla por la ciberseguridad

La inteligencia artificial se ha convertido en un elemento decisivo que beneficia tanto a quienes atacan como a quienes se defienden. En este escenario, José María Alonso, country manager de Snowflake en España y Portugal, señala tres grandes tendencias que definirán la evolución de esta particular carrera tecnológica de cara a 2026.

Los agentes cibernéticos se convertirán en armas en la próxima ola de ciberdelincuencia

La carrera armamentística de la ciberseguridad siempre se ha definido por el constante tira y afloja entre atacantes y defensores, pero el surgimiento de agentes de IA capaces de investigar, idear y ejecutar ataques desequilibrará la balanza de forma alarmante. Para 2026, el ciberdelito agéntico se convertirá en un problema de primera línea, con los defensores enfrentándose a una nueva clase de adversario. Uno de los mayores riesgos con los agentes de IA será la inyección de prompts —adversarios engañando a los sistemas para que eludan las barreras de seguridad— y las alucinaciones que generan resultados falsos o engañosos. Podemos esperar ver agentes que examinarán el código, encontrarán una vulnerabilidad y construirán kits de exploits a medida para exfiltrar datos e implementar ransomware. También veremos casos en los que la IA creará documentos de ventas o reclamaciones de seguridad que no existen, poniendo a las empresas en riesgo de sanciones legales. Pero esto es solo el principio. El verdadero punto de inflexión llegará cuando los agentes dejen de simplemente imitar a los atacantes y empiecen a crear estrategias completamente nuevas, y ahí es cuando los defensores se enfrentarán a un nivel de problemas completamente nuevo.

Los ciberdelincuentes aprovecharán la IA oscura para escalar ataques

Si bien los modelos fundacionales actuales se construyen con barreras de seguridad, los actores maliciosos ya están implementando versiones sin censura como FraudGPT y WormGPT para generar campañas de phishing, código malicioso y ataques de ingeniería social. En muchos sentidos, este es el lado oscuro del código abierto, con actores maliciosos que toman modelos de código abierto como GPT-J-6B y los implementan sin las barreras éticas de los sistemas comerciales. Las herramientas mejoradas con IA se convertirán rápidamente en parte de la cadena de suministro que impulsa el cibercrimen como servicio. Esta economía subterránea ya no dependerá de atacantes individuales, sino de empresas globales que empaquetan y venden la infraestructura del cibercrimen completa con niveles de suscripción, soporte al cliente y actualizaciones regulares. A medida que estas ofertas maduren, incluso los modelos de IA más avanzados y costosos serán inevitablemente convertidos en armas.

Las herramientas de IA solucionarán la escasez de talento en ciberseguridad

A pesar de todos los riesgos que introduce la IA, también encierra una promesa real para los defensores. La IA generativa y agéntica comenzará a proporcionar a los centros de operaciones de seguridad la escala que les ha faltado. El problema más persistente para los CISOs ha sido la escasez de analistas cualificados. El talento en seguridad es difícil de encontrar y difícil de retener. En lugar de reemplazar la experiencia humana, la IA avanzada ocupará los puestos de seguridad que han estado sin cubrir durante años, aumentando las capacidades de los analistas y equilibrando el terreno de juego. En los próximos tres años, los agentes de IA proporcionarán el multiplicador de fuerza necesario para finalmente inclinar la balanza de nuevo a favor de los defensores.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×