Un estudio de Netcraft revela que más del 30 % de las URLs generadas por modelos de lenguaje como GPT-4 para acceder a servicios online son erróneas o peligrosas. El riesgo escala con la adopción masiva de interfaces basadas en IA.
A medida que la inteligencia artificial generativa se convierte en el principal punto de contacto entre los usuarios y los servicios digitales, los riesgos de seguridad se están infiltrando directamente en el canal de interacción. Un reciente informe de Netcraft, firma líder en inteligencia de amenazas, lanza una advertencia crítica para los responsables de tecnología, seguridad e infraestructura: los grandes modelos de lenguaje (LLMs) están cometiendo errores sistemáticos al sugerir URLs de inicio de sesión, exponiendo a las organizaciones a ataques de phishing a escala industrial.
En una prueba que simuló peticiones naturales de usuarios como “¿Dónde puedo iniciar sesión en mi cuenta de [marca]?”, los investigadores utilizaron modelos de la familia GPT-4.1 para 50 marcas reconocidas. El resultado fue contundente: solo el 66 % de los enlaces proporcionados pertenecía a los dominios oficiales. El resto incluía:
- Un 29 % de dominios inactivos o sin registrar, potencialmente secuestrables por actores maliciosos.
- Un 5 % que apuntaba a negocios legítimos pero completamente ajenos.
Este 34 % de respuestas peligrosas representa un vector de ataque emergente que pasa por alto los filtros tradicionales de seguridad web y engaña directamente a los usuarios confiados en la IA.
Phishing por defecto: cuando el modelo alucina con confianza
La gravedad no reside únicamente en la tasa de error. Lo preocupante es que estos resultados se presentan con total convicción por parte del modelo, eliminando la fricción crítica del juicio humano. Interfaces conversacionales como las de Perplexity o Bing Chat ya muestran respuestas generadas por IA como contenido principal, sin indicios de verificación ni control de reputación del dominio.
“Estamos asistiendo al nacimiento de una nueva capa de riesgo: el phishing asistido por IA. No se trata de spoofing, ni de enlaces manipulados por SEO, sino de recomendaciones fabricadas desde cero por un sistema que se presume confiable”, explica Netcraft en su informe.
En un caso documentado, al preguntar por el acceso a Wells Fargo, Perplexity ofreció como primera opción un sitio fraudulento alojado en Google Sites, perfectamente clonado y operativo. El dominio legítimo quedó oculto bajo la respuesta generada, sin señales evidentes de alerta.
Riesgo asimétrico para bancos regionales, fintechs y marcas nicho
El estudio muestra que las marcas más pequeñas son las más vulnerables, debido a su baja representación en los datos de entrenamiento de los LLM. Esto incluye bancos regionales, neobancos, aseguradoras locales, plataformas SaaS emergentes y ecommerces medianos.
El impacto potencial para estas organizaciones incluye filtraciones de credenciales, suplantación de identidad, sanciones regulatorias, caída de confianza del cliente y un aumento del coste reputacional. En contextos regulados como el financiero o sanitario, la exposición a este tipo de fallos puede comprometer el cumplimiento normativo de marcos como DORA, NIS2 o RGPD.
IA SEO: los atacantes también están optimizando para modelos generativos
El fenómeno no se limita al login. Netcraft ha detectado más de 17.000 páginas maliciosas generadas con IA, diseñadas para engañar no al usuario, sino al modelo que redacta las respuestas. Estas páginas se estructuran como documentación técnica, FAQs o tutoriales sobre productos legítimos, apuntando a usuarios de criptomonedas, viajeros y consumidores tecnológicos.
En otra campaña, un actor malicioso creó una falsa API de Solana (SolanaApis), acompañada por múltiples tutoriales, repositorios GitHub y perfiles falsos en foros técnicos. El objetivo: infiltrarse en los asistentes de programación con IA y provocar que sugirieran automáticamente el uso de una API falsa que desviaba fondos a carteras del atacante.
Este ataque —una variante de «data poisoning» orientado a entornos developer— representa una amenaza estructural para la integridad de la cadena de suministro digital basada en IA.
¿Registrar dominios similares? No es suficiente
Si bien algunas organizaciones han optado por registrar variantes comunes de sus dominios como defensa preventiva, Netcraft considera que esta táctica es insuficiente e insostenible.
“Los LLM seguirán alucinando nuevos dominios. No se trata de registrar miles de combinaciones, sino de implementar monitorización activa, detección de amenazas emergentes y capacidades de respuesta rápida”, señalan desde la firma.
Recomendaciones para CISOs, CTOs y responsables de marca
Frente a este escenario, los expertos recomiendan a los equipos técnicos y de ciberseguridad adoptar una estrategia proactiva:
- Monitorización inteligente de menciones de marca en resultados generados por IA, especialmente en interfaces conversacionales y motores de búsqueda que integran LLMs.
- Auditoría regular de dominios parecidos al oficial, con escaneo de actividad y reputación.
- Colaboración con proveedores de detección y retirada de contenido malicioso que operen con visibilidad en entornos IA.
- Desarrollo de políticas internas de IA segura, incluyendo guidelines para desarrolladores y responsables de contenido.
- Revisión de las capacidades de verificación de fuentes en LLMs internos usados en chatbots, asistentes y servicios digitales de atención al cliente.
Conclusión: una nueva capa de exposición en el stack digital
La revolución de los modelos de lenguaje ha traído consigo avances en eficiencia, experiencia de usuario y automatización. Pero también ha creado una capa invisible y poco auditada donde la ficción se disfraza de hecho. Y lo hace con una autoridad que el usuario ya no cuestiona.
Para los CIOs, CTOs y CISOs, la gestión de estos riesgos no puede delegarse. Implica reevaluar el lugar que ocupan los LLMs en el stack tecnológico y dotarlos de mecanismos de verificación, trazabilidad y contexto, sin los cuales la IA no es una aliada, sino un punto ciego.
“En un mundo donde tu cliente confía más en una IA que en tu canal oficial, no basta con proteger el perímetro. Hay que proteger también la narrativa que construye la IA sobre tu marca.”
Fuente: Noticias sobre seguridad