
Alerta para CIOs y CISOs: los modelos de IA están recomendando dominios falsos y exponiendo a usuarios y marcas a ciberataques
Un estudio de Netcraft revela que más del 30 % de las URLs generadas por modelos de lenguaje como GPT-4 para acceder a servicios online son erróneas o peligrosas. El riesgo escala con la adopción masiva de interfaces basadas en IA. A medida que la inteligencia artificial generativa se convierte en el principal punto de contacto entre los usuarios y los servicios digitales, los riesgos de seguridad se están infiltrando directamente en el canal de interacción. Un reciente informe de Netcraft, firma líder en inteligencia de amenazas, lanza una advertencia crítica para los responsables de tecnología, seguridad e infraestructura: los grandes modelos de lenguaje (LLMs) están cometiendo errores sistemáticos al sugerir URLs de inicio de sesión, exponiendo a las organizaciones a