Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

El 62 % de las personas no distingue entre imágenes reales y generadas por IA: la urgencia de nuevas herramientas y educación digital

Un estudio conjunto entre Microsoft y universidades como Cornell revela las limitaciones humanas para identificar contenido sintético. Mientras tanto, el debate global sobre la desinformación visual se intensifica.

El avance de la inteligencia artificial generativa plantea un reto que ya está afectando al día a día de millones de personas: ¿cómo distinguir lo real de lo artificial? Según un extenso estudio publicado en mayo de 2025 por investigadores del laboratorio AI for Good de Microsoft en colaboración con la Universidad de Cornell y otros centros académicos, los seres humanos solo aciertan el 62 % de las veces al intentar discernir si una imagen fue tomada del mundo real o generada por modelos de IA como DALL·E 3, Midjourney v6 o Stable Diffusion XL.

El trabajo, titulado «How good are humans at detecting AI-generated images? Learnings from an experiment» (arXiv:2507.18640, ver estudio completo), se basa en más de 287.000 evaluaciones de imágenes realizadas por 12.500 participantes de todo el mundo a través del juego interactivo online Real or Not Quiz. Cada usuario visualizó una selección aleatoria de imágenes reales —extraídas de un banco de 350 fotografías libres de derechos— junto con otras generadas por IA (700 en total), y debía clasificarlas como auténticas o artificiales.

Retratos humanos, más fáciles; paisajes, casi imposibles

Uno de los hallazgos más relevantes del estudio es que las personas tienden a identificar mejor los rostros humanos reales que otros tipos de imágenes. En cambio, los errores se disparan cuando se trata de paisajes urbanos o naturales, especialmente si carecen de elementos reconocibles o presentan composiciones plausibles.

La investigación sugiere que los usuarios dependen todavía de «pistas visuales» o artefactos estilísticos para detectar si una imagen ha sido generada por IA. Pero a medida que los modelos mejoran, esos indicios desaparecen: las texturas, las sombras, la profundidad de campo y los detalles arquitectónicos se vuelven cada vez más convincentes. La consecuencia es clara: la confianza en lo que vemos se vuelve frágil.

Un detector de IA con 95 % de precisión… pero insuficiente por sí solo

En paralelo, Microsoft ha desarrollado un detector automático de imágenes sintéticas que, según sus pruebas internas, es capaz de identificar imágenes generadas por IA con un 95 % de precisión. La herramienta fue puesta a prueba con la misma base de imágenes que los usuarios humanos, evidenciando una brecha significativa entre las capacidades de percepción humana y las de la propia tecnología.

No obstante, los investigadores reconocen que una herramienta, por sí sola, no basta. Las soluciones técnicas deben ir acompañadas de sistemas de etiquetado transparente, marcas de agua, firmas digitales y políticas de plataforma que informen de forma clara y confiable sobre el origen del contenido.

“Es urgente implantar mecanismos visibles y persistentes que indiquen qué contenidos han sido generados o alterados por inteligencia artificial, para evitar la propagación de desinformación visual y el deterioro de la confianza pública”, subraya el estudio.

De la manipulación visual a la erosión de la verdad

La dificultad para distinguir una imagen real de una generada por IA ya tiene consecuencias sociales. En redes sociales, medios de comunicación y entornos educativos circulan a diario imágenes virales manipuladas o completamente inventadas que generan confusión, polarización o pánico. El fenómeno es tan preocupante que ha motivado la intervención de gobiernos y organismos internacionales.

En este contexto, la decisión reciente de Australia de prohibir YouTube a menores de 16 años a partir de diciembre de 2025 cobra especial relevancia. El país oceánico argumenta que los contenidos perjudiciales para menores —incluidos vídeos generados o alterados con IA— representan una amenaza para la salud mental y emocional de los adolescentes. Según una encuesta oficial, el 37 % de los menores australianos identificaron contenido nocivo en YouTube, superando incluso a otras redes sociales.

Del otro lado, empresas como Meta han optado por una estrategia de contención responsable, introduciendo funciones de seguridad avanzadas en Instagram, como la detección de interlocutores sospechosos, protección contra imágenes con desnudos no deseados, y alertas de localización para prevenir casos de sextorsión. Estas herramientas, activadas por defecto en cuentas adolescentes, se complementan con nuevas medidas para perfiles gestionados por adultos que publican contenido infantil.

¿Qué podemos hacer como sociedad?

El estudio de Cornell y Microsoft no es solo una llamada de atención tecnológica: es un toque de alerta cultural. Si el 38 % de las veces fallamos al juzgar lo que vemos, entonces necesitamos más que algoritmos para restaurar la confianza. Necesitamos educación visual, pensamiento crítico y alfabetización mediática desde edades tempranas.

Además, se debe avanzar en la creación de un marco normativo internacional que exija transparencia a los desarrolladores de modelos de IA generativa y a las plataformas que los integran. Los consumidores también deben tener derecho a saber si una imagen ha sido generada por un modelo, modificada digitalmente o capturada de la realidad.

Una verdad cada vez más difícil de ver

Vivimos en una era en la que la capacidad de crear imágenes hiperrealistas ha dejado de ser un privilegio de expertos. Hoy, cualquier persona puede generar una escena con solo escribir una frase. Esto tiene aplicaciones positivas en diseño, arte, educación o ciencia, pero también abre la puerta a la manipulación masiva, la suplantación de identidades y la desinformación sistemática.

El estudio lo deja claro: la vista ya no basta. En el nuevo ecosistema digital, la verdad visual necesita acompañarse de herramientas de verificación, cultura crítica y responsabilidad compartida. Solo así podremos navegar un mundo donde lo falso es cada vez más indistinguible de lo real.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×