Europa activa el “botón rojo” de la IA: comienza la era de las sanciones mientras los españoles desconfían del control institucional

A partir del 2 de agosto de 2025, entra en vigor el régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA). Pese al hito regulatorio, la mayoría de la población sigue percibiendo una falta de control y transparencia en el uso de estas tecnologías.

La Unión Europea inicia una nueva etapa en la gobernanza tecnológica con la entrada en vigor del régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA), un marco normativo pionero a nivel mundial. Desde el 2 de agosto, el incumplimiento de las normas establecidas por el RIA puede acarrear multas de hasta 35 millones de euros o el 7 % de la facturación global anual de la empresa infractora.

El objetivo es claro: garantizar un uso seguro, ético y responsable de los sistemas de IA, especialmente aquellos clasificados como de alto riesgo o con impacto significativo sobre los derechos fundamentales de las personas. Pero este salto normativo llega con una fuerte brecha entre las intenciones del regulador y la percepción ciudadana.


El 88 % de los españoles no confía en el control institucional sobre la IA

Según una encuesta realizada por la consultora tecnológica Entelgy, solo un 8,8 % de los ciudadanos españoles cree que existe actualmente una regulación estricta sobre inteligencia artificial. Además, un abrumador 88,6 % considera que las instituciones no transmiten la seguridad necesaria respecto al desarrollo y supervisión de estos sistemas.

La preocupación se amplía en el ámbito de la privacidad: ocho de cada diez españoles temen que los sistemas de IA recopilen datos personales sin las garantías adecuadas, un temor especialmente elevado entre personas de entre 30 y 49 años (81,4 %) y mayores de 50 (81 %).


¿Qué prohíbe el nuevo reglamento europeo?

El RIA establece una clasificación de riesgo para los sistemas de IA, y establece prohibiciones claras sobre ciertas prácticas consideradas de riesgo inaceptable. Entre ellas se encuentran:

  • Manipulación subliminal o psicológica.
  • Explotación de vulnerabilidades físicas o mentales.
  • Reconocimiento facial masivo en espacios públicos.
  • Análisis de emociones en entornos laborales o educativos.
  • Sistemas de puntuación social (social scoring).
  • Predicción delictiva basada en perfilado.
  • Categorización biométrica sin base legal clara.

Estas actividades están completamente prohibidas y serán objeto de sanción directa.


Implicaciones técnicas: transparencia, trazabilidad y supervisión

Desde el punto de vista tecnológico, el RIA exige que las empresas desarrolladoras e integradoras de IA:

  • Documenten el funcionamiento interno de los modelos.
  • Garantíen supervisión humana en las decisiones sensibles.
  • Informen al usuario de forma clara cuando interactúe con una IA.
  • Evalúen y gestionen los riesgos asociados a modelos fundacionales o de propósito general.

Además, deberán cooperar activamente con la Agencia Española de Supervisión de la IA (AESIA), cuya creación está alineada con la estrategia nacional de transformación digital y soberanía tecnológica.


Baja alfabetización legal entre la ciudadanía

Otro dato revelador del informe de Entelgy es el bajo nivel de conocimiento normativo: solo un 11,4 % afirma conocer las leyes vigentes sobre IA, aunque el porcentaje sube ligeramente entre los jóvenes (19,3 % en el tramo de 18 a 29 años). Este desconocimiento puede dificultar tanto la defensa de los derechos digitales como la adopción responsable de la tecnología.

Desde Entelgy advierten: “El bajo nivel de conocimiento dificulta generar confianza en las instituciones para proteger los derechos de los ciudadanos frente a estas tecnologías, y demanda un esfuerzo adicional en transparencia y formación”.


IA y percepción de riesgo: un reto para el ecosistema tecnológico

El RIA representa una de las piezas clave en la estrategia europea para lograr una IA confiable (trustworthy AI), diferenciada de los modelos opacos o poco auditables. Sin embargo, la desconfianza generalizada evidencia que no basta con legislar: se necesita un enfoque transversal que incluya:

  • Alfabetización digital y legal.
  • Auditorías abiertas y certificaciones técnicas.
  • Fomento de modelos de IA éticos, transparentes y explicables (XAI).
  • Participación ciudadana en el diseño de las políticas de IA.

¿Y las empresas tecnológicas?

Para las empresas tecnológicas, el nuevo marco supone tanto un reto como una oportunidad. Adaptarse al reglamento puede implicar costes iniciales en auditorías, rediseño de sistemas o validación legal. Pero también puede diferenciar positivamente a aquellas compañías que apuesten por la transparencia, la seguridad y la ética desde el diseño.

Con la entrada en vigor del régimen sancionador, Europa lanza un mensaje claro al sector: la innovación debe ir acompañada de responsabilidad. Y para la ciudadanía, es el momento de exigir transparencia, ejercer derechos digitales y participar en el debate sobre qué IA queremos construir.


En resumen

IndicadorValor destacado
Multa máxima bajo el RIAHasta 35 millones € o 7 % de facturación global
Ciudadanos que creen que la normativa es estricta8,8 %
Ciudadanos que desconfían del control institucional88,6 %
Nivel de conocimiento normativo11,4 % (sube al 19,3 % en jóvenes)
Ciudadanos preocupados por su privacidad ante la IA80 %

Fuente: Noticias Inteligencia Artificial

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×