Este viernes 2 de agosto marca un antes y un después en la regulación tecnológica en España y el conjunto de la Unión Europea. A partir de esta fecha, entra en vigor el régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA), lo que permitirá imponer importantes sanciones económicas a empresas que incumplan las normativas relativas al desarrollo, implementación y uso de sistemas de inteligencia artificial. Las multas pueden ascender hasta los 35 millones de euros o el 7 % de la facturación anual global de las compañías infractoras.
Este nuevo marco sancionador llega en un momento de escepticismo social. Según una encuesta de Entelgy, The Business Tech Consultancy, solo un 8,8 % de los ciudadanos considera que existe una normativa suficientemente estricta para regular la IA en la actualidad. A esto se suma una preocupante desconfianza hacia las instituciones: el 88,6 % de los encuestados cree que las autoridades no ofrecen garantías suficientes en el control y supervisión de esta tecnología.
Además, la encuesta refleja un bajo nivel de conocimiento general sobre la normativa vigente. Apenas el 11,4 % de los ciudadanos dice estar informado sobre las actuales regulaciones en materia de inteligencia artificial, un porcentaje que sube ligeramente al 19,3 % en el grupo de edad de 18 a 29 años. Estos datos evidencian la necesidad urgente de impulsar campañas de concienciación y educación para acercar la legislación a la ciudadanía y fortalecer la confianza en un desarrollo ético y seguro de estas tecnologías.
La privacidad también se posiciona como una de las mayores inquietudes entre la población. Ocho de cada diez personas temen que los sistemas de IA recopilen información personal sin las debidas garantías de protección. Esta preocupación es especialmente alta entre las personas de entre 30 y 49 años (81,4 %) y mayores de 50 (81 %).
Prácticas sancionadas bajo la nueva normativa
Con la entrada en vigor del régimen sancionador, se perseguirán prácticas consideradas de «riesgo inaceptable» para los derechos y libertades fundamentales. Entre ellas se incluyen:
- Manipulación subliminal o engañosa.
- Explotación de vulnerabilidades de colectivos específicos.
- Sistemas de puntuación social o social scoring.
- Reconocimiento facial masivo en espacios públicos.
- Análisis de emociones en entornos laborales o educativos.
- Categorización biométrica de personas.
- Sistemas predictivos que anticipen comportamientos delictivos.
Las empresas que utilicen o desarrollen tecnologías de este tipo deberán ser extremadamente cautelosas para no incurrir en incumplimientos. La transparencia, la trazabilidad de los datos utilizados en el entrenamiento de modelos, la existencia de supervisión humana cuando sea necesaria, y una documentación técnica completa serán requisitos clave.
Además, será obligatorio informar a los usuarios cuando estén interactuando con un sistema de inteligencia artificial. Las empresas deberán colaborar activamente con la Agencia Española de Supervisión de Inteligencia Artificial (AESIA), encargada de velar por el cumplimiento del reglamento en territorio nacional.
Camino hacia un desarrollo más seguro
Aunque el reglamento europeo ya fue aprobado, su aplicación efectiva con régimen sancionador representa una herramienta concreta para asegurar un desarrollo y uso responsable de la inteligencia artificial. En este contexto, será esencial que las organizaciones revisen cuidadosamente los modelos de propósito general que integran en sus servicios y adopten salvaguardas adecuadas que minimicen riesgos legales.
El reto no solo está en el cumplimiento técnico, sino también en recuperar la confianza de una ciudadanía que exige mayor protección y transparencia en el uso de tecnologías cada vez más presentes en la vida cotidiana. La entrada en vigor del régimen sancionador del RIA es un paso decisivo hacia ese objetivo.