A medida que la inteligencia artificial avanza a pasos agigantados, también lo hace la ambición de las grandes tecnológicas por alimentar sus modelos con la mayor cantidad posible de datos. Lo preocupante no es la tecnología en sí, sino el modo en que compañías como Meta —propietaria de Facebook, Instagram y WhatsApp— instrumentalizan a los usuarios y diluyen sus derechos con estrategias que rozan, si no cruzan, los límites de la ética digital.
El espejismo del consentimiento
Meta ha comenzado a informar a sus usuarios europeos de que utilizará sus datos públicos para entrenar sus modelos de inteligencia artificial generativa, como Meta AI. Lo hace invocando su “interés legítimo”, amparado en el Reglamento General de Protección de Datos (RGPD). Pero hay un problema: el consentimiento no es real si no es informado, libre y explícito.
En lugar de ofrecer una pregunta directa del tipo “¿Permites que utilicemos tus publicaciones públicas para entrenar nuestra IA? Sí / No”, Meta opta por una vía más enrevesada: un correo que lleva a un formulario poco visible, con pasos innecesarios, en el que debes oponerte activamente. Para colmo, esa oposición no es inmediata: hay que confirmar después por correo. Un diseño deliberadamente disuasorio.
Esto no es privacidad, es ingeniería del consentimiento
Esta práctica es un ejemplo de lo que se conoce como patrón oscuro, es decir, una estrategia de diseño orientada a confundir o dificultar que el usuario ejerza sus derechos. No es nuevo: las grandes plataformas llevan años perfeccionando estos mecanismos para que, en la práctica, el consentimiento parezca dado… incluso cuando no lo ha sido realmente.
Aunque Meta asegura cumplir con la legalidad, la realidad es que se está burlando del espíritu del RGPD, que protege la autodeterminación informativa. Usar datos personales para entrenar modelos de IA no es un detalle técnico, es una decisión trascendental, y debería requerir un consentimiento claro, activo y transparente. No uno encubierto bajo pretextos administrativos.
Una mina de datos invisibles
La compañía indica que usará publicaciones, comentarios y cualquier otra información pública compartida desde el inicio de cada cuenta. No hay filtros ni límites temporales. Si llevas años utilizando sus plataformas, probablemente ya hayas ofrecido —sin saberlo— una cantidad ingente de datos con los que Meta entrenará sistemas que luego monetizará.
Sí, puedes modificar la audiencia de tus publicaciones. Pero eso no invalida el hecho de que la mayoría de usuarios no son plenamente conscientes del uso que se está haciendo de su contenido, ni saben cómo evitarlo.
¿Quién controla al controlador?
Otro problema de fondo es la falta de garantías y transparencia técnica. Aunque te opongas, ¿cómo puedes comprobar que Meta deja de usar tus datos? ¿Existe una auditoría independiente? ¿Hay mecanismos accesibles para verificar que tus derechos han sido respetados? La historia reciente —desde Cambridge Analytica hasta las filtraciones de documentos internos— demuestra que la confianza no se puede regalar.
La solución es sencilla… pero incómoda para ellos
Meta y otras plataformas podrían resolver este problema con un simple cuadro de diálogo en su app:
👉 “¿Quieres permitir el uso de tus datos para entrenar nuestra IA? Sí / No”.
Pero no lo hacen porque muchos usuarios dirían que no. Y eso afectaría directamente a su negocio. Por eso optan por una fórmula donde, aunque digan que respetan tu decisión, todo el sistema está diseñado para que no la tomes, o llegues tarde.
¿Innovación o abuso de posición?
La innovación tecnológica no justifica el abuso de poder. Si Meta quiere seguir liderando el desarrollo de la inteligencia artificial, debe hacerlo con reglas claras, sin ocultar sus intenciones ni dificultar el acceso a los derechos fundamentales de sus usuarios.
No se trata de estar en contra del avance de la IA, sino de que ese avance no se base en una minería de datos encubierta y en prácticas manipuladoras. El consentimiento no puede ser una ilusión legal. Debe ser un acto libre, informado y respetado.