En lugar de pedir un “sí” o “no” claro y directo a sus millones de usuarios sobre si pueden usar nuestros datos públicos para entrenar sus modelos de inteligencia artificial, Meta —la empresa matriz de Facebook, Instagram y WhatsApp— ha optado por un camino mucho más enrevesado: enviar un correo electrónico que aparenta informar pero que en realidad complica el proceso para oponerse al uso de nuestra información.
Un consentimiento que no es tal
El mensaje, titulado “Conoce cómo afectarán las mejoras de la IA en Meta al uso que hacemos de tu información”, comunica que la compañía utilizará información pública, como publicaciones y comentarios de cuentas de mayores de 18 años, para alimentar sus sistemas de inteligencia artificial generativa —incluyendo Meta AI y sus modelos abiertos a la comunidad investigadora.
Pero lo más preocupante no es el uso en sí, sino la forma en que gestionan el consentimiento:
- En lugar de presentar una opción clara y directa al usuario, como “¿Quieres que usemos tus datos para entrenar nuestra IA? Sí / No”,
- Meta delega al usuario la carga de tener que oponerse activamente. Y no mediante una opción accesible desde la configuración general, sino a través de un formulario oculto, que requiere varios pasos, a menudo difíciles de encontrar y que terminan con el envío de un correo que se debe confirmar posteriormente.
¿Un proceso disuasorio?
Todo esto configura lo que en términos legales y de privacidad se denomina un “patrón oscuro”: un diseño intencionado para disuadir al usuario de ejercer sus derechos. Meta ofrece la posibilidad de oponerse, pero lo hace mediante un proceso complicado, largo y poco transparente. Para muchos usuarios, esto es equivalente a no ofrecer esa opción en absoluto.
Además, la base legal alegada por la compañía —“intereses legítimos” para desarrollar sus modelos de IA— es altamente cuestionable. El Reglamento General de Protección de Datos (RGPD) de la Unión Europea establece que el tratamiento basado en intereses legítimos debe respetar los derechos y libertades fundamentales de los usuarios, algo que aquí queda en entredicho.
¿Y si ya hemos compartido contenido?
Meta indica que utilizará todo lo que hayas publicado públicamente desde que creaste tu cuenta. No hay distinción entre contenido reciente o antiguo, y tampoco entre tipos de publicación. A pesar de que se menciona que puedes cambiar la audiencia de tus publicaciones, esto no evita que lo ya publicado y visible públicamente pueda ser aprovechado para entrenar sus modelos.
¿Qué deberíamos exigir?
- Transparencia real y accesible: Un aviso emergente dentro de las plataformas, explicando de forma clara y sencilla qué se va a hacer con nuestros datos, sin jerga legal, y ofreciendo una elección binaria inmediata: “¿Quieres que usemos tus datos para entrenar nuestra IA? Sí / No”.
- Consentimiento previo y explícito: El entrenamiento de modelos con datos personales no debería comenzar sin consentimiento informado.
- Oposición sin obstáculos: Un botón claro y visible para ejercer el derecho de oposición sin necesidad de buscar enlaces o enviar correos.
Una muestra de poder sin límites
Lo más alarmante es que incluso si te opones, ¿cómo saber que Meta dejará de usar tus datos? ¿Existe un control externo real o auditorías verificables? La desconfianza es legítima cuando la historia reciente ha demostrado que muchas grandes tecnológicas solo corrigen prácticas invasivas tras sanciones millonarias o presión mediática.
Meta dice que “puedes eliminar tu información o cambiar su audiencia en la configuración”. Pero muchos usuarios simplemente no lo harán, ya sea por desconocimiento, dificultad técnica o porque no están al tanto de este tipo de prácticas.
Conclusión
La IA no es el problema. El problema es cómo se alimenta. Meta está construyendo sus modelos con datos generados durante años sin que los usuarios supieran que servirían para ese fin. La excusa del “interés legítimo” no debería prevalecer sobre el derecho fundamental a decidir qué pasa con nuestra información.
La solución es sencilla: preguntar de forma clara. Todo lo demás, es maquillar un uso indebido con un consentimiento ficticio. Y la historia digital reciente ya nos ha enseñado que cuando no elegimos activamente, la tecnología lo hace por nosotros.