Las principales plataformas digitales chinas, entre ellas WeChat (Weixin en la China continental), se apresuran a cumplir con la nueva normativa que exige la etiquetación explícita e implícita del contenido generado por inteligencia artificial (IA). La medida, en vigor desde marzo, responde a la creciente preocupación de Pekín por la desinformación, el fraude en línea y las implicaciones de seguridad derivadas de tecnologías como los deepfakes.


Qué exige la nueva ley

La regulación, redactada por la Administración del Ciberespacio de China (CAC) junto con los ministerios de Industria y Tecnología de la Información, Seguridad Pública y la Administración Nacional de Radio y Televisión, establece que:

  • Marcadores explícitos: deben ser visibles para el usuario (por ejemplo, etiquetas que indiquen “generado por IA”).
  • Marcadores implícitos: como marcas de agua digitales o identificadores en los metadatos, que garanticen trazabilidad aunque el contenido se comparta o edite.

El objetivo es que cualquier texto, imagen, audio, vídeo u otro material virtual producido con IA quede identificado de forma inequívoca.


Contexto: la campaña Qinglang 2025

La normativa forma parte de la campaña Qinglang (“claro y brillante”) 2025, impulsada por el CAC. Esta iniciativa anual busca “limpiar el ciberespacio” del país y en esta edición ha puesto el foco en la supervisión de la inteligencia artificial.

Las autoridades chinas consideran que el uso masivo de tecnologías como los deepfakes puede poner en riesgo tanto la seguridad individual (suplantación de identidad, fraudes) como la seguridad nacional, al manipular contenidos políticos o mediáticos.


La respuesta de las plataformas

WeChat, una de las aplicaciones más influyentes del país, comunicó que los creadores de contenido deberán declarar voluntariamente si el material publicado ha sido generado con IA. En caso de que no se marque, la plataforma advierte a los usuarios que deben “ejercer su propio juicio” al consumir información.

Otras plataformas también están adaptando sus sistemas internos para detectar y etiquetar automáticamente los contenidos sospechosos de haber sido creados con herramientas de IA.


Un paso más en la supervisión de la IA

La medida se enmarca en un movimiento más amplio de China para endurecer la regulación de la IA, en paralelo al impulso de la industria nacional. Mientras empresas tecnológicas chinas compiten en el desarrollo de modelos avanzados, Pekín busca garantizar que su despliegue no erosione la confianza pública ni genere inestabilidad social.


Conclusión

La obligación de etiquetar el contenido generado por IA marca un punto de inflexión en la gobernanza digital de China. Aunque refuerza la transparencia y puede limitar la propagación de desinformación, también plantea dudas sobre la implementación práctica y el posible impacto en la libertad de creación digital.

Lo que está claro es que, en la carrera global por regular la inteligencia artificial, China ha decidido adelantarse con medidas concretas y de aplicación inmediata.


Preguntas frecuentes (FAQ)

¿Qué tipo de contenido debe etiquetarse según la ley china?
Todos los textos, imágenes, audios, vídeos y materiales virtuales creados con herramientas de inteligencia artificial.

Qué diferencia hay entre las etiquetas explícitas e implícitas?
Las explícitas son visibles para el usuario (por ejemplo, una nota o icono en pantalla), mientras que las implícitas son marcas ocultas, como marcas de agua digitales o metadatos.

Qué riesgos busca evitar China con esta normativa?
Principalmente la desinformación, el fraude en línea, las violaciones de derechos de autor y las amenazas derivadas de los deepfakes.

Cuál es el papel de la campaña Qinglang 2025?
Es una iniciativa anual del CAC para “limpiar” el ciberespacio. Este año ha centrado su atención en la supervisión y etiquetado del contenido generado por IA.

vía: scmp

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo último

×