El Parlamento Europeo quiere vetar redes sociales, plataformas de vídeo y “chatbots de compañía” de IA a menores de 16 años

El Parlamento Europeo ha dado un paso político muy claro en la protección de los menores en Internet. En una votación celebrada esta semana, los eurodiputados han aprobado un informe no vinculante que propone fijar en 16 años la edad mínima armonizada en la UE para acceder a redes sociales, plataformas de vídeo y asistentes digitales basados en inteligencia artificial.

La propuesta abre una excepción: los menores de entre 13 y 16 años podrían usar estos servicios solo si cuentan con un consentimiento verificable de sus padres o tutores. Sin ese permiso, el acceso debería quedar bloqueado.

Aunque el texto no tiene aún efectos legales, sí marca la dirección política que el Parlamento quiere que siga la Comisión Europea y los Estados miembros, en un contexto de creciente preocupación social por la salud mental de niños y adolescentes.


Una amplia mayoría a favor de elevar la edad mínima

El informe fue aprobado por una amplia mayoría:

  • 483 votos a favor,
  • 92 en contra,
  • y 86 abstenciones.

Los eurodiputados expresan una “profunda preocupación” por los riesgos físicos y psicológicos que afrontan los menores en el entorno digital. Citando estudios recientes, recuerdan que:

  • Un 97 % de los jóvenes se conecta a Internet todos los días.
  • Un 78 % de los adolescentes entre 13 y 17 años revisa sus dispositivos al menos cada hora.
  • Uno de cada cuatro menores, aproximadamente un 25 %, presenta un uso “problemático” o “disfuncional” del móvil, con pautas similares a las de una adicción.

Ese uso intensivo, combinado con modelos de negocio basados en la atención y en la recopilación masiva de datos, ha encendido todas las alarmas en Bruselas.


Qué pretende cambiar la Eurocámara: menos accesibilidad, menos adicción

La propuesta del Parlamento Europeo no se limita a fijar una edad mínima. Los eurodiputados plantean un rediseño profundo de cómo funcionan las plataformas cuando son usadas por menores. Entre las medidas que reclaman a la Comisión y a los reguladores nacionales destacan:

  • Desactivar por defecto las funciones más adictivas para usuarios menores de edad, como:
    • el scroll infinito (TikTok, Reels, Shorts),
    • la autorreproducción de vídeos,
    • el gesto de “deslizar para actualizar”,
    • las mecánicas de “recompensa” y gamificación que fomentan la permanencia.
  • Prohibir sistemas de recomendación basados en perfiles para menores, es decir, limitar los algoritmos que construyen un perfil detallado del niño o adolescente para decidir qué mostrarle.
  • Bloquear las “cajas de botín” (loot boxes) y otras mecánicas de azar o monetización en videojuegos dirigidos a menores, así como funciones de pago que se basan en monedas virtuales u otros mecanismos que dificultan percibir el gasto real.
  • Limitar el marketing dirigido a niños, incluyendo el fenómeno de los “kidfluencers” —menores que actúan como influencers y reciben incentivos económicos por promocionar productos y servicios en redes.

El objetivo es que, cuando un menor acceda a estas plataformas —siempre bajo las reglas propuestas—, se encuentre con un entorno menos adictivo, más comprensible y con mucha menos presión comercial.


IA generativa, deepfakes y “compañeros” de chat en el punto de mira

La iniciativa también pone el foco en las nuevas herramientas de inteligencia artificial generativa, que se han popularizado a una velocidad enorme entre adolescentes:

  • Chatbots de compañía basados en IA, diseñados para mantener conversaciones continuas y emocionales con el usuario.
  • Aplicaciones de IA capaces de generar o manipular imágenes, incluidos deepfakes y apps que crean desnudos falsos sin consentimiento.
  • Agentes de IA y asistentes conversacionales que pueden influir en el comportamiento de los menores o exponerles a contenidos inadecuados.

El Parlamento pide una acción urgente para abordar los retos éticos y legales de estas tecnologías, con especial atención a la protección frente a contenidos sexuales manipulados, la suplantación de identidad y la explotación emocional de niños y adolescentes.


Verificación de edad: app europea y cartera de identidad digital

Uno de los puntos más delicados es cómo garantizar que las plataformas sepan si el usuario es menor de 16 años sin vulnerar su privacidad. Los eurodiputados respaldan el trabajo de la Comisión para desarrollar:

  • Una app europea de verificación de edad,
  • y la futura cartera de identidad digital europea (eID).

La idea es que estos sistemas permitan comprobar la edad sin exponer datos personales innecesarios. El Parlamento insiste en que los métodos de verificación deben ser:

  • Fiables,
  • proporcionados,
  • y respetuosos con la privacidad de los menores.

Al mismo tiempo, recuerdan que la verificación de edad no exime a las plataformas de su responsabilidad: los servicios deben ser seguros y adecuados a la edad “desde el diseño”, y no solo mediante un filtro añadido.


De la recomendación política a la ley: qué falta por decidir

El informe aprobado tiene carácter no legislativo. Para que estas medidas se conviertan en normas de obligado cumplimiento será necesario que:

  1. La Comisión Europea presente una propuesta legislativa formal (como una regulación o una directiva).
  2. Esa propuesta sea negociada y aprobada por el Consejo (Estados miembros) y el propio Parlamento Europeo.
  3. En su caso, los países adapten su legislación o apliquen directamente la norma europea.

La amplia mayoría obtenida en la votación y el dato de que más del 90 % de los europeos ve urgente proteger a los menores en Internet, según el Eurobarómetro de 2025, hacen pensar que existirá presión política para avanzar rápido. Sin embargo, aún no hay un calendario cerrado ni se conocen los detalles concretos de cómo se armonizarán las medidas con las leyes nacionales ya existentes.


Multas, bloqueos y responsabilidad directa de los directivos

El Parlamento también pide endurecer la aplicación del Reglamento de Servicios Digitales (DSA) y de las normas que se adopten en el futuro. Entre las herramientas que pone sobre la mesa destacan:

  • Multas significativas para las plataformas que incumplan de forma sistemática las obligaciones de protección de menores.
  • La posibilidad de prohibir servicios o bloquear el acceso a plataformas que ignoren repetidamente las reglas europeas.
  • Incluso hacer que altos directivos puedan ser personalmente responsables en casos de incumplimientos graves y continuados en materia de protección de menores y verificación de edad.

Los eurodiputados recuerdan que, en última instancia, la UE podría llegar a bloquear el acceso a servicios como YouTube o redes sociales concretas en su territorio si se niegan a cumplir las normas, aunque señalan que el camino preferente será siempre el de la corrección voluntaria mediante sanciones económicas.

“Por fin estamos marcando un límite. Estamos diciendo claramente a las plataformas: sus servicios no están diseñados para niños. Y el experimento termina aquí”, resumió la ponente del informe, la eurodiputada danesa Christel Schaldemose, durante el debate en Estrasburgo.


Preguntas frecuentes sobre la propuesta del Parlamento Europeo

¿A qué edad podrían usar redes sociales los menores si sale adelante la propuesta del Parlamento Europeo?
El Parlamento propone fijar una edad mínima armonizada de 16 años para acceder a redes sociales, plataformas de vídeo y asistentes de IA en la Unión Europea. Los menores de entre 13 y 16 años podrían seguir usándolas solo con consentimiento verificable de sus padres o tutores. Sin ese consentimiento, las plataformas deberían bloquear el acceso.

¿Qué cambios tendrían que aplicar TikTok, Instagram, YouTube y otras plataformas para cuentas de menores?
Las plataformas deberían desactivar por defecto las funciones consideradas más adictivas para usuarios menores de edad: scroll infinito, autorreproducción de vídeos, mecánicas de “tirar para actualizar”, bucles de recompensa o determinados elementos de gamificación. Además, quedarían prohibidos los sistemas de recomendación basados en perfiles para menores y se exigirían más límites al marketing dirigido a niños y a las mecánicas de azar tipo loot boxes en juegos.

¿Cómo funcionaría la verificación de edad en redes sociales y plataformas de vídeo en la UE?
La propuesta apoya el desarrollo de una app europea de verificación de edad y el uso de la cartera de identidad digital europea (eID). Estos sistemas deberían permitir que un usuario demuestre que es mayor o menor de una determinada edad sin revelar más datos personales de los necesarios. El Parlamento insiste en que la verificación debe ser precisa, respetuosa con la privacidad y proporcional, y que no sustituye a la obligación de las plataformas de diseñar servicios seguros para menores.

¿Cuándo podría entrar en vigor la nueva normativa europea sobre redes sociales y menores de 16 años?
Por ahora no hay fecha. El texto aprobado es un informe no vinculante, que marca la posición política del Parlamento Europeo. Para que las medidas se conviertan en ley, la Comisión Europea debe presentar una propuesta legislativa y esta debe ser aprobada por el Parlamento y el Consejo. El alto nivel de apoyo político y la preocupación social por la salud mental de los menores auguran avances en los próximos años, pero el contenido final y el calendario dependerán de esas futuras negociaciones.


Fuentes:
Parlamento Europeo, informe sobre protección de menores en línea (2025).
Eurobarómetro 2025 sobre seguridad infantil en Internet.

Fuente: Unión Europea

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo último

×