El Parlamento Europeo ha dado un paso político de calado en la protección de los menores en línea. La Comisión de Mercado Interior y Protección del Consumidor (IMCO) aprobó este jueves un informe con 32 votos a favor, 5 en contra y 9 abstenciones que pide prohibir el acceso a redes sociales a los menores de 13 años y propone una edad digital mínima de 16 años para usar redes sociales, plataformas de vídeo y “compañeros” de Inteligencia Artificial, salvo autorización de los padres. El texto, además, reclama a Bruselas un uso más contundente de las herramientas de la Ley de Servicios Digitales (DSA) —incluidas multas y, como último recurso, vetos a sitios o apps que pongan en riesgo a los menores— y perfila un catálogo de medidas disruptivas contra diseños adictivos, algoritmos de recomendación basados en la participación y prácticas de monetización con menores.
No se trata aún de una ley, sino de recomendaciones políticas que la Eurocámara someterá al Pleno de noviembre. Pero el mensaje es inequívoco: el actual equilibrio entre libertad de empresa, derechos de los menores y diseño de plataformas no funciona, y la UE está dispuesta a subir el listón.
Qué propone exactamente el Parlamento
El informe de IMCO, liderado por la eurodiputada danesa Christel Schaldemose, articula tres grandes ejes:
1) Edad mínima y verificación respetuosa con la privacidad.
Los eurodiputados piden 16 años como edad digital mínima para abrir o usar cuentas en redes sociales, plataformas de vídeo y aplicaciones de IA tipo “compañero”, con la excepción de los casos en que medie autorización parental. A la vez, recomiendan prohibir el acceso a cualquier red social a los menores de 13 años, incluso con permiso paterno. Para hacer esto viable, respaldan el desarrollo de sistemas de verificación de edad que preserven la privacidad, con énfasis en que no eximan a las plataformas de su deber de seguridad por diseño.
2) Mano dura con prácticas adictivas y algoritmos para menores.
IMCO pide desactivar por defecto las funciones más adictivas cuando el usuario es menor (por ejemplo, autoplay, scroll infinito, historias efímeras diseñadas para maximizar enganche, “nudges” y otros dark patterns). Además, reclama prohibir los algoritmos de recomendación basados en participación (likes, tiempo de visionado, comentarios) en cuentas infantiles y evitar el perfilado que muestre contenido a menores en función de historiales o características sensibles. En videojuegos accesibles a menores, el informe apuesta por prohibir mecanismos similares a juegos de azar, como las “cajas de botín” (loot boxes).
3) Cumplimiento y responsabilidades.
Los eurodiputados instan a la Comisión Europea a emplear plenamente la DSA, “incluido multar o, como último recurso, prohibir” servicios que no cumplan y pongan en peligro a los menores. Incluso plantean valorar la responsabilidad personal de directivos en caso de incumplimientos graves y persistentes en materia de protección infantil, con especial atención a la verificación de edad. El texto también entra en nuevas fronteras del daño digital: urge abordar las apps de IA que generan desnudos sin consentimiento y aplicar con firmeza la Ley de IA contra chatbots manipuladores o engañosos. Y añade un elemento poco tratado: impedir la monetización o incentivos al kidfluencing (menores actuando como influencers).
Qué cambia en la práctica (si prospera)
Aunque el informe no es vinculante, marca la dirección de viaje y perfila el núcleo de una futura regulación complementaria a la DSA (los eurodiputados mencionan una “Digital Fairness Act” para cerrar lagunas de diseño persuasivo). Si el Pleno lo refrenda y la Comisión toma el guante, Europa podría ver:
- Un estándar homogéneo de acceso +16 (con consentimiento parental como excepción), y veto absoluto <13.
- Obligaciones técnicas para detectar cuentas infantiles y aplicar modos de protección por defecto (sin autoplay, sin scroll infinito, sin recomendadores basados en engagement ni perfilado).
- Límites claros a la monetización de menores y cierres a prácticas de gamificación que se asemejan a apuestas.
- Riesgos reales de sanciones severas —e incluso bloqueos— para plataformas incumplidoras, con una novedad: la posible responsabilidad personal de directivos por incumplimientos reiterados.
¿Y la verificación de edad sin invadir la privacidad?
Es el gran reto técnico y jurídico. IMCO respalda métodos de aseguramiento de edad que no revelen más datos de los necesarios y se integren con iniciativas europeas como la futura Identidad Digital Europea. La clave está en probar un atributo (“tengo 16 o más”) sin destapar la identidad completa, usando credenciales verificables, pruebas de conocimiento cero o validaciones locales en el dispositivo. Varios Estados miembros, de hecho, pilotaron en 2025 aplicaciones de verificación de edad apoyadas en ese marco. La filosofía: “privacidad por diseño”, mínimo dato, mínimo tiempo y sin reutilizar la verificación para perfilar al menor.
Por qué ahora: salud mental, adicción y desinformación
El impulso político llega tras un goteo de investigaciones sobre daño psicológico, riesgo adictivo, acoso y exposición a contenido nocivo en plataformas masivas. Eurobarómetros recientes muestran que los jóvenes consumen información de forma muy distinta a generaciones previas y acuden a redes no solo para ocio, también para noticias y relaciones. La combinación de diseño persuasivo, recomendadores opacos y moderación insuficiente preocupa a reguladores, educadores y familias. La respuesta europea intenta recalibrar incentivos: si el negocio se alimenta del tiempo y la atención de los menores, la norma buscará limitar el “anzuelo” y elevar garantías.
¿Qué opinan las plataformas?
El sector suele alegar tres puntos:
- que ya existen controles parentales y centros de seguridad;
- que verificar edad con garantías es complejo y puede generar fricción;
- que un veto rígido podría empujar a menores hacia servicios opacos.
La posición europea, sin embargo, se ha endurecido: la responsabilidad de seguridad es del servicio, no del usuario; la verificación debe ser proporcional y privacidad-first; y, si un servicio no puede proteger a menores, no debería ofrecerles determinadas funciones o acceso.
El papel de la DSA (y por qué esta vez puede ir en serio)
La DSA ya obligó a las plataformas a gestionar riesgos sistémicos, auditarse y cooperar con la Comisión. Lo que cambia ahora es el tono: la Eurocámara pide a Bruselas usar todo el arsenal —multas de hasta el 6 % de la facturación global y vetos— cuando se ponga en peligro a los menores. La Comisión mantiene procedimientos abiertos sobre protección de menores y diseño adictivo en varias plataformas; el informe de IMCO empuja a acelerar y probar hasta dónde llegan los dientes del reglamento.
¿Y los padres? ¿Y la escuela?
El modelo europeo basado en consentimiento parental para menores de 16 busca corresponsabilidad familiar, pero exige que el proceso sea fácil, claro y seguro. Los centros educativos —clave en la alfabetización digital— se verán interpelados a actualizar programas de bienestar digital, pensamiento crítico y gestión del tiempo en pantalla, alineados con la nueva lógica de modos infantiles y recomendadores “domesticados”.
Puntos finos que se jugarán en la letra pequeña
- Definiciones: qué es “plataforma de intercambio de vídeo”, quién es “menor”, cómo se identifica una cuenta infantil.
- Acreditación de edad: estándares interoperables, certificaciones y pruebas independientes para evitar age-washing.
- Excepciones y usos legítimos (educativos, sanitarios, apoyo psicológico) en entornos moderados.
- Ejecución transfronteriza: coordinación entre DCMs (coordinadores nacionales de la DSA) y Comisión para medidas cautelares rápidas.
- Compatibilidad con el RGPD y la Carta de Derechos Fundamentales (principio de interés superior del menor).
Preguntas frecuentes
¿Cuándo entraría en vigor la edad mínima de 16 años (y el veto <13)?
No hay fecha cerrada. El texto aprobado es un informe de iniciativa de la comisión IMCO que la Eurocámara votará en Pleno a finales de noviembre. Si recibe el apoyo del Pleno, la Comisión Europea podría presentar propuestas legislativas o usar la DSA para obligar a cambios. En el mejor escenario, habría proceso legislativo en 2026; entretanto, cabe esperar presión regulatoria y compromisos voluntarios.
¿Cómo funcionará la verificación de edad sin exponer datos personales?
La línea maestra es “probar la edad, no la identidad”: credenciales verificables que solo revelan que el usuario es mayor o menor del umbral, integradas con la Identidad Digital Europea y otros medios nacionales. Los datos deben minimizarse, no reutilizarse para publicidad o perfilado y borrarse en plazos estrictos.
¿Qué pasará con autoplay, scroll infinito y “recomendados para ti”?
Para cuentas infantiles, el Parlamento pide desactivar por defecto funciones adictivas, prohibir los recomendadores basados en engagement y evitar que el perfilado determine qué ve el menor. En la práctica, los “recomendados” deberían basarse en señales no adictivas y listas blancas adecuadas por edad.
¿Afecta a videojuegos y streamers infantiles (kidfluencers)?
Sí. El informe propone prohibir loot boxes y mecanismos afines en juegos accesibles a menores, además de impedir que las plataformas moneticen o incentiven el kidfluencing. Esto implicaría revisar tiendas in-app, mecánicas de recompensa y programas de afiliados cuando haya menores.
Fuentes
- Parlamento Europeo, IMCO — Nota de prensa oficial (16.10.2025): adopción del informe y principales medidas (edad mínima 16 con permiso parental, veto <13, adicción y DSA). (Parlamento Europeo)
- 20minutos — Cobertura en español de la propuesta (edad digital mínima y veto <13). (www.20minutos.es – Últimas Noticia)
- Courthouse News (vía AFP) — Resumen en inglés de la votación y alcance (16 años sin consentimiento; veto <13). (Courthouse News)
- Biometric Update — Contexto sobre verificación de edad y marco europeo. (biometricupdate.com)
- Reuters — Pilotos de verificación de edad en cinco Estados miembros con base en la Identidad Digital Europea (julio 2025). (reuters.com)