Meta ha anunciado una ampliación de sus herramientas de protección para menores en Instagram, introduciendo nuevas funciones de seguridad mientras la compañía enfrenta crecientes cuestionamientos sobre sus verdaderas intenciones respecto a los usuarios más jóvenes.
Refuerzo de las medidas de protección
La empresa tecnológica ha implementado nuevas características de seguridad en los mensajes directos de las Cuentas para Adolescentes, que ahora mostrarán información adicional sobre las cuentas con las que interactúan los jóvenes, incluyendo la fecha de creación del perfil y opciones directas para bloquear y denunciar cuentas sospechosas.
Los datos facilitados por Meta revelan que en junio los adolescentes bloquearon cuentas 1 millón de veces y realizaron otro millón de denuncias tras recibir Avisos de Seguridad. La función de protección contra desnudos, activada por defecto, ha sido mantenida por el 99% de los usuarios, y más del 40% de las imágenes difuminadas en mensajes directos permanecieron sin visualizar durante el mismo período.
La compañía también ha extendido estas protecciones a cuentas gestionadas por adultos que presentan principalmente contenido de menores, aplicando automáticamente configuraciones de mensajes más restrictivas y filtros de comentarios ofensivos.
Acciones contra contenido dañino
Los equipos especializados de Meta eliminaron casi 135.000 cuentas de Instagram a principios de año por comportamientos inapropiados hacia menores, junto con 500.000 cuentas adicionales de Facebook e Instagram vinculadas. La información sobre estas cuentas fue compartida con otras empresas tecnológicas a través del programa Lantern de Tech Coalition.
La paradoja de la protección digital
Sin embargo, estas medidas llegan en un momento en que expertos en tecnología y organizaciones de protección infantil cuestionan las verdaderas motivaciones detrás de tales iniciativas. Críticos señalan que empresas como Meta se encuentran en una posición contradictoria: por un lado proclaman su compromiso con la seguridad infantil, mientras que por otro su modelo de negocio depende precisamente de captar y mantener la atención de usuarios cada vez más jóvenes.
«Es paradójico que las mismas plataformas que diseñan algoritmos para maximizar el tiempo de conexión y crear hábitos de uso compulsivo ahora se presenten como protectoras de la infancia», señalan especialistas en comportamiento digital. La realidad empresarial sugiere que cuanto antes se enganchen los menores a estas plataformas, mayor será su lealtad como consumidores a largo plazo.
Esta estrategia no es nueva en el sector tecnológico. Históricamente, las grandes corporaciones han comprendido que crear vínculos emocionales y hábitos de consumo durante la infancia y adolescencia garantiza una base de clientes más sólida y duradera. En el caso de las redes sociales, esto se traduce en usuarios que no solo permanecen en la plataforma durante décadas, sino que también generan más datos personales y son más receptivos a la publicidad dirigida.
El dilema regulatorio
Mientras Meta presenta estas medidas como una demostración de responsabilidad corporativa, legisladores de diversos países continúan presionando para una regulación más estricta del acceso de menores a las redes sociales. La tensión entre los intereses comerciales y la protección genuina de la infancia permanece como uno de los debates centrales en la era digital.
Las nuevas funciones de seguridad, aunque técnicamente avanzadas, no resuelven la cuestión fundamental: si las plataformas diseñadas para maximizar la participación y el tiempo de uso pueden verdaderamente proteger a sus usuarios más vulnerables sin comprometer su modelo de negocio basado en la atención y los datos personales.
La efectividad real de estas medidas deberá evaluarse no solo por las cifras de uso que proporciona la propia Meta, sino por estudios independientes que examinen el impacto a largo plazo en el bienestar digital de los menores.
Fuente: Noticias sobre Educación