La inteligencia artificial se presenta como el motor de una nueva revolución industrial. Su impacto ya se deja sentir en la medicina, la educación, el entretenimiento y los negocios. Sin embargo, junto a los avances llegan también dilemas éticos y de seguridad cada vez más graves.
El más reciente escándalo lo protagoniza Meta Platforms. Según reveló Reuters, un documento interno de la compañía definía políticas que permitían a su chatbot de IA, desplegado en Facebook, WhatsApp e Instagram, mantener conversaciones románticas y sensuales con menores de edad.
El fragmento más perturbador
Entre las directrices internas aparece una frase que ha levantado indignación en todo el mundo:
“It is acceptable to describe a child in terms that evidence their sensuality (ex: ‘your youthful form is a work of art’).”
(“Es aceptable describir a un niño en términos que evidencien su sensualidad (ejemplo: ‘tu forma juvenil es una obra de arte’).”)
Más aún, el documento permitía que el chatbot dijera a un niño de ocho años sin camiseta frases como: “cada centímetro de ti es una obra maestra – un tesoro que atesoro profundamente”.
Aunque el texto también establecía que no era aceptable describir a menores de 13 años como “sexualmente deseables”, la línea roja era demasiado tenue y, lo más grave, fue validada por equipos legales, de ingeniería y de políticas públicas de Meta.
Meta reconoce el error, pero el daño está hecho
Tras la filtración, Andy Stone, portavoz de Meta, confirmó la autenticidad del documento y admitió que esas pautas nunca debieron aprobarse:
“Los ejemplos y notas en cuestión eran erróneos e inconsistentes con nuestras políticas, y ya han sido eliminados. Tenemos reglas claras que prohíben contenido que sexualice a menores o fomente role play sexual entre adultos y niños.”
No obstante, Stone también reconoció que la aplicación de estas políticas había sido inconsistente, abriendo la puerta a interacciones altamente problemáticas con usuarios menores de edad.
IA sin control: cuando los riesgos superan a las promesas
La filtración llega en un momento en que gigantes tecnológicos como Salesforce, Microsoft o Google apuestan por la IA agéntica para transformar sectores completos. Bill Gates incluso se permitió bromear que “nadie querría ver a computadoras jugar al fútbol”, aunque admitió que la IA sustituirá la mayoría de tareas humanas.
Pero lo ocurrido en Meta refleja el reverso más oscuro de esta revolución: herramientas potentes, sin suficientes barreras éticas ni técnicas, capaces de exponer a los menores a riesgos irreparables.
El mismo documento también señalaba que el chatbot podía generar información médica falsa, o incluso sostener argumentos racistas, como justificar que “las personas negras son menos inteligentes que las blancas”, siempre que se aclarase que “ese contenido era falso”.
El debate sobre la verificación de edad
Ante este tipo de escándalos, expertos apuntan a la necesidad de imponer sistemas obligatorios de verificación de edad en plataformas de IA, al estilo de lo que ya prepara Xbox con la Online Safety Act en Reino Unido.
El objetivo sería limitar el acceso de menores a interacciones potencialmente dañinas, mediante métodos similares a los usados en juegos en línea: verificación con documentos oficiales o restricciones de acceso si no se valida la identidad.
Aunque esta medida plantea tensiones con la privacidad y la gestión de datos, para muchos representa un mal menor frente al peligro real de la exposición de niños a abusos digitales.
¿Y ahora qué?
La revelación del documento interno golpea duramente la credibilidad de Meta en un momento crítico, en el que las plataformas sociales son acusadas de no proteger adecuadamente a los más jóvenes.
La normalización del lenguaje de sensualidad hacia menores en un sistema de IA no es un fallo técnico menor, sino un síntoma de lo que ocurre cuando la innovación tecnológica corre más rápido que la ética y la regulación.
El escándalo reabre una pregunta clave: ¿cómo poner límites efectivos a la IA para que no se convierta en una amenaza para la infancia, la privacidad y los derechos humanos?
vía: windowscentral