Meta ha confirmado un cambio relevante en su estrategia de moderación: durante los próximos años, la compañía desplegará sistemas de inteligencia artificial más avanzados para detectar y retirar infracciones graves —especialmente estafas, suplantaciones e ilegalidades— y, al mismo tiempo, reducirá su dependencia de proveedores externos de moderación. El giro no implica, por ahora, la desaparición del factor humano, pero sí deja claro que la IA pasará a ser la capa principal de filtrado, detección y priorización a gran escala.

El anuncio lo hizo la propia Meta el 19 de marzo de 2026 en una actualización oficial sobre nuevas herramientas de soporte y seguridad en Facebook e Instagram. En ese texto, la compañía explica que sus nuevos sistemas de IA ya están dando resultados “prometedores” en pruebas tempranas y que, si siguen rindiendo mejor que los métodos actuales, transformarán progresivamente su enfoque de enforcement. Meta subraya que sus Community Standards no cambian con este movimiento, pero sí la forma de aplicarlos a escala.

La empresa justifica el cambio con varias métricas internas. Según Meta, estos sistemas han permitido identificar y mitigar 5.000 intentos de estafa al día que antes ningún equipo existente había detectado, reducir en más de un 80% los reportes de usuarios sobre algunas de las celebridades más suplantadas, duplicar la detección de contenido infractor de captación sexual de adultos con más de un 60% menos de errores, y recortar en un 7% las visualizaciones de anuncios con estafas y otras violaciones graves. También asegura que estos modelos pueden operar en idiomas hablados por el 98% de la población online, frente a una cobertura previa mucho más limitada.

Meta presenta esta transición como una mejora técnica y de eficiencia. Su argumento es que la IA puede encargarse mejor de tareas repetitivas, de revisión de contenido gráfico o de categorías donde los actores maliciosos cambian tácticas con rapidez, como la venta ilícita de drogas o las estafas. Pero la compañía insiste en que los humanos seguirán siendo centrales en decisiones de mayor riesgo, como las apelaciones por desactivación de cuentas o las comunicaciones a fuerzas de seguridad. Según Meta, los expertos humanos seguirán diseñando, entrenando, supervisando y evaluando estos sistemas.

En realidad, el movimiento encaja con la reconfiguración que Meta ya venía impulsando desde 2025. En enero de 2025, la empresa anunció su enfoque de “more speech and fewer mistakes”, con el fin del programa de verificación externa en Estados Unidos y el paso hacia Community Notes. Después, en marzo de 2025, confirmó que las notas comunitarias empezarían a probarse en Facebook, Instagram y Threads en Estados Unidos, y en abril de 2025 comenzaron a aparecer públicamente. Ese viraje ya anticipaba una moderación con menos intervención editorial clásica y más automatización, participación distribuida y cambios en la forma de escalar decisiones.

El nuevo anuncio da un paso más, porque ya no se limita a la verificación o al contexto añadido por usuarios, sino que reorganiza el centro operativo de la moderación. La IA deja de ser un apoyo parcial y pasa a convertirse en la primera línea de defensa sobre miles de millones de piezas de contenido. Los humanos, en cambio, quedan más concentrados en supervisión, entrenamiento, calidad y casos complejos. Es una recentralización técnica del proceso: menos personas externas tomando microdecisiones repetitivas y más sistemas automatizados haciendo el grueso del cribado. Esa lectura está respaldada por la propia frase de Meta de que reducirá su dependencia de third-party vendors y reforzará sus sistemas y su plantilla interna.

El impacto laboral de ese giro no es teórico. Reuters informó el 4 de abril de 2025 de que Telus, contratista de moderación de Meta, recortó alrededor de 2.000 puestos en Barcelona tras la ruptura del contrato con la compañía. Meta sostuvo entonces que no estaba reduciendo sus esfuerzos de revisión, sino trasladando operaciones a otras ubicaciones. Sin embargo, aquel episodio ya apuntaba a una tendencia que ahora se vuelve más explícita: la reducción de proveedores externos puede traducirse en menos trabajo humano subcontratado, aunque permanezca una capa interna de revisión y control.

La gran duda está en qué ocurrirá en las categorías más ambiguas. Meta presenta sus nuevos sistemas como más eficaces contra estafas y contenido claramente ilícito, y los resultados tempranos en fraude parecen ir en esa dirección. Pero el propio Oversight Board ha advertido en varias ocasiones que la automatización amplifica errores cuando falla el contexto, y que la moderación algorítmica puede reproducir sesgos o retirar contenido legítimo sin entender bien su intención. En un documento sobre moderación en la era de la IA y la automatización, el órgano independiente recordó que muchas decisiones ya son tomadas por máquinas y que eso exige más transparencia, mejores avisos al usuario y vías claras para aportar contexto en apelaciones.

De hecho, el Oversight Board tuvo que intervenir a comienzos de 2026 en un caso relacionado con contenido antiestafa en Taiwán que los sistemas automáticos de Meta habían retirado por error. El órgano concluyó que Meta debía mejorar su tecnología para distinguir mejor entre contenido fraudulento y contenido legítimo que advierte precisamente sobre estafas, además de estudiar avisos informativos para casos en los que no hubiera suficiente confianza para eliminar. Ese precedente encaja con el principal riesgo del nuevo modelo: la IA puede ser muy eficaz contra el fraude masivo, pero también puede volverse más opaca y más propensa a equivocarse en contenidos dependientes del contexto local, del idioma o de la intención comunicativa.

El cambio, por tanto, no debe leerse como el fin inmediato de la moderación humana, sino como su rediseño. Meta quiere que la máquina asuma la mayor parte del esfuerzo industrial de detección y clasificación, mientras reserva a los humanos el juicio en los puntos críticos del sistema. La compañía sostiene que eso mejorará resultados y reducirá errores. Sus críticos recuerdan que automatizar más no resuelve por sí mismo los problemas de transparencia, contexto o derechos de los usuarios. Lo que sí parece claro es que Meta ha tomado una decisión estructural: en su futuro inmediato, la moderación ya no girará principalmente alrededor de miles de revisores externos, sino alrededor de sistemas de IA entrenados para filtrar a una escala que los equipos humanos ya no pueden cubrir solos.

Lo último

×