Hasta hace algunos años, los comentarios que los usuarios dejaban en blogs, periódicos o en redes sociales como Youtube, podrían ser muy valiosos a la hora de tomar ciertas decisiones. Hoy en día, esta situación ha cambiado y resulta muy complicado moderar todas las conversaciones. Insultos, falsos testimonios y cosas similares, han hecho que Google quiera tomar cartas en el asunto. De esta forma, han presentado su nuevo proyecto conocido como Perspective, una tecnología pensada para identificar los comentarios tóxicos e incluso actuar en consecuencia.
Perspective, la inteligencia artificial de Google
Estar en una conversación donde se falta el respeto o donde los insultos abundan, hace que al final el usuario la abandone. En muchas ocasiones, la situación puede derivar en un acoso en la red. Según un estudio, el 72% de los usuarios de Internet de Estados Unidos, han sido testigo de este tipo de acosos. Cansados de la situación Google y Jigsaw han dado un primer paso para acabar con esta situación creando Perspective, una tecnología que se encuentra en su primera etapa de desarrollo y que utiliza el aprendizaje automático para ayudar a identificar comentarios tóxicos.
También te puede interesar: Las redes sociales y la responsabilidad de los comentarios
¿Cómo funciona Perspective?
Según han explicado sus creadores, esta tecnología lo que hace es analizar los comentarios de las personas, evaluándolos con el parecido que tienen los comentarios que otros usuarios han marcado como tóxicos. Para que Perspective aprenda a detectar un lenguaje potencialmente tóxico, tiene que examinar miles de comentarios etiquetados por personas dedicadas a revisarlos. Cada vez que Perspective encuentra nuevos ejemplos de comentario o recibe correcciones por parte de los usuarios, su capacidad de decisión mejora.
Cuando este sistema detecta algún tipo de información que podría ser tóxica, es enviada a los editores que pueden decidir que hacer con ella. Uno de los casos, es la opción de marcar comentarios para que sean revisados por los moderadores más tarde para decidir si los incluyen en la conversación. También ofrece la posibilidad de que la comunidad pueda entender el impacto negativo que puede llegar a ocasionar su comentario justo cuando lo está escribiendo. Incluso, los editores podrían permitir a los lectores que clasificasen los comentarios según su toxicidad. De esta forma se facilitaría la búsqueda de grandes debates escondidos en conversaciones tóxicas.
Sólo disponible en inglés
Por ahora, esta herramienta está disponible únicamente en inglés, pero está previsto que se vayan añadiendo más idiomas de forma paulatina. Para ello, es muy importante que haya editores que estén interesados en colaborar. De esa forma, se podrá empezar a recoger datos para construir un modelo.
Hay que decir, que esta iniciativa de Google no es nueva, sino que hay otras empresas que ya están trabajando es sistemas similares. Son el caso de Twitter o Mozilla. Facebook es otra de las que ha anunciado que quiere tomar cartas en el asunto para evitar a los «trolls». El tiempo dirá si finalmente el uso de estos sistemas de inteligencia artificial son eficaces.
Esperemos que Perspective llegue a ser tan eficiente como sus creadores dicen y que podamos poder disfrutar de comentarios sin ningún tipo de toxicidad. ¿Qué opinión tenéis sobre esta nueva tecnología? Animaros y compartir con todos nosotros vuestros comentarios. ¡Os estamos esperando!
Podéis ver más información sobre Perspective en el blog de Google.