Google declara la guerra a los 'trolls'

La empresa norteamericana crea un sistema de aprendizaje automático para identificar los comentarios "tóxicos" a la red

Hace aproximadamente medio año, Google anunció la puesta en marcha del proyecto Jigsaw, un sistema basado en la inteligencia artificial y el aprendizaje automático diseñado para combatir todo tipo de violencia a la red, desde los contenidos ofensivos hasta los servicios de reclutamiento de terroristas del ISIS.

Ahora Alphabet, la emprendida matriz de Google junto con la Wikipedia, el New York Times, The Economist y The Guardian, acaban de anunciar que la base sobre la que funciona el proyecto Jigsaw, llamada Perspective, ha sido puesta al alcance de todo el mundo en forma de APIO, un servicio para que desarrolladores de todo el mundo lo puedan integrar a sus aplicaciones de manera programática.

Ver Perspective en funcionamiento es realmente sorpresivo. El servicio usa algoritmos de aprendizaje automático para ser capaz de identificar insultos, amenazas y otros tipos de abuso en cualquier texto que procese. De hecho, accediendo en la página web del proyecto, hay una sección donde cualquier usuario puede introducir una frase –o todo un texto– y el sistema resolverá el porcentaje de "toxicidad" basado en sus conocimientos previos. Eso sí, de momento Perspective sólo funciona sobre textos en inglés.

Las aplicaciones de estos sistemas pueden ser infinitas. Os imagináis una opción a Twitter para esconder todo el contenido ofensivo? O una extensión a Google Chrome que permita leer los artículos de cualquier diario o navegar por foros de discusión obviando los insultos?

Pero cómo se lo hace el sistema para determinar si un comentario es "tóxico" o inofensivo? De entrada, los responsables de Perspective analizaron millones de mensajes extraídos de las discusiones editoriales de la Wikpedia, además de información del New York Times, entre otros. A partir de aquí, algunos resultados extraídos del sistema de proceso se mostraban a grupos de 10 personas que tenían que validar el grado de toxicidad de cada comentario.

Los resultados de este análisis y posterior validación por humanos ha sido procesado por un sistema de aprendizaje automático para identificar los patrones que permiten que Perpective funcione de manera autónoma y fiable.
Hoy Destacamos
Lo más leido