La IA es el as bajo la manga de YouTube contra videos inapropiados

La IA es el as bajo la manga de YouTube contra videos inapropiados 

El 80 % de los contenidos eliminados en último trimestre de 2017 fueron identificados por máquinas.

Nuevo servicio de YouTube

La mayoría de contenido inapropiado en YouTube es identificado en primer lugar por sistemas de aprendizaje automático. Luego los videos pasan a revisión humana. 

Foto:

Reuters

24 de abril 2018 , 09:19 a.m.

Los sistemas de aprendizaje automático se han convertido en una de las piezas claves utilizadas por las plataformas digitales para eliminar el contenido inapropiado. YouTube acaba de publicar su primer informe de moderación trimestral, con los datos de octubre a diciembre de 2017, en el que destacó que las máquinas le han permitido a la compañía marcar el contenido para su revisión a escala dando como resultado la eliminación de millones de videos infractores antes de que se vean.

En el último trimestre de 2017, la plataforma logró eliminar cerca de 8 millones de videos inapropiados que, mayoritariamente, incluían spam o contenido para adultos. 

De esa cifra, más del 80 por ciento (es decir 6,7 millones) fueron marcados como nocivos por primera vez por un sistema de inteligencia artificial. De esos 6,7 millones de videos, el 76 por ciento se eliminaron antes de recibir una vista única.

YouTube destacó que gracias a la implementación de herramientas de aprendizaje automático, en junio de 2017, el 8 por ciento de los videos eliminados por extremismo violento alcanzaron menos de 10 vistas. 

La compañía implementó un sistema de reporte de contenidos que permite que los usuarios marquen el contenido inapropiado (haciendo uso de una bandera). Sin embargo, las cifras demuestran que la mayoría de los reportes vienen de los sistemas automatizados, que luego se encargan de enviarlos para revisión humana.

Los revisores deben realizar una evaluación para identificar si el contenido viola las políticas de la compañía. Examinan el título, la descripción y las etiquetas e identifican si el video contiene contenido educacional, documentario, científico o artístico. Al final toman medidas, que pueden incluir desde mantenerlo al aire hasta restringirlo o removerlo. 
En algunos casos, los robots también pueden tomar acciones por su propia cuenta como, por ejemplo, eliminar videos con spam. 

“Nuestra inversión en aprendizaje automático para ayudar a acelerar las extracciones está rindiendo frutos en áreas de alto riesgo y bajo volumen (como el extremismo violento) y en áreas de gran volumen (como el correo no deseado)”, destacó la plataforma.

En 2017, YouTube se comprometió a terminar el 2018 con un total de 10.000 moderadores. La compañía también destacó la contratación de especialistas de tiempo completo con experiencia en extremismo violento, contraterrorismo y derechos humanos, así como la ampliación de los equipos de expertos regionales.

“Continuamos invirtiendo en la red de más de 150 académicos, socios gubernamentales y ONG que aportan valiosa experiencia a nuestros sistemas de aplicación, como el Centro Internacional para el Estudio de la Radicalización del King's College de Londres, La Liga Antidifamación y Family Online Safety Institute", señaló YouTube en el informe. 

TECNÓSFERA

Sigue bajando para encontrar más contenido

CREA UNA CUENTA


¿Ya tienes cuenta? INGRESA

Ya leíste los 800 artículos disponibles de este mes

Rompe los límites.

Aprovecha nuestro contenido digital
de forma ilimitada obteniendo el

70% de descuento.

¿Ya tienes una suscripción al impreso?

actívala

Sabemos que te gusta estar siempre informado.

Crea una cuenta y podrás disfrutar de:

  • Acceso a boletines con las mejores noticias de actualidad.
  • Comentar las noticias que te interesan.
  • Guardar tus artículos favoritos.

Crea una cuenta y podrás disfrutar nuestro contenido desde cualquier dispositivo.