¿Es YouTube un lugar seguro para los niños? Para algunos, el escándalo de esta semana es una prueba de que la red social no es un espacio para los menores de edad. La polémica que rodea al segundo mayor buscador del mundo surge de reportes y denuncias sobre comentarios inapropiados en videos de menores de edad en los que se desplegaba publicidad.
El domingo, el creador de contenido Matt Watson, del canal MattsWhatItIs, publicó un video de más de 20 minutos, titulado 'Youtube está facilitando la explotación sexual infantil y está monetizando', en el que denuncia cómo pedófilos usan comentarios de YouTube para etiquetar minutos en videos de niñas y compartir entre los usuarios fotogramas de las menores en posiciones 'sexualmente sugerentes'.
Aunque los videos de las menores no son propiamente material de explotación infantil, algunos usuarios en la red social dejaban comentarios abiertamente violentos en grabaciones de niñas haciendo gimnasia, bailando frente al espejo o cantando.
El video de Watson muestra algunas mecánicas por las que un abusador podría navegar sin límite en lo que denominó "un círculo de pedofilia atenuada". Una vez el usuario llega a un video de una menor, un error en la plataforma le muestra únicamente videos similares. En los comentarios, como ilustra el videoblogger, usuarios anónimos etiquetan minutos y segundos que envían a fotogramas 'comprometedores' y también realizan comentarios que aluden a pedofilia como : "'pequeña diosa' o 'sólo 9 años, qué belleza'".
"¿Cómo es que tenemos un sistema de chequeo y personas que revisan manualmente los contenidos y no se dan cuenta de este tipo de comentarios?", cuestiona el youtuber. Para este jueves, el video de Watson había sido visto más de 2 millones de veces.
La polémica ha llevado a que Nestlé en EE. UU., el proveedor de servicios de red AT&T, el desarrollador de videojuegos Epic Games, entre otros hayan anunciado que retirarán o suspenderán sus anuncios en la plataforma. Según reportes de fuentes citadas por Bloomberg, Walt Disney también suspendió sus anuncios.
Pero esta no es la única polémica, hace dos años, varios anunciantes importantes retiraron el gasto de YouTube después de que aparecieran anuncios junto a contenido extremista y violento.
Por una parte, YouTube cuenta con una aplicación apta para menores de 13 años, llamada YouTube Kids, en la que los contenidos están restringidos y no se despliegan anuncios comerciales de marcas.
En 2017, Youtube Kids tuvo que prohibir el canal Toys Freak porque un padre subía contenidos perturbadores con sus dos hijas, en los que las niñas salían bañándose o fingiendo ser bebés. También tuvo que dar de baja el canal Daddy O' Five, en el que una pareja realizaba bromas pesadas a cinco niños y en las grabaciones se veía el sufrimiento y frustración de los menores. En ambos casos, los canales fueron detectados después de denuncias por parte de otros creadores de contenido dentro de la red.
Por todas estas controversias, YouTube viene trabajando en la revisión del contenido nocivo en su plataforma de forma automática y manual. En diciembre de 2017, anunciaron la contratación de 10.000 monitores humanos para hacer frente a críticas similares.
Sin embargo, la red social no tiene ningún mínimo de edad para quiénes aparecen en sus videos. De hecho, la polémica actual no habla del contenido que acceden los niños, que estaría alojado en YouTube Kids, sino del que es producido por niños y sus padres y termina en la red.
Sobre la polémica reciente, una vocera de YouTube dijo en un correo electrónico a Bloomberg: “Cualquier contenido, incluidos los comentarios, que ponga en peligro a los menores es abominable y tenemos políticas claras que lo prohíben en YouTube. Tomamos medidas inmediatas al eliminar cuentas y canales, informar sobre actividades ilegales a las autoridades y deshabilitar los comentarios infractores".
REDACCIÓN TECNÓSFERA*
*Con Bloomberg
En Twitter: @TecnosferaET