Facebook admite lentitud para atajar el 'discurso de odio' en Myanmar

Facebook admite lentitud para atajar el 'discurso de odio' en Myanmar

La red social contratará un equipo de 40 personas para curar el contenido y prevenir discriminación.

Crisis rohinyá

Desde el 25 de agosto de 2017, un aproximado de 626.000 rohinyás han huido de Birmania a Bangladés debido a una persecución social con motivos religiosos.

Foto:

Cortesía: Olivia Headon / OIM

Por: REDACCIÓN EL TIEMPO
16 de agosto 2018 , 10:30 a.m.

Facebook, el gigante de las redes sociales con más de 2 mil millones de usuarios en el mundo, admitió este jueves su lentitud a la hora de atajar el 'discurso de odio' que invade la plataforma con motivo de la violencia étnica en Myanmar (Birmania), que afecta con especial énfasis a la minoría rohinyá.

"Tenemos la responsabilidad de combatir el abuso en Facebook. Especialmente en países como Myanmar donde muchas personas están utilizando internet por primera vez y las redes sociales pueden ser usadas para propagar el odio y avivar las tensiones sobre el terreno", dijo en un comunicado.

La compañía creará un equipo dedicado a solucionar el problema concretamente en ese país del Sudeste Asiático, de donde han huido unos 700.000 rohinyás a raíz de  la campaña de represión del ejército, que arrancó  en agosto de 2017.

A través de redes sociales, grupos nacionalistas birmanos y extremistas budistas han publicado mensajes y contenidos multimedia en contra de los rohinyá, quienes en su mayoría profesan el islam.

"Hemos sido muy lentos en prevenir la desinformación y el odio a través de Facebook", dijo la compañía, citando algunos perfiles de individuos y grupos suspendidos en la red social.

Unos 60 empleados de la compañía revisan actualmente los mensajes denunciados en birmano, pero Facebook prevé contratar a otras 40 personas para el mismo cometido antes de final de año.

"Pero no es suficiente con añadir más revisores, porque no podemos depender solo de las denuncias para atrapar los malos contenidos", según el comunicado, que de cualquier manera no hace referencia directa a los rohinyá, la red social también trabaja en reforzar el trabajo de herramientas de inteligencia artificial que identifiquen las publicaciones nocivas. 

"También ha quedado claro que en Myanmar, las noticias falsas pueden ser utilizadas para incitar a la violencia, especialmente cuando ello se combina con tensiones étnicas y religiosas", aclaró. 

Más de 600.000 musulmanes rohingya han huido de Myanmar hacia Bangladés después de que ataques insurgentes recibieron como respuesta una campaña de seguridad en agosto pasado. De los hechos existen denuncias y testimonios desgarradores sobre ejecuciones y violaciones por parte de las fuerzas de seguridad de Myanmar.

En marzo, expertos en derechos humanos de EE. UU. aseguraron que Facebook había desempeñado un papel en difundir el discurso de odio en Myanmar.

Marzuki Darusman, presidente de la Misión Internacional Independiente de Investigación de los Estados Unidos sobre Myanmar, dijo a los periodistas que las redes sociales habían desempeñado un "papel determinante" en el lugar.

"Ha contribuido sustancialmente al nivel de disensión y conflicto, si se quiere, dentro del público. El discurso del odio ciertamente es parte de eso. En lo que respecta a la situación de Myanmar, las redes sociales son Facebook y Facebook son las redes sociales", aseguró.

REDACCIÓN TECNÓSFERA*
*Con Reuters​

Sigue bajando para encontrar más contenido

CREA UNA CUENTA


¿Ya tienes cuenta? INGRESA

Llegaste al límite de contenidos del mes

Disfruta al máximo el contenido de EL TIEMPO DIGITAL de forma ilimitada. ¡Suscríbete ya!

Si ya eres suscriptor del impreso

actívate

* COP $900 / mes durante los dos primeros meses

Sabemos que te gusta estar siempre informado.

Crea una cuenta y podrás disfrutar de:

  • Acceso a boletines con las mejores noticias de actualidad.
  • Comentar las noticias que te interesan.
  • Guardar tus artículos favoritos.

Crea una cuenta y podrás disfrutar nuestro contenido desde cualquier dispositivo.