Redes reaccionan ante fenómeno de reemplazar rostros en videos porno

Redes reaccionan ante fenómeno de reemplazar rostros en videos porno

Una app, que usa Inteligencia Artificial, reemplaza caras de famosas en las de actrices porno.

Polémica por proyecto que busca derecho al olvido en redes

Empresas como Facebook, Twitter, Google y Amazon podrían ser multadas o bloqueadas por la Superintendencia de Industria y Comercio.

Foto:

Archivo / EL TIEMPO

08 de febrero 2018 , 03:31 p.m.

Las redes sociales y las plataformas digitales se enfrentan a un nuevo reto: el uso de las tecnologías de reconocimiento facial, por medio de Inteligencia Artificial (IA), para superponer el rostro de una persona en el cuerpo de alguien que participa en una escena pornográfica.

Desde diciembre de 2017 se han venido haciendo virales varios videos en los que las caras de las famosas de Hollywood, como Scarlett Johansson, Emma Watson y Taylor Swift, son puestos en los cuerpos de actrices porno. La polémica comenzó con un video de la actriz israelí Gal Gadot que causó furor en las redes sociales y que posicionó la tendencia de los llamados ‘deepfakes’. Todo empezó porque los contenidos se empezaron a compartir en la plataforma Reddit por un usuario que se hacía llamar ‘deepfakes’. Alrededor de estos videos se creó una comunidad, que llegó a tener más de 90.000 miembros.

Pero el tema no quedó ahí. Tras la respuesta dentro de dicha comunidad el usuario creó una aplicación denominada FakeApp que permite que, a través de un sistema de Inteligencia Artificial, cualquier persona pueda replicar la misma dinámica de reemplazo de rostros.

La tecnología detrás de esta app está basada en la utilización de un algoritmo de aprendizaje automático, técnica que hace parte de la inteligencia artificial, que analiza cientos de fotografías tomadas desde otras plataformas como Google y YouTube, para crear una versión generada de la cara de alguien e incorporarla en otro cuerpo.

El fenómeno se extendió de una manera preocupante. Además de la propagación de noticias falsas, los mensajes de odio en redes sociales y la transmisión en vivo de escenas violentas, ahora la tendencia de crear este videos porno falsos se sumó a la lista de grandes desafíos a superar por parte de las redes sociales.

La situación empeora teniendo en cuenta la dificultad de reconocer la veracidad del video. “La edición de cada fotograma es tan perfecto que habría que revisar fotograma por fotograma y mirar el error de cada uno en un software de edición”, dice Julián Molina, desarrollador de videos.

Pero las compañías de tecnología han decidido tomar medidas antes de que el tema pudiera salirse de control. Reddit eliminó el foro donde fue compartido el contenido y prohibió la publicación de imágenes sexuales sin el consentimiento de la persona, lo que catalogó como "pornografía involuntaria".

“A partir del 7 de febrero de 2018, hemos realizado dos actualizaciones a nuestra política de todo el sitio con respecto a la pornografía involuntaria y contenido sexual o sugerente que involucra a menores. Estas políticas se combinaron previamente en una sola regla; ahora serán divididos en dos distintos. Las comunidades se centraron en este contenido y los usuarios que publiquen dicho contenido serán excluidos del sitio”, dijo la plataforma en su sitio web.

De acuerdo con el medio Motherboard, que reveló el escandalo detrás de esta app, Twitter suspenderá las cuentas que publiquen videos porno producidos o distribuidos sin el consentimiento de uno de los involucrados así como los perfiles de quienes los compartan. Además, la red social borrará todos los contenidos creados por los algoritmos “deepfake”.

Twitter, a diferencia de otras redes sociales, permite contenido para adultos siempre y cuando estén marcados como "contenido confidencial". Sin embargo, aún no queda claro cómo identificarán, por ejemplo, que no hubo consentimiento de uno de los involucrados cuando sean casos en los que no hay celebridades.

Es importante que las plataformas de tecnología verifiquen cuando un contenido es falso. Se podría comprobar la procedencia de un video, por ejemplo, validando las dirección IP de donde se está originando el contenido para de alguna u otra forma verificar que sea una fuente confiable”, Germán Vargas, docente del programa de Ingeniería de Sistemas de la Universidad El Bosque.

“Las falsificaciones profundas se pueden aplicar a políticos, deportista y a cualquier persona. Es un tema muy delicado porque existen técnicas de inteligencia artificial para hacer todo tipo de falsificaciones”, agrega el experto.

Otras plataformas como Discord, Gfycat y Pornhub también se han pronunciado. "Los usuarios han comenzado a marcar contenido como este y vamos a quitarlo tan pronto como nos encontremos con las banderas. Alentamos a cualquier persona que se encuentre con este problema a que visite nuestra página de eliminación de contenido para que pueda realizar una solicitud oficialmente”, dijo el vicepresidente de Pornhub, Corey Price, según reseña el diario The Independent.

TECNÓSFERA

Sigue bajando para encontrar más contenido

CREA UNA CUENTA


¿Ya tienes cuenta? INGRESA

Sabemos que te gusta estar siempre informado.

Crea una cuenta y podrás disfrutar de:

  • Acceso a boletines con las mejores noticias de actualidad.
  • Comentar las noticias que te interesan.
  • Guardar tus artículos favoritos.

Crea una cuenta y podrás disfrutar nuestro contenido desde cualquier dispositivo.