Elon Musk, CEO de Tesla, y Mustafa Suleyman, director de inteligencia artificial aplicada en Google DeepMind, junto a 114 expertos más, firmaron una carta abierta dirigida a Naciones Unidas que busca la prohibición internacional de las armas letales autónomas, conocidas comúnmente con ‘Robots Asesinos’.
Los firmantes manifestaron que al hacer parte de las empresas que desarrollan tecnologías de Inteligencia Artificial (AI) y Robótica, que pueden ser reutilizadas para desarrollar armas autónomas, se sienten “especialmente responsables de levantar esta alarma”.
Esta no es la primera ocasión en la Elon Musk, CEO de Tesla, ha advertido sobre los avances en inteligencia artificial y ha pedido avanzar en su regulación y control. Ha llegado a decir que la AI es mucho más peligrosa que la amenaza de Corea del Norte, e incluso discutió sobre el tema con Mark Zuckerberg, afirmando que el CEO de Facebook posee un conocimiento limitado del tema.
El documento, titulada “una carta abierta a la convención de Naciones Unidas: Convención sobre Ciertas armas Convencionales (CCW por sus siglas en inglés)” fue presentada públicamente en la apertura de la Conferencia Internacional de Unión sobre Inteligencia Artificial (IJCAI 2017 por sus siglas en inglés) en Melbourne (Australia).
Dentro de la CCW, también conocida como la convención de ciertas armas inhumanas, Naciones Unidas decidió crear un grupo de expertos gubernamentales en sistemas de armas letales autónomas. La primera reunión del grupo de expertos, que debía llevarse a cabo el pasado 20 de agosto, fue cancelada debido a unos fallos en el pago de las contribuciones financieras a la ONU por parte de algunos estados.
Según los expertos, las armas letales autónomas amenazan con convertirse en “la tercera revolución en la guerra”. Lo que significa que una vez desarrollada, la tecnología permitiría un escalamiento de conflicto “más grande que nunca antes” y a “intervalos de tiempo más rápidos de los que los humanos pueden comprender”.
La mayor advertencia es que estas armas pueden ser y usadas por terroristas o déspotas contra poblaciones inocentes y que si llegaran a ser ‘hackeadas’ las armas podrían comportarse de una forma indeseada.
Musk y los demás firmantes escribieron que no hay mucho tiempo para actuar. “Una vez se abra la caja de Pandora, será difícil cerrarla”.
En la carta, los líderes mundiales en el desarrollo de esta tecnología pidieron a los participantes del grupo de expertos, conocido como GGE (por sus siglas en inglés) que: “trabajen arduamente en la búsqueda de medios para impedir una carrera de armamentos en estas armas, proteger a los civiles de su mal uso”. La reunión fue aplazada hasta noviembre de este año.
REDACCIÓN TECNOLOGÍA
Comentar