‘Necesitamos un código de ética para la tecnología’

‘Necesitamos un código de ética para la tecnología’

Para el experto en IA David Bray, las naciones deciden entre seguridad, privacidad y transparencia.

Foro innovación Bavaria - David Bray

David Bray se presentó en Bogotá el 5 de julio en el hotel Grand Hyatt en el marco del innovation Forum Bavaria

Foto:

Nestor Gómez / CEET

Por: LINDA PATIÑO - REDACCIÓN TECNÓSFERA
09 de julio 2019 , 06:05 a.m.

El desafío de evitar que las máquinas inteligentes resulten xenófobas, machistas o racistas es una de las principales preocupaciones de expertos en inteligencia artificial (IA) como David Bray, director ejecutivo de la Human Centered Internet Coalition, cofundada por el pionero de internet Vint Cerf.

Bray, quien ha sido un gestor del voluntariado y las comunidades, con roles como copresidente del comité de Inteligencia Artificial de la asociación mundial de ingenieros (IEEE) y presidente de Hu-manity.org, que se enfoca en el control de los usuarios sobre sus datos personales, visitó Bogotá la semana pasada para presentarse en el Innovation Forum Bavaria.

En entrevista con EL TIEMPO, Bray habló sobre inteligencia artificial y sus desafíos.

David Bray Human Centered Internet Coalition

David Bray, presidente ejecutivo de la Human Centered Internet Coalition, voluntario y consultor en políticas públicas y gobernanza digital.

Foto:

Héctor Fabio Zamora / CEET

¿Cómo ve el panorama de la tecnología en el futuro?

Soy un gran creyente de usar las herramientas no solo para impulsar a corporaciones e individuos sino también a comunidades. Debemos concentrar nuestra atención en ese aspecto para que las comunidades tomen decisiones basadas en sus propios contextos en vez de asumir que unos pocos tienen todas las respuestas.


Vivimos en un futuro aumentado, se trata de pensar globalmente. Durante décadas nos acostumbramos a pasar tiempo con un círculo social limitado a unas 50 personas. La cuestión es cómo la tecnología puede ayudarnos a impulsar a las comunidades al nivel local y al nivel global, entendiendo que hay 6,9 miles de millones de personas.

Hay quienes usan la IA para engañar. ¿Qué opina de los videos falsos realistas o deepfakes?

Estamos viviendo la tercera ola de la IA. Pasamos de emular, en los 60, la forma en que juegan los humanos a predecir tendencias siguiendo unas reglas determinadas en los 80. Ahora nos estamos enfocando en un machine learning más profundo de redes neurales, en el que no necesariamente se le enseñan a la máquina reglas específicas sino que se le expone a suficientes datos.

La cuestión es que se cumple el dicho “garbage in, garbage out” (“basura entra, basura sale”). Si los datos son malos, no sorprende un sistema sesgado y con conclusiones pobres. Es como criar a un niño de 5 años. No se le explica que para hablar debe usar un sujeto, verbo y predicado, sino que se les expone a suficiente lenguaje. Lo que diga está relacionado a lo que ha escuchado.

Los desafíos aparecen porque estamos alimentando los sistemas con información que no es representativa. Hay sistemas que no reconocen a poblaciones minoritarias, comunidades como los nativos americanos no son tenidos en cuenta y corren el riesgo de ser injustamente olvidados por la historia, hay aplicaciones de filtros, aparentemente inofensivos, que terminan aclarando el tono de la piel porque fueron desarrollados con muestras de personas blancas.

Creo que debemos hacer frente a estos desafíos logrando que la gente acceda a datos representativos y también habilitando que las personas puedan elegir si quieren que un sistema use o no su información.

Los deepfakes y otros desarrollos se tratan, lamentablemente, de algo que no se puede esconder en una caja y que se hará más parte de nuestra realidad. Es como el fuego: es genial para cocinar alimentos, pero también puede quemar a una persona. O como las rocas: pueden construir refugio y edificios para las personas o lastimarlas.

Las mismas tecnologías que utilizamos para mejorar a diario nuestra calidad de vida, o para reemplazar tareas repetitivas que nos permitan enfocarnos en el trabajo más creativo, también son fuerzas que pueden ser utilizadas para herir a otros.

Se está haciendo más difícil para las personas que hacen cosas buenas que sus desarrollos sean sacados de contexto y usados para hacer el mal

Existe tensión entre las necesidades de seguridad y de transparencia ¿Cómo equilibrarlas?

Vint Cerf suele decir que las personas aseguran querer seguridad, privacidad y transparencia, pero probablemente pueden recibir dos de las tres. Este es el tipo de conversaciones que necesitamos tener sobre qué queremos hacer en lo comunitario y luego en un entorno nacional.

Las naciones toman decisiones diferentes. En Asia, algunas poblaciones optan por la seguridad a cambio de vivir en un Estado de Vigilancia. En EE. UU., hay compañías que monetizan los datos de los usuarios a cambio de servicios gratuitos, pero ¿realmente están las personas de acuerdo con ello o realmente entienden el valor de sus datos? Y en Europa, que con la llegada del Reglamento General de Protección de datos (GDPR) , tratan de enfocarse en la privacidad, pero tienen vagas definiciones que han dicho se resolverán con casos en la corte en los próximos 10 ó 15 años, lo que no permite mucha libertad para la innovación.

Mi preocupación personal es que no tenemos muchas narrativas esperanzadoras sobre cómo lucirá el siglo 23 ó 24. Nos sorprenden las cosas malas que ocurren en las distopías, pero si no estamos impulsando también perspectivas positivas del futuro no debería sorprendernos que alguien más se encargue de emular esas visiones.
Pero la ley es un martillo muy pesado para usar en este contexto.

Cuando la edad media terminó y las personas empezaron a salir de las ciudades en las que habían nacido, la pregunta era cómo saber que el recién llegado, que decía ser un doctor, un abogado o un académico, era efectivamente quien decía ser. Para resolverlo, las sociedades profesionales comenzaron a avalar a individuos en conocimiento y experiencia, pero también a imponer un código de ética. Llámese el juramento hipocrático o las leyes de los abogados, se trata de una manera de regularse a sí mismos.

Deberíamos pensar en códigos de ética para diferentes temáticas tecnológicas. La idea es que las personas que trabajan en el sector, como ocurre en la medicina o el derecho, tengan un código de ética independiente al que mantienen las organizaciones o empresas para que sin importar dónde se empleen, apliquen cosas como pedir permiso antes de usar los datos de algún usuario o no usar la data para herir a alguien.

Los deepfakes son algo que no se puede esconder en una caja y que se hará más parte de nuestra realidad. Es como el fuego: es genial para cocinar alimentos, pero también puede quemar a una persona

El problema con los principios sería que los grupos realmente malvados van a ignorarlos... ¿no?

Sí, estoy 100 por ciento de acuerdo. El desafío es que cada vez es más sencillo que las personas hagan cosas hirientes con la tecnología sin ser detectados. Peor aún, se está haciendo más difícil para las personas que hacen cosas buenas que sus desarrollos sean sacados de contexto y usados para hacer el mal.

Lo que sabemos es que tenemos desafíos muy serios. Pero tenemos que pensar en momentos como la Segunda Guerra Mundial. Esos también eran unos desafíos muy serios y logramos lidiar con ellos. Creo que necesitamos más conversaciones en las que las personas se escuchen unas a otras.

Como dijo en alguna ocasión el presidente de LinkedIn en EE. UU. ‘Puede que no me agrade esa persona... debo conocerlo mejor’. ¿Cuántos de nosotros nos tomamos el tiempo para entender la perspectiva de alguien más?

Se cree que ser joven es sinónimo de saber de tecnología, pero usar redes sociales no es lo mismo que entender su uso responsable. ¿Cómo fomentar las discusiones sobre datos, privacidad o burbujas ideológicas?

Soy escéptico frente a los estereotipos de una u otra generación. Hay gente sabia en tecnología que nació en los 70. Lo que necesitamos son oportunidades para reflexionar sobre las consecuencias de las herramientas, pero -aún más importante- sobre las decisiones que tenemos en nuestras manos.

Frecuentemente, los problemas sociales son un problema que otros deben resolver, bien sea el Gobierno o las compañías. Necesitamos pensar en cuáles son nuestras obligaciones y con quiénes (clientes, ciudadanos, familia y amigos). Luego, identificar los posibles sesgos que poseemos y, después, articular las respuestas a esas obligaciones.

Si al menos pudiéramos comenzar a valorar el hecho de ser más sensatos y reflexivos tal vez dejemos de culpar a los sistemas por cómo se piensa en la sociedad y podamos darle mayor voz a la construcción comunitaria.


LINDA PATIÑO CÁRDENAS
REDACCIÓN TECNÓSFERA
Twitter: @LinndaPC o Instagram: @Lindapatcar

Descarga la app El Tiempo. Con ella puedes escoger los temas de tu interés y recibir notificaciones de las últimas noticias. Conócela acá

Sal de la rutina

Logo Boletin

Estás a un clic de recibir a diario la mejor información en tu correo. ¡Inscríbete!

*Inscripción exitosa.

*Este no es un correo electrónico válido.

*Debe aceptar los Términos y condiciones.

Logo Boletines

¡Felicidades! Tu inscripción ha sido exitosa.

Ya puedes ver los últimos contenidos de EL TIEMPO en tu bandeja de entrada

Sigue bajando para encontrar más contenido

CREA UNA CUENTA


¿Ya tienes cuenta? INGRESA

Llegaste al límite de contenidos del mes

Disfruta al máximo el contenido de EL TIEMPO DIGITAL de forma ilimitada. ¡Suscríbete ya!

Si ya eres suscriptor del impreso

actívate

* COP $900 / mes durante los dos primeros meses

Sabemos que te gusta estar siempre informado.

Crea una cuenta y podrás disfrutar de:

  • Acceso a boletines con las mejores noticias de actualidad.
  • Comentar las noticias que te interesan.
  • Guardar tus artículos favoritos.

Crea una cuenta y podrás disfrutar nuestro contenido desde cualquier dispositivo.