Inteligencia artificial: en busca del 'Robo sapiens'

Inteligencia artificial: en busca del 'Robo sapiens'

Un vistazo a los avances de esta disciplina, que busca que las máquinas aprendan y razonen.

fg

No pasará mucho tiempo antes de que las máquinas comiencen a pensar por sí mismas, en forma creativa.

Foto:

Archivo particular

12 de noviembre 2016 , 11:36 p.m.

Si la inteligencia artificial fuera la historia de la aeronáutica, podría decirse que estamos en los años 30: ya pasamos por el parto del primer dirigible y el vuelo motorizado de los hermanos Wright; ya fundamos la primera aerolínea y circunnavegamos el globo. Pronto romperemos la barrera de la velocidad del sonido y tendremos el primer ‘jet’ de pasajeros.

En otras palabras, de momento hemos creado máquinas con objetivos específicos que comienzan a asimilar información a partir de datos crudos, de la misma forma en que un niño humano aprende acerca del mundo que lo rodea.

“Desde el punto de vista de la inteligencia artificial, o IA, estamos ante el amanecer de nuestro futuro posbiológico”, dice Rodney Brooks, profesor emérito del Laboratorio de Computación e Inteligencia Artificial del Instituto Tecnológico de Massachusetts (MIT) y presidente de la empresa iRobot.

El experto se refiere al futuro en el que las máquinas, los sistemas que consideramos como ‘no vivos’, se comportarán como entidades biológicas y conscientes, tal como profetizó el matemático inglés Alan Turing, padre de la computación moderna.

(Además: ¿De qué trata la computación cognitiva?)

Tras décadas de tropiezos y avances, por fin empezamos a entender los retos de este campo, donde convergen la computación, la ingeniería mecánica, la psicología, la anatomía, la biomimética (tecnología inspirada en la naturaleza) y la neurología. En especial esta última.

La IA ya tiene capacidades que quizás no esperábamos lograr tan pronto. No pasará mucho tiempo antes de que las máquinas comiencen a pensar por sí mismas, en forma creativa. Y entonces todo será diferente.

De hecho, durante los últimos cinco años se han hecho más progresos en inteligencia artificial que en los anteriores 50. Tantos, que los gurús de la tecnología empiezan a preguntarse cuál será la jerarquía entre humanos y humanoides en el futuro. Y algunos de ellos, como Bill Gates y Elon Musk, incluso han manifestado su preocupación por que nuestras creaciones lleguen a convertirse en una amenaza.

Hollywood también ha puesto su parte para alimentar la visión de un futuro peligroso, con entidades artificiales que nos ven como nosotros nos aproximamos a los fósiles de los dinosaurios: una especie que dominó el mundo pero cuya falta de adaptación la condenó a la extinción. Para la muestra, ‘Terminator’, ‘ExMachina’, ‘Her’ y ‘The Matrix’, por citar solo un puñado de películas.

En esa misma línea, el físico inglés Stephen Hawking, uno de los mayores divulgadores científicos de nuestro tiempo, se refiere a la IA como “el mayor suceso de la historia humana”, pero advierte que, al mismo tiempo, “podría ser nuestro peor error”.

(Lea: Google reveló su visión de un hogar conectado)

Aprendizaje profundo

Mientras tanto, el área más caliente de la inteligencia artificial sigue siendo el llamado aprendizaje profundo. No es nada nuevo, pues hay investigadores metiéndole cabeza a este tema desde los años 70. Pero ahora, con el desarrollo de las unidades de procesamiento gráfico (GPU, por su sigla en inglés), que optimizan el rendimiento de los computadores, el aprendizaje profundo está renaciendo. Especialmente desde hace un par de años, cuando Google compró el grupo de investigaciones DeepMind.

El aprendizaje profundo, también llamado aprendizaje de las máquinas o creación de redes neuronales artificiales, consiste en desarrollar algoritmos capaces de descifrar un lenguaje natural.

La idea básica es tomar un modelo computacional y alimentarlo con información. Por ejemplo, meterle todo lo que existe en Wikipedia, o las noticias de CNN de los últimos meses. Luego se le hacen exámenes de selección múltiple o de completar la información (“en la siguientes frase, diga a qué palabra corresponde la X”, por ejemplo), como los que presentan los estudiantes. Es en ese proceso de ser evaluado donde el sistema ‘aprende’ a partir de su experiencia, como un niño cuando empieza a comunicarse.

Mustafa Suleyman, cofundador de DeepMind, cuenta que uno de estos sistemas fue puesto a prueba usando un videojuego de Atari, de los años 70, que consistía en una raqueta y una bola (el famoso ‘telebolito’). Al sistema no se le programó ninguna instrucción sobre cómo jugar. “Solamente se le dan pixeles crudos, y él debe pasar por la experiencia frustrante de que lo ‘maten’ varias veces, sin tener ninguna guía o elemento de comparación –explica Suleyman–. Eventualmente, el sistema le pega a una bola por accidente y aprende que esa acción le trae una recompensa”. Es algo muy similar a lo que hace un ratón de laboratorio cuando se da cuenta de que halar una palanca le representa acceder a comida.

El año pasado, DeepMind publicó los resultados de su última investigación en la revista ‘Nature’, según los cuales un algoritmo, después de 500 juegos, ganó la partida. “Este nuevo agente artificial sobrepasó el desempeño de los algoritmos previos y logró un nivel comparable al de un jugador humano profesional, capaz de sobresalir en una diversa gama de tareas difíciles”, concluyeron los científicos.

(También: Lo que deben tener en cuenta las empresas sobre transformación digital)

Todo esto podría traducirse para Google y sus usuarios en servicios que van desde la eficiente identificación de imágenes, textos y voces hasta la detección de fraudes y ‘spam’.

Pero llegar allá no es una tarea fácil. Durante este largo proceso de entrenamiento, los algoritmos de Google han hecho pasar a la empresa por momentos vergonzosos, como cuando clasificaron a una mujer negra como un gorila en Google Photos.

Otra cara de la moneda es la plataforma de computación cognitiva Watson, de IBM. Los programadores le enseñaron a leer literatura médica y ahora la supercomputadora es capaz de evaluar millones de investigaciones sobre cualquier enfermedad e identificar en pocos días tratamientos que les tomarían meses a los mejores médicos.

IA fuerte y débil

Aunque el trabajo de todos estos algoritmos es notable, surge la pregunta de qué tan similar a un cerebro humano es una red neuronal artificial. “Por ahora, es como comparar un sistema de cables y poleas con un músculo: tienen una relación, pero uno no diría que son la misma cosa”, dice Tomaso Poggio, director del Centro para Cerebros, Mentes y Máquinas, de MIT, cuyo trabajo complementa el esfuerzo del Gobierno estadounidense –mediante The Brain Initiative– para mapear la actividad de cada neurona del cerebro humano.

“Entender cómo crea inteligencia el cerebro es el mayor problema de la ciencia y la tecnología –añade Tomaso–. Para tener un entendimiento computacional de lo que significa la inteligencia, nuestro centro hace énfasis en cuatro áreas de investigación interdisciplinaria: la integración de la inteligencia, incluyendo visión, lenguaje y destrezas motrices; los circuitos para la inteligencia, que necesitarán investigaciones en neurobiología e ingeniería eléctrica; el desarrollo de la inteligencia en niños y, finalmente, el estudio de la inteligencia social”.

Para Patrick Winston, de MIT, lo que hace que la inteligencia humana se destaque sobre la artificial y la animal es nuestra habilidad de contar y entender historias. Por eso, lleva años trabajando en el programa Génesis, que intenta copiar esa cualidad.

Al dársele un corto recuento sobre un conflicto entre dos países, el programa intenta concluir por qué sucedieron las cosas y su significado. Génesis es capaz de detectar conceptos como la venganza y evaluar el carácter de un personaje. “Lo que buscamos es crear una inteligencia artificial que, por ejemplo, entre a un restaurante donde la gente esté conversando y comiendo, y pueda describir, con palabras, lo que está sucediendo en detalle. Y que pueda sentarse a la mesa sin volcar las sillas o romper las copas. Eso es difícil”, admite Winston.

De ahí el término de ‘robótica suave’ para agrupar a los robots capaces de interactuar con los humanos, comenta el experto David Hanson, de Hanson Robotics, en Hong Kong. Robots sociales como Sophie, muy populares en Japón y Corea, tienen la misión de inspirar a la gente a relacionarse con ellos y ayudarles a aprender.

Pero una cosa es crear máquinas inteligentes, sociables, capaces de entender nuestro tono de voz y reaccionar a ello –como el famoso robot Kismet, del MIT– y otra muy diferente crear máquinas conscientes.

Es decir, una cosa es la inteligencia artificial ‘débil’ y otra, la ‘fuerte’. La IA débil supone una máquina capaz de simular el comportamiento de la cognición humana (Kismet), pero incapaz de experimentar ese estado mental. Por el contrario, la inteligencia artificial fuerte implica desarrollar máquinas capaces de tener estados mentales cognitivos.

Sus promotores quieren hacer máquinas conscientes de sí mismas, con emociones y una conciencia verdadera: una superinteligencia artificial. “Cuando lleguemos a esa singularidad, el paisaje va a ser tan inimaginable que hoy es difícil decir cosas al respecto que tengan sentido”, asegura Rodney Brooks.

Entonces, plantea el presidente de iRobot, estará sobre la mesa el tema ético: “¿Estaría bien construir deliberadamente máquinas subhumanas? ¿Esclavizarlas? Ya Turing pensaba en eso. Hoy pensamos que está bien porque no sentimos empatía por las máquinas, pero eso puede cambiar”.

Algunos insistirán en que el problema no es la esclavización de nuestras máquinas conscientes sino la posibilidad de que ellas acaben con nosotros, pero la mayoría de especialistas en robótica creen que no será así. Más bien, adelantan, nos fundiremos con ellas. Vamos a injertar la conciencia humana en máquinas extraordinariamente durables y eficientes. En otras palabras, el ‘homo sapiens’ se desvanecerá como especie biológica, reemplazándose a sí misma por el ‘robo sapiens’.

El sistema que previó el triunfo de Donald Trump

Al contrario de lo que señalaban muchos estudios y encuestas de opinión, el sistema de inteligencia artificial MogIA predijo el estrecho triunfo del republicano Donald Trump en las elecciones presidenciales de Estados Unidos, como lo hizo con Barack Obama en los comicios anteriores.

El algoritmo, creado hace 12 años por la empresa india Genic.ai, ya había pronosticado que el magnate inmobiliario y la ex secretaria de Estado Hillary Clinton serían los nominados de sus respectivos partidos.

MogIA, bautizado así por el personaje Mowgli, de ‘El Libro de la Selva’, escrito por Rudyard Kipling, aprende a medida que explora su ambiente, al igual que el niño de la historia. Y según su creador, Sanjiv Rai, ha venido mejorándose a sí mismo en cada elección.

Los cálculos se hacen a partir del volumen de citas del nombre de un candidato que la gente hace en las redes sociales. Para generar la predicción de esta última contienda, MogIA analizó más de 20 millones de datos sobre Trump y Clinton recopilados en Facebook, Google, YouTube y Twitter, con el fin de generar una idea del sentimiento del público.

Al final, el candidato que logra el mayor grado de involucramiento con las audiencias gana la elección.

Pero más interesante aún es que tecnologías disruptivas como esta tienen el potencial de influenciar las interacciones en redes sociales sin que nos demos cuenta. Por ejemplo, tanto la campaña demócrata como la republicana usaron ‘chatbots’, o sistemas robóticos digitales, para crear y subir a las redes más de un millón de tuits en lapsos cortos, creando la ilusión de que ciertas opiniones eran virales.

Para Rai y otros líderes de la industria, la inteligencia artificial comienza a cambiar la arquitectura de las campañas electorales, al menos las de Estados Unidos, en parte porque cada vez más gente hace pública su opinión en las redes.

Y aunque la calidad de las predicciones depende de escoger las plataformas apropiadas (Snapchat no sería la mejor, probablemente), este medio es el campo de cultivo perfecto para alimentar la insaciable curiosidad de un sistema que aprende automáticamente y por sí mismo.

Algunas cuestiones sobre el futuro
rtyhfgh

Hanson Robotics desarrolla a la androide Sophie para que en el futuro pueda cuidar a niños y ancianos.

Foto:

Carros sin chofer

¿Quién paga los daños en caso de accidente?

¿Debe prohibirse que los niños y los ancianos se suban a ellos?

¿Deben tales vehículos obedecer reglas como los límites de velocidad?

Prótesis inteligentes

¿Nos darán las mejoras robóticas una ventaja injusta sobre los demás?

¿Deben hacerse disponible las prótesis inteligentes a las personas sin problemas en el cuerpo?

Robots sociables

¿Podrían las fallas o el ‘hackeo’ en los robots inteligentes causar daños físicos a los usuarios?

¿Redefinirán los robots inteligentes los papeles de los maestros y de quienes brindan cuidados a los ancianos?

Dispositivos implantados

¿Los dispositivos implantados en el cuerpo acabarán con nuestra privacidad?

¿Quién será técnicamente el dueño del dispositivo y su data?

Asistentes médicos

¿Quién da consentimiento para compartir historiales médicos con los sistemas inteligentes?

¿Lograrán los sistemas inteligentes democratizar el acceso a la mejor medicina de diagnóstico?

ÁNGELA POSADA-SWAFFORD*
Para EL TIEMPO
* Ángela Posada-Swafford se especializa en escribir sobre temas de ciencia.

Sigue bajando para encontrar más contenido

Ya leíste 20 artículos gratis este mes

Rompe los límites.

Aprovecha nuestro contenido
desde $10.999 al mes.

¿Ya eres suscriptor? Ingresa

Sabemos que te gusta estar siempre informado.

Crea una cuenta gratis y pódras disfrutar de:

  • Acceso ilimitado al contenido desde cualquier dispositivo.
  • Acceso a boletines con las mejores noticias de actualidad.
  • Comentar las noticias que te interesan.
  • Guardar tus artículos favoritos.

Crea una cuenta gratis y disfruta de acceso ilimitado al contenido, desde tu computador, tableta o teléfono inteligente.

Disfruta del contenido sin límites

CREA UNA CUENTA GRATIS


¿Ya tienes cuenta? INGRESA