Secciones
Síguenos en:
EL COMIENZO DE LA EDAD DE LA INFORMACIÓN II

EL COMIENZO DE LA EDAD DE LA INFORMACIÓN II

La expresión binaria hace posible la utilización de los circuitos eléctricos para fabricar calculadoras. Esto ocurrió durante la Segunda Guerra Mundial, cuando un grupo de matemáticos dirigidos por J. Presper Eckert y John Mauchly, en la Moore School of Electrical Engineering de la Universidad de Pennsylvania, comenzó a desarrollar una máquina informática electrónica, la Electronics Numerical Integrator and Calculator, llamada ENIAC. Su fin era acelerar los cálculos para los disparos de artillería. ENIAC se parecía más a una calculadora electrónica que a una computadora, pero en lugar de representar un número binario con las secuencias encendido y apagado sobre ruedas al modo en que lo hacían las calculadoras mecánicas, utilizaba conmutadores de válvulas de vacío.

Por: REDACCIÓN EL TIEMPO
11 de diciembre 1995 , 12:00 a. m.

Los soldados que el ejército asignó a la enorme máquina empujaban en torno a ella chirriantes carritos de mercado llenos de válvulas de vacío. Cuando una válvula se quemaba, ENIAC se apagaba y comenzaba una carrera por localizar la válvula quemada y reemplazarla. Una explicación, quizá algo apócrifa, del hecho de que las válvulas tuvieran que reemplazarse tan a menudo, fue que el calor y la luz que despedía atraían a las mariposas de la luz que se introducían en la enorme máquina y producían cortocircuitos. Si esto es verdad, tenemos una nueva explicación para el término bugs (bichos) que se refiere a los pequeños animalitos que podían caer como una plaga sobre el hardware o el software de la computadora (hoy en día, los problemas de los programas o equipos también se llaman bugs).

Cuando todas las válvulas estaban en funcionamiento, un equipo de ingenieros podía montar la ENIAC de manera que resolviese un problema enchufando laboriosamente 6.000 cables, a mano. Cada vez que se quería que realizase otra función, el equipo tenía que reconfigurar el cableado. El papel principal en el hecho de haber encontrado un modo de resolver este problema le cabe a un brillante personaje estadounidense de origen húngaro, John von Neumann, que es conocido por muchas cosas, incluido el desarrollo de la teoría de los juegos, y por sus contribuciones al armamento nuclear. El fue quien creó el paradigma que todas las computadoras digitales siguen todavía. La arquitectura von Neumann , como se conoce aún hoy, se basa en los principios que él articuló en 1945, incluido el hecho de que una computadora podía evitar tener que cambiar su cableado si se almacenaban instrucciones en su memoria. Cuando esta idea se puso en práctica, nació la computadora moderna.

Actualmente, los cerebros de la mayor parte de las computadoras descienden del microprocesador 8008 de Intel que nos dejó tan pasmados en los años setenta a Paul Allen y a mí, y las computadoras personales se clasifican a menudo de acuerdo con la cantidad de bits de información (un interruptor en el ejemplo de la iluminación) que su microprocesador puede procesar al mismo tiempo, o de cuántos bytes (un conjunto de 8 bits) de memoria o almacenamiento basado en disco tienen. ENIAC ocupaba una gran habitación. En el interior de ella, los impulsos electrónicos pasaban entre 1.500 relés electromecánicos y atravesaban 17.000 válvulas de vacío. Su encendido consumía 150.000 vatios de potencia. Pero ENIAC sólo almacenaba el equivalente a unos 80 caracteres de información.

Al principio de los años sesenta de este siglo, los transistores habían sustituido a las válvulas de vacío en la electrónica de consumo. Esto ocurrió más de una década después del descubrimiento en los laboratorios Bell de que una delgada oblea de silicio podía realizar la misma función que la válvula de vacío. Los transistores, al igual que las válvulas de vacío, actúan como conmutadores eléctricos, pero necesitan significativamente menos potencia para funcionar y, como consecuencia de ello, generan mucho menos calor y requieren mucho menos espacio. En su chip sencillo se podrían combinar múltiples circuitos de transistores creando un circuito integrado. Los chips de computadoras que utilizamos hoy son circuitos integrados que contienen el equivalente de millones de transistores insertados en menos de una pulgada cuadrada de silicio.

En un artículo de Scientific American de 1977, Bob Noyce, uno de los fundadores de INTEL, comparó el microprocesador de 300 dólares con ENIAC, el mastodonte infestado de mariposas de la aurora de la edad informática. El minúsculo procesador no sólo era más poderoso, sino que, como decía Noyce, es veinte veces más rápido, tiene una memoria mayor, es miles de veces más fiable, consume la energía de una bombilla en lugar de la de una locomotora, ocupa 30.000 veces menos volumen y cuesta 10.000 veces menos que ella. Se puede conseguir mediante un pedido efectuado por correo o en la tienda local de aficionados .

Por supuesto que el microprocesador de 1977 parece hoy un juguete. De hecho, muchos juguetes baratos contienen chips que tienen más potencia que los circuitos de los años setenta, con los que comenzó la revolución de la microinformática. Pero las computadoras de hoy día, cualquiera que sea su tamaño o su potencia, manejan información almacenada en forma de números binarios.

Los números binarios se utilizan para almacenar texto en una computadora personal, música en un disco compacto y dinero en una red bancaria de cajeros automáticos. Antes de introducir la información en una computadora tiene que ser convertida en binario. Después, unas máquinas, unos dispositivos digitales vuelven a convertir la información en su forma original y útil. Podemos imaginarnos que cada dispositivo conecta interruptores que controlan el flujo de electrones. Pero los interruptores implicados, que normalmente están fabricados de silicio, son extremadamente pequeños y se pueden conectar aplicándoles cargas eléctricas de una manera extraordinariamente rápida, para producir texto en la pantalla de una computadora personal, música en un reproductor de discos compactos y las instrucciones de un cajero automático para dispensar dinero.

El ejemplo de las luces puso de manifiesto que cualquier número se puede representar en forma binaria. He aquí cómo se puede expresar en forma binaria un texto. Convencionalmente, el número 65 representa a una A , el número 66 a una B , etc. En una computadora, cada uno de estos números, se expresa en código binario: la letra A , 65, se convierte en 01000001. La letra B , 66, se convierte en 01000010. El espacio se representa por el número 32, o 00100000. De esta manera, la frase Sócrates es un hombre (en inglés, Socrates is a man) se convierte en esta cadena de 136 dígitos formada por ceros y unos: 01010011 01101111 01100011 01110010 01100001 01110100 01100011 01110011 00100000 01101001 01110011 00100000 01100001 00100000 01101101 01100001 01101110 Es fácil deducir de aquí el modo en que se puede convertir una línea de texto en un conjunto de números binarios. Si queremos comprender cómo se digitalizan otros tipos de información, consideremos otro ejemplo de información analógica. Un disco de vinilo es una representación analógica de las vibraciones del sonido. Almacena información sonora en estrías microscópicas que rayan el disco en toda su longitud, siguiendo surcos en espiral. Si la música tiene un pasaje grave, las estrías profundizan más en el surco, y cuando tenemos una nota aguda, las estrías se disponen de forma más apretada. Las estrías del surco son análogas a las de las vibraciones originales (ondas de sonido capturadas por un micrófono). Cuando la aguja de un tocadiscos recorre el surco, vibra en resonancia con las estrías. Esta vibración, que continúa siendo una representación analógica del sonido original, ha de amplificarse y enviarse a los altavoces para que reproduzcan la música.

El disco tiene inconvenientes, al igual que todos los dispositivos analógicos para almacenar información. Polvo, huellas dactilares o arañazos en la superficie del disco, pueden hacer que la aguja vibre de manera inadecuada y provocar que suenen ruidos extraños. Si el disco no gira a la velocidad exacta, la afinación de la música no será precisa. Cada vez que se pone un disco, la aguja desgasta las porciones más sutiles de las estrías del surco y la reproducción de la música se deteriora. Cuando se graba una canción en cassette a partir de un disco de vinilo, se transfieren de manera permanente a la cinta todas las imperfecciones del disco, y a estas imperfecciones se unirán otras nuevas, porque los cassettes convencionales son también dispositivos analógicos. La información pierde calidad cada vez que se vuelve a grabar o a retransmitir.

En el disco compacto, la música se almacena en forma de series de números binarios. Cada bit se representa por una depresión microscópica en la superficie del disco. Los CD actuales contienen más de 5.000 millones de depresiones. El rayo láser reflejado en el disco y contenido en el interior de un tocadiscos de discos compactos un dispositivo digital lee cada una de las depresiones para decidir si está en posición de cero o uno, y luego vuelve a convertir esa información en la música original generando señales eléctricas específicas que los altavoces convierten en ondas de sonido. El sonido es exactamente el mismo cada vez que se pone el disco.

Es muy conveniente que se pueda convertir todo en representaciones digitales, pero el número de bits puede crecer muy rápidamente. Demasiados bits de información pueden superar la memoria de la computadora o hacer que se tarde mucho tiempo en transmitirlos de una computadora a otra. Por eso resulta tan útil, y lo será cada vez más, la capacidad de la computadora para comprimir los datos digitales, almacenarlos o transmitirlos y luego expandirlos para devolverlos a su forma original.

Por decirlo de manera rápida, he aquí cómo realiza estas proezas las computadora. Hay que remontarse para explicarlo a Claude Shannon, el matemático que descubrió en los años treinta de este siglo el modo de expresar la información en forma binaria. Durante la Segunda Guerra Mundial comenzó a desarrollar una descripción matemática de la información y fundó un campo de conocimiento que después ha llegado a conocerse como teoría de la información. Shannon definió la información como la reducción de la incertidumbre. De acuerdo con esta definición, si uno sabe ya que es sábado y alguien nos dice que es sábado, no hemos obtenido ninguna información nueva. Y al contrario, si no tenemos seguridad del día en que estamos y alguien nos dice que es sábado, se nos ha dado información porque se ha reducido nuestra incertidumbre.

La teoría de la información de Shannon condujo finalmente a otros adelantos. Uno fue el de la eficaz compresión de datos, vital tanto para la informática como para las comunicaciones. Ante ellos, lo que él dijo resulta obvio: aquellas partes de datos que no proporcionan información específica son redundantes y se pueden eliminar. Los que escriben los titulares de los periódicos eliminan las palabras que no son esenciales, al igual que hacen quienes tienen que pagar por palabras cuando envían un telegrama o insertan un anuncio clasificado por secciones. Shannon dio un ejemplo, y fue el de la letra u , que es redundante cada vez que se escribe la letra q . Todos sabemos que a la q le seguirá siempre una u de manera que la u no tiene por qué incluirse también en el mensaje.

Los principios de Shannon se han aplicado a la comprensión tanto de sonidos como de imágenes. En las treinta imágenes que constituyen un segundo de video, hay muchísima información redundante. La información se puede comprimir desde unos 27 millones de bits hasta cerca de 1 millón para transmitirla, y aún conserva su sentido y es agradable de ver.

Sin embargo, la compresión tiene límites y en un próximo futuro nos encontraremos trasladando de un lugar a otro un número cada vez mayor de bits. Estos viajarán a través de los hilos de cobre, a través del aire y a través de la estructura de la autopista de la información, la mayor parte de la cual estará constituida por cables de fibra óptica o por decirlo de manera resumida, de fibra. La fibra es un cable hecho de vidrio de plástico tan esmerilado y puro que, si miramos a través de una pared de setenta millas de grosor, podremos ver la luz de una vela que arde en el lado opuesto. Las señales binarias, en forma de luz modulada, viajan largas distancias a través de estas fibras ópticas. Una señal no viaja con más rapidez a través de un cable de fibra óptica que a través de un cable de cobre, porque en ambos se mueven a la velocidad de la luz. La enorme ventaja del cable de fibra óptica sobre el de cobre es el ancho de banda que puede transportar.

El ancho de banda es una medida del número de bits que se pueden transmitir en un circuito en un segundo. Todo funciona realmente como una autopista. A lo largo de una autopista de 8 carriles pueden circular más vehículos que por un camino embarrado. Cuanto mayor sea el ancho de banda, más carriles habrá y, con ello, podrán pasar más coches o bits de información, cada segundo. Los cables de ancho de banda limitado, utilizados para transmitir texto o voz, se denominan de banda estrecha. Los que tienen más capacidad, que transportan imágenes y animación limitada, son de ancho de banda medio. Los cables que pueden transportar señales múltiples de video y de audio se denominan de banda ancha.

La autopista de la información utilizará la compresión, pero aún así tendrá que tener un grado ancho de banda. Una de las principales razones por las que aún no tenemos una autopista en funcionamiento es porque las redes de comunicación actual no tienen el suficiente ancho de banda para todas las nuevas aplicaciones. Y no la tendrán hasta que el cable de fibra óptica no llegue a suficientes comunidades locales.

El cable de fibra óptica es un ejemplo de la tecnología que va más allá de lo que podrían haber predicho Babbage o incluso Eckert y Mauchly. También lo es la velocidad a la que han mejorado el rendimiento y la capacidad de los chips.

En 1965, Gordon Moore, que después fundaría INTEL junto con Bob Noyce, predijo que la capacidad de la computadora se doblaría anualmente. Dijo esto después de haber examinado la relación precio/desempeño de los chips de computadora durante los tres años anteriores y proyectando hacia el futuro los resultados de este examen. En realidad, Moore no creyó que esta tasa de mejora durase mucho. Pero diez años más tarde su predicción demostró ser cierta y entonces predijo que la capacidad se doblaría cada dos años. Sus predicciones han continuado superándose hasta hoy, y los ingenieros han denominado al fenómeno duplicación de la capacidad cada dieciocho meses con el nombre de Ley de Moore.

Ninguna de las experiencias que tenemos en nuestra vida diaria nos prepara para entender las implicaciones de un número que se dobla una gran cantidad de veces: progresiones geométricas. Una manera de entenderlo es recurriendo a la fábula.

El rey Shirham de la India se sintió tan complacido cuando uno de sus ministros inventó el juego del ajedrez, que le dijo que le pidiese cualquier recompensa.

Majestad, dijo el ministro le pido que me dé 1 grano de trigo por la primera casilla del tablero, 2 granos por la segunda, 4 granos por la tercera, etc., de manera que cada vez se doble el número de granos hasta que rellenemos cada una de las 64 casillas . El rey se sintió conmovido por la modestia de la petición y pidió que trajesen un costal de trigo.

El monarca ordenó que se contasen y se pusiesen en el tablero los granos prometidos. En la primera casilla de la primera fila, se puso un simple grano, en la segunda se colocaron 2 granos de trigo. En la tercera se pusieron 4, después 8, 16, 32, 64, 128. En la casilla octava, al final de la primera fila, el aprovisionador del rey Shirham había contado un total de 255 granos.

Probablemente, el rey no se preocupó. Puede que hubiese más trigo en el tablero de lo que él había esperado, pero no se había producido nada sorprendente. Si suponemos que contar cada uno de los granos llevaba un segundo, el tiempo transcurrido hasta aquí había sido solo de 4 minutos. Si una fila se hace en 4 minutos, tratemos de adivinar cuánto tiempo llevaría contar el trigo para las 64 casillas del tablero: 4 horas?, 4 días?, 4 años? Cuando se completó la segunda fila, el maestro aprovisionador, había trabajado 18 horas contando 66.535 granos. Al final de la tercera de las ocho filas, habían transcurrido 194 días, necesarios para contar los 16,8 millones de granos de las 24 casillas. Y aún quedaban 40 casillas vacías.

Puede afirmarse con seguridad que el rey rompió su promesa al ministro. La casilla final hubiera contenido 18 446.744 073.709 551.615 granos de trigo y hubiera requerido 584.000 millones de años. De acuerdo con la mayor parte de las versiones de la leyenda, el rey Shirham se dio cuenta, en algún momento del conteo, que había sido engañado e hizo que decapitaran a su inteligente ministro.

El crecimiento exponencial nos parece mentira incluso cuando nos lo explican.

Es probable que la Ley de Moore se mantenga durante otros 20 años. Si esto es así, un cálculo informático que ahora lleva un día se podrá hacer 10.000 veces más rápidamente, con lo cual se tardará poco menos de 10 segundos.

Los laboratorios están ya operando con transistores balísticos que tienen tiempos de conmutación del orden de un femtosegundo. Es decir, 1/1000 000.000 000.000 de segundo, o lo que es igual, unos 10 millones de veces más rápidos que los transistores en los microprocesadores actuales. El reto es reducir el tamaño de la circuitería del chip y el flujo actual, de modo que los electrones al moverse no choquen con nada, ni siquiera con los otros electrones. La próxima etapa es el transistor de electrón simple, en el cual un simple bit de información se representa por un único electrón. Esto sería lo último en la computación de bajo poder, al menos de acuerdo con nuestros conocimientos actuales de la física. Con el fin de utilizar las increíbles ventajas de velocidad a nivel molecular, las computadoras tendrán que ser muy pequeñas, incluso microscópicas. Ya conocemos la ciencia que nos permitiría construir estas computadoras super rápidas, lo que necesitamos ahora es un progreso de la ingeniería, y este progreso suele venir a mucha velocidad.

Desde el momento en que consigamos esta velocidad, el almacenamiento de todos estos bits ya no será un problema. En la primavera de 1983, IBM lanzó su PC/XT, la primera computadora personal de la compañía con un disco duro interno. El disco servía como dispositivo de almacenamiento interno y tenía una capacidad de 10 megabytes, o megas, de información, unos 10 millones de caracteres u 80 millones de bits. Los clientes antiguos que deseaban añadir estos 10 megas a su computadora original, podían hacerlo pagando un determinado precio. IBM ofreció un kit completo de 3.000 dólares con toma de corriente separada para expandir el almacenamiento de la computadora. Es decir, eran 300 dólares por megabyte. Hoy gracias al crecimiento exponencial descrito por la Ley de Moore, la computadora personal que puede tener una capacidad de 1,2 gigabytes 1.200 millones de caracteres de información se vende a 250 dólares. Es decir, 21 centavos de dólar por megabyte! Y, si miramos hacia delante, podemos ver una mejora exótica llamada memoria holográfica que puede almacenar terabytes (un terabyte equivale a mil gigabytes) de caracteres en menos de una pulgada cúbica de volumen. Con tal capacidad, una memoria holográfica del tamaño de nuestro puño, puede contener toda la biblioteca del Congreso.

A medida que la tecnología de las comunicaciones se digitaliza, se encuentra sujeta a las mismas mejoras exponenciales que han hecho que una computadora portátil actual, de 2.000 dólares, sea más potente que una computadora mainframe de IBM de 10 millones de dólares de hace 20 años.

En algún punto no lejano en el futuro, un simple cable que llegue a cada casa será capaz de transportar todos los datos digitales necesarios a la misma. El cable será de fibra, que es como se transportan las llamadas telefónicas de larga distancia hoy día, o será un cable coaxial, que es el que normalmente nos trae las señales de la televisión por cable. Cuando los bits se interpreten como llamadas telefónicas, sonará el teléfono. Cuando sean imágenes de video, se mostrarán en el aparato de televisión. Si son servicios de noticias en línea, nos llegarán como textos escritos e imágenes en una pantalla de computadora.

Este simple hilo que trae la red llevará ciertamente mucho más que llamadas telefónicas, películas o noticias. Pero no podemos imaginar qué es lo que transportarán las autopistas de la información dentro de veinte años. Al igual que un hombre de la Edad de Piedra que utilizaba un rudo cuchillo tampoco podía haber previsto las puertas del baptisterio de Ghiberti en Florencia. Las posibilidades de la autopista no las comprenderemos en su totalidad hasta que no llegue. Sin embargo, la experiencia de los últimos años con los progresos en la digitalización nos permiten entender algunos de los principios y posibilidades claves para el futuro.

Llegaste al límite de contenidos del mes

Disfruta al máximo el contenido de EL TIEMPO DIGITAL de forma ilimitada. ¡Suscríbete ya!

Si ya eres suscriptor del impreso

actívate

* COP $900 / mes durante los dos primeros meses

Sabemos que te gusta estar siempre informado.

Crea una cuenta y podrás disfrutar de:

  • Acceso a boletines con las mejores noticias de actualidad.
  • Comentar las noticias que te interesan.
  • Guardar tus artículos favoritos.

Crea una cuenta y podrás disfrutar nuestro contenido desde cualquier dispositivo.