Si el siglo XX, sobre todo en su segunda mitad, será posiblemente recordado en el área tecnológica como la era de la electrónica, el próximo siglo podría ser la era de la fotónica.
La electrónica está presente en casi todos los aspectos del quehacer humano, desde simples juegos y computadoras hasta instrumentos avanzados de observación, como sondas planetarias o el telescopio Hubble en órbita permanente alrededor de nuestro planeta, escudriñando las profundidades del espacio billones de años atrás. Los avances científicos en este siglo nos han permitido estudiar desde la estructura fundamental de la materia hasta la estructura en gran escala del Universo; desde la base química de la vida, el código genético, hasta los complejos mecanismos responsables del funcionamiento del cerebro y el sistema inmunológico. Nunca antes en la historia de la humanidad hemos visto un avance semejante en un tiempo tan breve.
Es ciertamente muy difícil hablar sobre el futuro: una y otra vez hemos visto cómo la extraordinaria inventiva humana deja atrás cualquier predicción y cómo, a su vez, la naturaleza nos da muestras de ser mucho más rica y sutil de lo que puede ser imaginado. Sin embargo, avances recientes en las aplicaciones físicas asociados a las tecnologías de la información basados en las propiedades de los componentes de la luz (fotones), y de la materia (electrones), así como en la aplicación de las leyes de la naturaleza a este nivel (los principios de la mecánica cuántica), nos permiten prever para las próximas décadas un avance importante en los límites de la computación y las comunicaciones. Se abrirán así grandes posibilidades para la humanidad en el siglo XXI.
La capacidad innovadora
Economías enteras dependen de la innovación. Gobiernos en países desarrollados se concentran en financiar investigación científica y tecnológica en sus universidades, laboratorios nacionales e industrias, lo que crea un clima favorable a la invención. A su vez, industrias establecidas invierten parte de sus ganancias en investigación o en la compra de empresas emergentes que, por su tamaño y ausencia de burocracia, tienen una capacidad innovadora aún mayor.
Sin embargo, estamos lejos de los años 30, cuando William Hewlett y David Packard abandonaron los laboratorios de la Universidad de Stanford para crear una empresa en un garaje en Palo Alto, o aun de los años 50, cuando William Shockley dejó los Laboratorios Bell, luego de descubrir el transistor junto con John Bardeen y Walter Brattain, para establecer una pequeña empresa, también en Palo Alto, que originó la industria del Valle del Silicón. Los avances logrados desde entonces y la complejidad creciente requieren generalmente recursos extraordinarios para avanzar en la frontera tecnológica, que solo se encuentran en laboratorios avanzados.
Como guía que nos ayude a vislumbrar la tecnología futura, hemos escogido algunos ejemplos de experimentos realizados en el último año en diversos laboratorios de investigación, donde el conocimiento del comportamiento de la materia y sus leyes físicas son requisitos para la invención y el progreso tecnológico. ¿Cuáles de estas tecnologías podrán ser usadas en aplicaciones prácticas o a escala industrial y en cuánto tiempo? ¿Cuáles se convertirán en las tecnologías dominantes del próximo siglo? ¿Cuáles transformarán la vida cotidiana en el siglo XXI y en qué forma?
Recordemos que las computadoras actuales -o computadoras electrónicas digitales- están basadas en transistores inmersos en el silicón e interconectados por circuitos integrados. Creado artificialmnete como un semiconductor, el transistor permite la selección entre dos alternativas -on y off-, lo que se traduce en un estado binario "0" o "1", un bit, que es la unidad básica de información. Una computadora de ocho bits puede almacenar dos a la octava potencia, o sea, 256 números. En la práctica, los procesadores modernos contienen millones de transistores densamente empacados. Por ejemplo, un Pentium II de 300 MHz cambia el estado de sus 7,5 millones de transistores cada tres mil millonésimos de segundo, lo que permite procesar una cantidad enorme de información en un tiempo brevísimo.
Aun si la industria de los semiconductores ha seguido la "ley de Moore", según la cual el poder de los procesadores se duplica cada 18 meses, lo cierto es que la tecnología actual tiene un límite físico impuesto por la miniaturización de los componentes y, por consiguiente, por las dimensiones del procesador y por el número de transistores, puesto que las señales eléctricas no pueden sobrepasar la velocidad de la luz. ¿Cuán pequeño puede ser un dispositivo funcional que aloje un bit? ¿Un átomo, un electrón?
En enero de este año, un grupo de investigadores del Laboratorio Nacional de Sandia en Albuquerque, Nuevo México, puso en operación por primera vez un cristal fotónico en tres dimensiones, que es el equivalente para la luz (fotones) de lo que los semiconductores y transistores usuales son para los electrones. La luz es desviada en los diversos materiales que constituyen el cristal fotónico, que actúa como un switch de luz que servirá de base para los futuros transistores ópticos. A diferencia de los procesadores actuales que operan a velocidades en el rango de los millones de oscilaciones por segundo, los transistores ópticos tendrán capacidad de operar un millón de veces más rápido, lo que equivale ¡a un millon de millones de ciclos por segundo!
También en febrero de este año se llevó a cabo en la Universidad de Harvard un experimento nunca antes realizado, en el que la velocidad de la luz es reducida a 17 metros por segundo de su velocidad en el vacío de 300.000 kilómetros por segundo. Para lograr este efecto, se creó un medio de materia condensada llamado "transparencia inducida por electromagnetismo" utilizando un sistema de laser, que permitió reducir la velocidad de la luz por un factor de 20 millones sin ser absorbida. Se espera alcanzar próximamente velocidades tan bajas como centímetros por segundo en la propagación de la luz para aplicaciones prácticas de conversión óptico-electrónica y conversión de la luz de una frecuencia a otra, aspectos necesarios para implementar la tecnología óptica en los computadores y sistemas de comunicaciones en el futuro.
Una propiedad básica de los electrones es su spin u orientación de su rotación intrínseca, que actúa como un minúsculo magneto. Esta propiedad es la base de otra nueva tecnología, la spintrónica, donde el uso de las corrientes de spin de los electrones en un circuito de información se usa en lugar de las corrientes de carga eléctrica en la electrónica. Como fue demostrado recientemente en la Universidad de California, en Santa Bárbara, esta tecnología puede ser viable para transportar información en los computadores cuánticos.
Los computadores cuánticos utilizan, para realizar sus operaciones, las propiedades de la mecánica cuántica, que describe la naturaleza al nivel atómico y sub-atómico. En lugar de los bits 1 y 0 de las computadoras clásicas, que efectúan operaciones una a la vez sobre un conjunto de números, los computadores cuánticos están basados en bits cuánticos o qubits, que consisten en una superposición de estados 0 y 1, lo que permite resolver problemas de gran complejidad al realizar múltiples cálculos simultáneamente en cada unidad de procesamiento. Algoritmos poderosos han sido desarrollados recientemente por Lov Grover de los Laboratorios Bell para la computación basada en principios cuanto-mecánicos, que disminuyen considerablemente el número de pasos necesarios para resolver un problema.
El primer computador cuántico fue puesto a funcionar el año pasado por un equipo de investigadores de la Univesidad de Berkeley, del Instituto Tecnológico de Massachusetts (MIT) y de la empresa IBM. Su procesador consta de algunos átomos de hidrógeno y carbono en una molécula de cloroformo con los spines de sus núcleos alineados por radiofrecuencias, usando las técnicas usuales de resonancia magnética de origen nuclear (NMR). Podría ser el inicio de la nanotecnología, idea propuesta por Eric Drexler, quien, como estudiante del MIT en los años 70, considera la posibilidad de construir máquinas con unos pocos átomos que puedan programarse para construir otras, eventualmente millones.
Ciertamente estamos muy lejos de un modelo práctico y los computadores cuánticos son extremadamente difíciles de construir. Sin embargo, es posible que los transistores en los procesadores en el siglo XXI no ocupen más espacio que el de un grano de arena.
El futuro de las telecomunicaciones
Los sistemas contemporáneos de fibra óptica prácticamente no tienen límite en la cantidad de información que pueden transportar de un sitio a otro a la velocidad de la luz y a través de miles de kilómetros. Las limitaciones están en los puntos terminales y puntos intermedios, donde la información puede ser desviada a un tercer o a múltiples destinos, un proceso llamado conmutación. El problema radica en la conversión de las señales lumínicas a la electrónica de los equipos. De aquí la importancia de los experimentos descritos anteriormente. Dada la velocidad de los cambios tecnológicos, algunos avances importantes en esta área han pasado de los laboratorios de investigación a la industria de las telecomunicaciones en el último año.
Para enviar múltiples señales o mensajes simultáneamente en el mismo circuito o canal, se utiliza una técnica conocida como multiplexación. La multiplexación tradicional o TDMA ha tenido un rol preponderante en los sistemas de comunicación en las últimas décadas. Sin embargo, tecnologías que dependen de la multiplexación tradicional (aun tecnologías relativamente recientes como SONET, SDH y ATM) son complejas, muy costosas y con pocas posibilidades de superar las barreras naturales de crecimiento.
Las nuevas tecnologías están basadas en multiplexación óptica, que consiste en dividir las señales en diferentes longitudes de onda o colores de la luz en la fibra. Esta tecnología permite un aumento casi ilimitado en la capacidad de los sistemas de comunicación, lo que implica una disminución importante en costos, tiempo de implementación de proyectos, construcción de edificios y centrales y optimización de recursos humanos. Es sorprendente que al día de hoy compañías telefónicas continúen invirtiendo enormes recursos humanos y financieros en tecnologías ya superadas por los nuevos desarrollos. ¡Un sistema de comunicación basado en multiplexación óptica, que no ocupa más del tamaño de una mesa, puede ser más poderoso que todas las centrales telefónicas de una ciudad!
Siguiendo el ritmo de desarrollo actual, veremos en la primera década del siglo XXI crecer el número de usuarios de la Internet de unos 100 millones en la actualidad a unos 1.000 millones. El modelo del Internet posiblemente se impondrá en todos los aspectos de las telecomunicaciones, e incluso sustiuirá la telefonía actual. Los protocolos de comunicación del Internet son simples y poderosos y pueden adaptarse a todo tipo de aplicaciones y a un gran crecimiento.
Un ejemplo de las aplicaciones tecnológicas del siglo XXI es el Proyecto Abilene, parte del Proyecto Internet 2, que interconecta a las universidades y centros de investigación más importantes en Estados Unidos. En Europa, el proyecto equivalente se conoce como TEN-155 y une a las universidades en 16 países en el viejo continente. Abilene, inaugurado en febrero pasado, es un proyecto conjunto de la Corporación Universitaria de Desarrollo Avanzado de Internet, y de las empresas Qwest, Cisco y Nortel. La velocidad usada en las aplicaciones de Abilene es 100.000 veces mayor que una conexión usual por modem. Aplicaciones como telecirugía y acceso remoto a telescopios, laboratorios e instrumentos avanzados de investigación y enseñanza serán cotidianas.
¿Cuál será nuestra respuesta como país a un desarollo que parece alejarse cada vez mas de nuestras posibilidades?
El futuro del software
Los avances en los límites de la computación no podrían ser aprovechados sin un avance paralelo en el desarrollo de las aplicaciones y la accesibilidad de las tecnologías. Con el rol central y cada vez más importante del Internet, es posible que el software en el futuro sea cada vez más utilizado, distribuido y creado en la misma red de Internet en una forma abierta y disponible para todos. Este modelo, que está en el origen de la creación y el éxito del Internet, ha retomado un gran impulso recientemente.
Para muchos es conocido el caso de Linus Torvalds que, como estudiante de posgrado en la Universidad de Helsinski en 1991, escribió una version del sistema operativo Unix, llamada Linux. Torvalds puso el "código fuente" del programa (el conjunto de instrucciones que es luego traducido al código binario del computador) disponible para cualquiera. Como consecuencia, más de mil programadores en diferentes países han colaborado en nuevas versiones del programa, cuya utilización se triplicó el año pasado al aumentar su presencia en los sistemas operativos de los servidores para ocupar un 17 por ciento de este mercado.
Este proceso es similar al de la investigación científica, en el que la publicación abierta de los resultados y la crítica de la comunidad científica es el mecanismo que garantiza, generalmente, el progreso de la ciencia. En el caso del software, es el mecanismo que nos asegura que sólo sobrevivirá el mejor código, por un proceso de selección natural. Otros ejemplos notables de software de "codigo abierto" son el programa Sendmail, que dirige el 78 por ciento del correo en Internet y Apache, que corre en el 56 por ciento de los servidores WEB.
Recordemos que algunos de los desarollos más importantes del Internet tuvieron su origen en la comunidad de investigadores. El WEB nació en el CERN, el Laboratorio Europeo de Física de Partículas, en Suiza. Con la invención del Web en 1991, las bases de datos de información quedan literalmente distribuidas en el planeta y es posible pasar de una a otra con un simple "click". ¡Con esta facilidad de uso, Internet pasa de medio millón de usarios en 1991 a más de 40 millones cinco años después! Su creador, Tim Berners-Lee, se ha propuesto mantener su invención abierta y disponible para cualquiera sin ningún costo. Los protocolos de comunicación de Internet fueron desarrollados en los años 70 en el Proyecto Darpa en EE. UU. Sus creadores Vint Cerf y Bob Kahn cedieron su invención al dominio público. Estos legados nos dan un ejemplo claro y un modelo de colaboración para el desarollo de futuras tecnologías.
La parte y el todo
En una época donde la tecnología está cada vez más presente, no podemos perder de vista, por ninguna circunstancia, que aquella no es un fin en sí mismo, sino un instrumento para beneficio del hombre. Werner Heisenberg, uno de los creadores de la mecánica cuántica, en el prefacio de su libro La parte y el todo: diálogos en el círculo de la física atómica dice:
"La ciencia es hecha por los hombres, un hecho en sí obvio que es frecuentemente olvidado. Traerlo de nuevo a la memoria puede contribuir a reducir el abismo existente entre las dos culturas, entre el arte y las humanidades por un lado, y la ciencias de la naturaleza y la técnica por el otro".
Desarrollos recientes nos indican que nuevos pasos en la frontera tecnológica requerirán cada vez más de un conocimiento científico avanzado. Grandes posibilidades de desarrollo humano podrán surgir con el acceso a la información y la colaboración universal, usando los nuevos sistemas de comunicación. Sin embargo, debemos recordar que la información no significa conocimiento y la tecnología, como cualquier instrumento, por sí misma no transmite valor humano alguno. Por consiguiente, nuestro gran desafío en el próximo siglo no solo es hacer partícipe al mayor número posible de personas de las extraordinarias posibilidades que brinda la tecnología, sino además fortalecer la educación en todas las áreas del conocimiento humano.
* Profesor de Física y Director del Centro de Informática, UCR, Presidente Red Nacional de Investigación, CRNet.