Pasado 6 El astrolabio John D. North 18 Galileo y el primer instrumento mecánico de cálculo Stillman Drake 28 La computadora mecánica de Charles Babbage 72 Semiconductores de arseniuro de galio Marc H. Brodsky 82 Electrónica de silicio-germanio ultrarrápida Bernard S. Meyerson 90 Futuro de la industria de los semiconductores G. Dan Hutcheson y Jerry D. Hutcheson Doron D. Swade 34 El computador del Dr. Atanasoff Allan R. Mackintosh Presente 44 Pantallas planas Steven W. Depp y Webster E. Howard 52 Representación visual de biomoléculas Arthur J. Olson y David S. Goodsell 62 La retina de silicio Misha A. Mahowald y Carver Mead Futuro 100 El ordenador del siglo xxi Mark Weiser 110 Microprocesadores del año 2020 David A. Patterson 114 Ordenadores de base proteínica Robert R. Birge 120 Computación mecánico-cuántica Seth Lloyd Notas 42 Pinceladas históricas 88 Silicio encantado 58 Reventando el polvo 98 Pastillas de silicio-germanio 70 Cuestión de peso 128 Ordenador óptico INVESTIGACION Y CIENCIA DISTRIBUCION DIRECTOR GENERAL Francisco Gracia Guillén EDICIONES José María Valderas, director ADMINISTRACIÓN Pilar Bronchal, directora PRODUCCIÓN M.a Cruz Iglesias Capón para España: Bernat Peso Infante Carmen Lebrón Pérez SECRETARÍA Purificación Mayoral Martínez EDITA Prensa Científica, S. A. Muntaner, 339 pral. 1.a 08021 Barcelona (España) Teléfono (93) 414 33 44 - Telefax (93) 414 54 13 SCIENTIFIC AMERICAN EDITOR John Rennie BOARD OF EDITORS Michelle Press, Managing Editor; Marguerite Holloway, News Editor; Ricki L. Rusting, Timothy M. Beardsley, Associate Editors; John Horgan, Senior Writer; Corey S. Powell; W. Wayt Gibbs; Kristin Leutwyler; Madhusre Mukerjee; Sasha Nemecek; David A. Schneider; Gary Stix; Paul Wallich; Philip M. Yam; Glenn Zorpette. PRODUCTION Richard Sasso CHAIRMAN AND CHIEF EXECUTIVE OFFICER John J. Hanley PUBLISHER John J. Moeling, Jr. MIDESA Carretera de Irún, km. 13,350 (Variante de Fuencarral) 28049 Madrid Tel. (91) 662 10 00 para los restantes países: Prensa Científica, S. A. Muntaner, 339 pral. 1.a – 08021 Barcelona Teléfono (93) 414 33 44 Copyright © PUBLICIDAD GM Publicidad Francisca Martínez Soriano Menorca, 8, bajo, centro, izquierda. 28009 Madrid Tel. (91) 409 70 45 – Fax (91) 409 70 46 Cataluña y Baleares: Miguel Munill Muntaner, 339 pral. 1.a 08021 Barcelona Tel. (93) 321 21 14 Fax (93) 414 54 13 1996 Prensa Científica S. A. Muntaner, 339 pral. 1.a 08021 Barcelona (España) Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio mecánico, fotográfico o electrónico, así como cualquier clase de copia, reproducción, registro o transmisión para uso público o privado, sin la previa autorización escrita del editor del libro. ISSN: 1135-5662 Dep. Legal: B-32.350-1995 Filmación y fotocromos reproducidos por Scan V2, S.A., Avda. Carrilet, 237 – 08907 l'Hospitalet (Barcelona) Imprime ROTOCAYFO, S.A. Ctra. de Caldes, km 3-Santa Perpètua de Mogoda (Barcelona) Printed in Spain ­­- Impreso en España PASADO El astrolabio John D. North Es un instrumento científico utilizado en la Edad Media para realizar observaciones astronómicas y terrestres. También servía como calculadora analógica para determinar la hora local E l astrolabio fue el instrumento astronómico de uso más común durante la Edad Media. Su ori­ gen se remonta a la antigüedad y toda­ vía era habitual en el siglo xvii. Una de sus funciones era observacional: se empleaba para determinar el ángulo del Sol, la Luna, los planetas y las estrellas sobre el horizonte o a partir del cenit. Se utilizó también para me­dir la altura de montañas o torres, la profundidad de pozos y en agrimen­ sura en general. Mucho más impor­ tante, sin embargo, fue la utilidad que tuvo el astrolabio como una calcula­ dora auxiliar. Facilitaba al astrónomo los cálculos relativos a la posición del Sol y de las principales estrellas, res­ pecto del meridiano y del horizonte, le permitía hallar su latitud geográfica y la dirección del norte verdadero (in­cluso de día, cuando no son visibles las estrellas) y posibilitaba su entrega a quehaceres tan prestigiosos y lucra­ tivos como levantar horóscopos. En tiempos en los que no eran habituales los relojes fiables, el astrolabio propor­ cionaba a su poseedor un medio de saber la hora, tanto de día como de noche, siempre que pudiera verse el Sol o alguna de las estrellas en él representadas. Un nombre más exacto para el ins­ trumento que estoy describiendo es el de astrolabio planisférico. Existen otros tres tipos de astrolabio: el astro­ labio lineal, el astrolabio esférico y el astrolabio náutico. El astrolabio lineal JOHN D. NORTH, profesor de historia de las ciencias exactas, es autor de di­ versos libros y preparador de una edición de la obra de Richard of Wallingford. Este astrónomo y matemático del siglo xiv construyó para la Abadía de St. Al­ bans el reloj astronómico más antiguo del que existe información detallada, cuya reconstrucción dirigió el autor. 6 era un instrumento tan difícil de en­tender como de utilizar y se constru­ yeron pocos. El astrolabio esférico tampoco fue muy corriente; tenía la forma de un globo y muchas caracte­ rísticas en común con el astrolabio planisférico. El astrolabio náutico es un instrumento relativamente tardío; parece ser que se empezó a utilizar solamente un poco antes de la época de Colón. Era un aparato tosco, que servía sobre todo para hallar la altura del Sol, de la Luna y las estrellas sobre el horizonte, del mismo modo que se utilizaría el sextante en siglos poste­ riores. Básicamente consistía en una alidada o regla recta que pivotaba en el centro de un pesado disco. En cada extremo de la alidada había una pínula perforada con un agujero. El marinero colgaba el instrumento de su dedo pul­ gar y ajustaba la alidada de modo que pudiera ver el cuerpo celeste a través de los agujeros de las dos pínulas. Entonces podía leer la altura del astro sobre la escala graduada existente en el borde del disco. (En las observacio­ nes solares se hacía proyectar la som­ bra de una pínula sobre la otra para evitar la perjudicial visión directa del Sol.) El astrolabio náutico estaba hecho con un grueso disco de latón perforado, de modo que pudiera colgar de su anilla sin mecerse y el viento lo afectara lo menos posible. Desde ahora llamaremos simple­ mente astrolabio al astrolabio planis­ férico, pues fue, con mucho, el tipo de astrolabio más común. Para poder comprender bien incluso sus usos más sencillos, es necesario empezar por examinar sus partes constituyentes y revisar cómo adquirió su forma final. Podía obtenerse información va­lio­sa de ambas caras del astrolabio. En gene­ ral la alidada pivotaba en la par­te pos­ terior, donde se hallaban registrados datos que, en principio, po­drían haberse almacenado en cualquier otra parte, como escalas y tablas cuyo contenido tendía a cambiar de siglo en siglo. Una escala presente en la mayoría de los astrolabios es la del calendario, con la representación de los días y de los meses y la correspondencia de la posición del Sol con la fecha anual. Si pudieran verse las estrellas du­rante el día, sería más fácil apreciar el recorrido aparente anual del Sol por el firmamento. Como es sabido, este mo­vimiento es consecuencia de la tras­ lación de la Tierra alrededor del Sol; a medida que la Tierra avanza en su órbita, el Sol parece desplazarse por el fondo estelar. Pero a menudo resulta conveniente referirse al tema como si la Tierra se encontrara en reposo en el centro de una gran esfera en la que estuvieran situados todos los cuerpos celestes. Las estrellas, e in­cluso los planetas, se hallan a distancias tan enormes, en comparación con el tamaño de la Tierra, que resulta razo­ nable adoptar la idea de una es­fera celeste, sobre todo en lo que concierne a las direcciones en las que aparecen los cuerpos celestes respecto del obser­ vador. E l camino que recorre el Sol sobre la esfera celeste es la eclíptica; el Sol tarda un año en completar este circuito. Los planetas parecen moverse en una franja de varios grados por en­cima y por debajo de la eclíptica; esta franja es lo que llamamos el zodíaco. Es posible conocer la posición aproximada del Sol en la eclíptica (su lugar en el zodíaco) para cada día del año. Los años bisiestos presentan un pe­queño problema, pero su efecto es despreciable, pues la precisión reque­ rida no supera una fracción relativa­ mente grande de grado. La escala del calendario en el astro­ labio contiene grabados los días y los meses; también hay una escala zodia­ cal, habitualmente concéntrica con la TEMAS 4 escala de las fechas, gracias a las que se puede relacionar la posición del Sol en la eclíptica con la fecha. Ac­tual­ men­te se expresa la posición del Sol como una longitud celeste de 0 a 360 grados calculada a partir de un deter­ minado punto de origen. En la Edad Media se utilizaba una variante de este sistema: el zodíaco se encontraba dividido en 12 signos, cada uno de los cuales recibía su nombre de una impor­ tante constelación que contuviera; cada signo estaba, a su vez, dividido en 30 grados de longitud. En la actua­ lidad las constelaciones se han despla­ zado a los signos próximos como con­ secuencia de la lenta precesión de los equinoccios, debida a un movimiento cónico del eje de la Tierra. En parte por la precesión de los equinoccios y en parte porque el tiempo que emplea la Tierra en recorrer su órbita no es exac­ tamente de 365 días y cuarto, hay pequeñas desviaciones en la posición del Sol calculada para un día del año a medida que los años transcurren. Estas desviaciones pueden tenerse en cuenta por las reglas de elaboración de los calendarios. Pero en un astrolabio no es fácil realizar correcciones y así nos encontramos con que un calenda­ rio medieval puede estar desfasado unos 10 u 11 días con respecto a uno actual. E l anverso de un astrolabio es más importante que el reverso. En la parte frontal encontramos dos elemen­ tos fundamentales: el primero, la araña, es una plancha calada (que, co­mo el resto del astrolabio, suele ser de la­tón), apoyada sobre una plancha circular maciza. La araña o rete (red) es una representación de los cielos: las puntas de los agudos indicadores indi­ can las posiciones de las estrellas más brillantes; un círculo excéntrico repre­ senta la eclíptica y también hay frag­ mentos de otros tres círculos, que representan el ecuador y los trópicos 1. DIAGRAMA DEL ANVERSO DE UN ASTROLABIO. Son visibles las partes esenciales para utilizarlo como instrumento de cálculo. La red calada, llamada también araña, o rete en latín, es una representación de los cielos en la que las agudas puntas recortadas indican las posiciones de las estrellas. El círculo excéntrico situado en la parte alta es la eclíptica, el camino anual que recorre el MÁQUINAS DE CÓMPUTO de Cáncer y de Capricornio. Por el cen­ tro de la araña discurre el eje alrededor del cual puede girar. Este eje, que tam­ bién sostiene la alidada de la parte posterior, se mantiene en su lugar por una cuña que lo atraviesa por un agu­ jero rectangular situado en uno de sus extremos. La parte más ancha de dicha cuña adoptaba tradicionalmente la forma de una cabeza de caballo, por lo que pasó a ser denominada “el caballo”. Si a la sazón hubiera existido al­gún material transparente de suficiente duración, probablemente se le habría utilizado para construir la araña; quienquiera que hoy desee construirse un astrolabio sencillo puede usar una hoja de plástico transparente para hacer el mapa de las estrellas. La otra parte principal del astrola­ bio es la lámina situada bajo la araña. Está trazada con una serie de círculos y líneas rectas que representan las coordenadas, fijas respecto de un observador dado. El centro del astrola­ Sol en el firmamento. La araña puede girar sobre un eje central que la une a la lámina situada tras ella. La posición del eje corresponde al polo norte celeste y las líneas trazadas sobre la lámina representan las coordenadas, que dependen de la situación del observador terrestre. El giro de la araña muestra el desplazamiento diario de las estrellas en relación al observador. 7 CABALLO ARAÑA LAMINAS (CLIMAS) MATER ALIDADA PINULA EJE PUNTO DE MIRA 8 2. DESPIECE de un astrolabio para ver la relación existente entre sus diversas partes. La mater (madre) es el cuerpo principal. Las láminas son diversas planchas grabadas con líneas de coordenadas, diferentes para cada latitud geográfica, normalmente las frecuentadas por el observador. La alidada es una regla que se usaba para apuntar a los objetos celestes y determinar su altura. Se hallaba en el reverso (véase la figura 12) y podía girar libremente, como la araña. Esta se sitúa encima de las láminas, contenidas en el interior de la mater. El eje atraviesa el centro de todas estas piezas y se fija con una cuña, labrada normalmente en forma de cabeza de caballo. Algunos astrolabios no tenían láminas; el trazado se realizaba entonces directamente sobre la mater. bio, donde se halla el eje en el que gira la araña, representa el polo norte ce­leste, alrededor del cual se produce el giro aparente de las estrellas. Cen­ tra­dos en el polo están el trópico de Cán­c er, el ecuador y el trópico de Ca­p ri­c ornio. Algunas veces estos círculos aparecen representados en la lámina y en la araña. En la lámina existe otra línea que representa el horizonte del observador y un punto que es su cenit. Sobre el horizonte y rodeando el cenit hay un conjunto de almucántares o círculos de igual altura. También es­tán las líneas de igual acimut, representadas como arcos de círculo que parten del cenit y descienden hasta el horizonte. Es obvio que la distancia que separa el polo norte celeste y el cenit del obser­ vador en la lámina del astrolabio de­pende de la latitud geográfica del observador. Si se encontrara en el polo norte, ambos puntos coincidirían, mien­t ras que si estuviera sobre el ecuador los dos puntos estarían sepa­ rados por el equivalente de 90 grados en la lámina del astrolabio. La necesi­ dad de disponer de una lámina dife­ rente para cada latitud geográfica en la que se fuera a usar el apa­rato era una complicación que te­nían que asu­ mir los usuarios. El aparato debía tener una lámina para la latitud habi­ tual del observador y tantas otras co­mo se previese que iba a necesitar en sus viajes. A tales láminas se las solía llamar climas, por extensión evidente del sig­ nificado del término. Un astrolabio po­d ía tener como cuatro, cinco, o in­cluso más climas; cada lámina estaba grabada por ambos lados y el conjunto se almacenaba en el interior de la mater o cuerpo principal del astrola­ bio. Las láminas se instalaban bajo la araña y se mantenían fijas en su sitio por el eje y el caballo (véase la figura TEMAS 4 3. ASTROLABIO HISPANO-ÁRABE de principios del siglo xi, conocido con el nombre de “Astrolabio de Alfonso el Sabio” (anverso y reverso). Obsérvese la austeridad de los perfiles de la araña. Copia galvanoplástica del original que se conserva en el Museo de Historia de la Ciencia de Florencia. (Museo Naval de Madrid.) 4. ASTROLABIO CONSTRUIDO EN GRANADA en 1265 por Ahmad Ibn Husayn Ibn Baso (anverso y reverso). Tiene algunas protuberancias para facilitar la rotación de la araña. (Real Academia de la Historia de Madrid.) MÁQUINAS DE CÓMPUTO 9 5. PROYECCION estereográfica del ecuador y de los trópicos, donde se muestra el modo de proyectar estos círculos de la esfera celeste (arriba) sobre la superficie plana del astrolabio (abajo), es decir, sobre la mater, o sobre una de las láminas, y sobre la araña. En la mayor parte de los astrolabios el plano de proyección es el plano del ecuador u otro plano paralelo a él. Se traza una línea desde el polo sur celeste hasta cualquier punto de la esfera, en este caso los correspondientes a los trópicos y el ecuador, y el punto en el que la línea interseca el plano de proyección será el lugar correspondiente a dicho punto celeste sobre el mapa. Se proyectan muchos de ellos para trazar las lí­neas de las coordenadas. El ecuador y los trópicos están situados en ángulo recto respecto al eje de proyección, por lo que aparecerán sobre el mapa como círculos concéntricos; su centro es el punto correspondiente al polo norte celeste (abajo), a través del cual discurrirá el eje de giro del astrolabio. ver entonces a través de este cañamazo las estrellas del cielo nocturno, que se desplazarían por entre las líneas a causa de la rotación diaria de la Tierra. Si el observador hiciese una fotografía de larga exposición, los puntos lumi­ nosos de las estrellas trazarían arcos de círculos concéntricos centrados en el polo norte celeste. Al modo medie­ val, pasemos por alto las necesidades y modos de ver las cosas de los habi­ tantes del hemisferio sur. I 2). Exis­tieron astrolabios que podían utilizarse en cualquier latitud con una sola lámina, pero no eran fáciles de usar ni abundaron en ninguna época. ¿Cómo se representan sobre la araña y los climas las estrellas y las líneas 10 de las coordenadas? Supon­ga­mos que el observador estuviera en el centro de una gran cúpula hemisférica en la que se hubieran trazado los almucántares y las coordenadas de igual acimut a intervalos de 5 o 10 grados. Podríamos gual que puede trazarse un mapa plano del globo terrestre, puede ha­cerse otro de las dos esferas de las que tratamos: el cañamazo de las coor­ denadas fijas y la móvil esfera del fir­ mamento. Hay ciertos condicionantes de índole práctica a tener en cuenta si los mapas van a trazarse sobre latón y si han de ser útiles indefinidamente. Si los dos mapas van a quedar unidos de tal modo que uno pivote sobre un punto fijo del otro, como ocurre en el astrolabio, entonces dicho punto tiene que ser uno de los polos, preferible­ mente el norte si el instrumento va a utilizarse sobre todo en el hemisferio norte. Además las proyecciones de ambos mapas deben corresponderse para todas las posiciones de la araña y de la lámina. Sería completamente inútil un mapa que exigiese deformar la araña a medida que rotara. La proyección estereográfica se adaptaba perfectamente a las ne­cesidades del constructor de astro­ labios por sus características de que los círculos de la esfera siguen siendo círcu­los tras ser proyectados sobre un plano y que los ángulos formados por la intersección de dos de ellos no cam­ bian de magnitud al ser proyectados. Aunque hay razones para sospechar TEMAS 4 6. PROYECCION estereográfica de almucántares, o círculos de igual altura, que son concéntricos con el cenit del observador y paralelos al horizonte; también se convierten en círculos en el plano de proyección, pero no tienen un centro común. La ilustración muestra el cenit del observador situado a 40 grados al norte del ecuador. Su horizonte y los almucántares se muestran primero como aparecen en la esfera celeste (arriba). La proyección estereográfica tiene la propiedad de que los círculos de la esfera siguen siendo círculos cuando se proyectan sobre una superficie plana. Los centros de los almucántares se hallan sobre la línea NS, que pasa por los polos y el cenit del observador y que también es la proyección del meridiano del observador. que en los primeros tiempos se usaron otros métodos, el que se siguió casi sin excepción en los astrolabios pequeños fue el de usar la proyección estereográ­ fica tomada desde el polo sur de la esfera celeste y proyectada sobre el plano del ecuador. Se trazaba una lí­nea desde el polo sur al objeto esco­ gido de la esfera celeste; el punto en el que dicha línea intersecaba el plano de proyección era el lugar correspon­ diente al objeto celeste en el mapa. A base de estos puntos se trazaban las líneas de coordenadas. Según la proyección estereográfica, cuanto más cerca del polo sur esté una estrella, tanto más lejos del polo norte aparecerá en el plano de proyección, es decir, en la araña. La proyección de la esfera celeste completa se extendería, pues, hasta el infinito. En la práctica la araña no llega más que un poco más allá del Trópico de Capricornio, casi sin excepción. Las estrellas se re­p resentan en la araña mediante finas puntas de latón. Cabía la posibi­ lidad de doblarlas al cabo de un tiempo, para acomodarlas al movimiento pre­ cesional del eje de la Tierra (a pesar de que tal movimiento sólo es percep­ tible por períodos de medio siglo como mínimo), aunque parece más probable que la torcedura de los finos indicado­ res ocurriera más por accidente que por expreso deseo; los indicadores se solían construir tan rígidos como se podía. Los círculos de los trópicos y del ecuador no son necesarios en la araña, pues ya aparecen en la lámina situa­da debajo, pero servían fundamental­ mente para sostener los indicadores estelares. El ecuador y los trópicos forman ángulos rectos con el eje de proyección. Por consiguiente aparecen en ella como círculos concéntricos con la ara­ña y con centro en el polo norte (el eje del astro­ labio). Es más, si se dividiera el ecua­ dor de la esfera celeste en grados, éstos MÁQUINAS DE CÓMPUTO quedarían repartidos uniformemente en el ecuador proyectado. Ninguna de estas propiedades puede aplicarse al círculo más importante de la araña, que es el anillo que represen­ta la eclíp­ tica. Su centro di­fiere del centro del ecuador y de los trópicos a causa de que el plano del ecuador celeste está incli­ nado con un ángulo de 23,5 grados con respecto al plano de la órbita terrestre. Las longitudes sobre la eclíptica se tra­ zan a partir del equinoccio vernal, que 11 7. PROYECCION estereográfica de las líneas de igual acimut. Se trata de una serie de círculos máximos que abarcan desde el cenit hasta el horizonte (arriba), al que cortan en ángulo recto así como a los almucántares (no representados). Los ángulos formados por las intersecciones de círculos no cambian al ser proyectados estereográficamente sobre una superficie plana. Por consiguiente las líneas de igual acimut serán en las láminas del astrolabio arcos de círculo que cortan en ángulo recto las líneas del horizonte y los almucántares. La mayo­ría de los astrolabios contienen solamente las líneas de igual acimut que aparecerían sobre el horizonte del observador (abajo). es uno de los dos puntos en los que la eclíptica corta al ecuador. El equinoccio vernal se halla al principio del signo de Aries. Cuando el Sol se en­cuentra en el “primer punto de Aries” el día y la noche tienen la misma duración. 12 En el equinoccio vernal el Sol está pasando del sur del ecuador al norte y se dirige a través de Aries hacia el signo de Tauro en su progresión alre­ dedor de la eclíptica. Cuando alcanza el punto de la eclíptica situado más al norte, en el solsticio de verano, 23,5 gra­d os al norte del ecuador, deja Gé­m inis y penetra en el signo de Cáncer, del que procede el nombre dado al trópico del hemisferio norte situado a la latitud de 23,5 grados. Continuando con el recorrido del Sol por la eclíptica, entra en Libra al atra­ vesar de nuevo el ecuador en dirección de norte a sur, lo que ocurre en el equi­ noccio de otoño, cuando los días y las noches vuelven a ser de igual duración. El Sol alcanza el solsticio de invierno al entrar en Capricornio, 23,5 grados al sur del ecuador, de donde toma su nombre el trópico del hemisferio sur situado a dicha latitud. El recorrido anual completo del Sol por la eclíptica viene indicado en la araña por la arista exterior del anillo de la eclíptica. ¿Cómo se traza el anillo de la eclíp­ tica sobre la araña? Todo lo que hay que hacer es señalar los puntos de los sols­ ticios de verano y de invierno (véase la figura 10). Dado que en la proyección estereográfica los círculos siguen siendo círculos en el plano, estos dos puntos definen el diámetro del círculo de la eclíptica. El centro geométrico de la eclíptica está situado a medio camino entre ambos puntos. El círculo de la eclíptica, una vez traza­do, cruzará el ecuador en los puntos correspondientes a los equinoccios. (El centro geométrico de la eclíptica así determinado va a parar a un punto tal que el ángulo for­ mado en los equinoccios entre el centro de la eclíptica y el centro de la araña es de dos veces 23,5 grados o, para ser más exactos, el doble del ángulo que se haya determinado que forma la eclíptica con el plano ecuatorial.) Los almucántares se trazan sobre la lámina del astrolabio situada bajo la araña de un modo muy parecido. El horizonte del observador está inclina­do respecto al ecuador celeste en 90 gra­dos menos la latitud geográfica del obser­ vador (véase la figura 7). Para estable­ cer los dos puntos que determinan cada uno de los almucántares, hay que TEMAS 4 8. Los ángulos horarios constituye el último grupo de coordenadas de la lámina del astrolabio. El ciclo diario completo se divide en 24 horas. Cuando el tiempo se contaba en horas desiguales, como sucede aquí, el período diurno y el nocturno se dividían ambos en 12 partes iguales, independientemente de su duración, de modo que las horas del día no eran iguales que las de la noche. Las líneas de las horas se solían trazar bajo la línea del horizonte. Los fragmentos de los círculos concéntricos del ecuador y de los trópicos situados bajo el horizonte se dividían en 12 partes iguales, numeradas a partir del punto de intersección con el horizonte oeste. Los puntos correspondientes se unían luego mediante curvas. recordar que estas curvas ya no son círculos máximos cuyos planos pasen por el centro de la Tierra, sino círculos menores paralelos al horizon­t e. El resultado de la proyección será una serie de círculos que rodean el cenit del observador, pero que no son concéntri­ cos con el mismo. Sus centros están todos sobre el meridiano. Las líneas de igual acimut son mucho más difíciles de delinear. Se trata de una serie de círculos máximos que se extienden desde el ecuador hasta el cenit y cortan el círculo del ecuador y los almucántares en ángulo recto. Como la proyección estereográ­ fica no cambia el valor de los ángulos, las líneas de igual acimut del astrola­ bio serán arcos de círculo que conser­ van dicha propiedad. Los astrolabios no suelen contener más que los frag­ mentos de las líneas de igual acimut situadas por encima del horizonte del observador (véase la figura 8). A ntes de pasar a exponer algunos usos del astrolabio debemos pre­ guntarnos por su historia. La teoría de la proyección estereográfica se re­mon­ta a uno de los más grandes astrónomos griegos, Hiparco. Nació en Nicea, cerca del moderno Estambul, hacia el año 180 a.C. y realizó observaciones desde Rodas y Alejandría. Por desgra­cia la mayor parte de lo que sabemos sobre él nos ha llegado por fuentes indirec­ tas. Una de las más importantes es el astrónomo alejandrino Pto­l omeo, cuyos escritos son unos cuatro siglos posteriores. Ptolomeo fue quizás el más grande astrónomo del mundo antiguo; su obra más importante, conocida actualmente con el nombre de Almagesto, no menciona el astrola­ bio planisférico. Sin embargo hay refe­ rencias a la “araña” del “instrumento horoscópico” en su obra Pla­nisferio, lo que induce a pensar que en su tiempo se conocía un instrumento que tenía algunas semejanzas con lo que más MÁQUINAS DE CÓMPUTO tarde sería un astrolabio. El Planisferio no es un tratado sobre el astrolabio, sino sobre la proyección estereográ­ fica, y nos ha llegado a través de la traducción latina de Hermann de Carintia (1143 d.C.). Además de Ptolomeo, hay otros eru­ ditos que se refieren al astrolabio, pero muchas de las referencias son crípti­ cas. El tratado más antiguo supervi­ viente sobre la construcción y usos del instrumento fue escrito en el siglo vi 13 9. LA PROYECCION estereográfica de la eclíptica va emplazada en la araña y no en la lámina. La eclíptica es el trayecto aparente anual del Sol a través de la bóveda celeste, tal como lo vemos desde la Tierra. El ecuador terrestre está inclinado con un ángulo de 23,5 grados respecto al plano de la eclíptica; este ángulo se conserva en la araña del astrolabio. Todo lo que hay que hacer para dibujar la eclíptica es señalar el punto del solsticio de verano sobre el trópico de Cáncer y el punto del solsticio de invierno sobre el trópico de Capricornio. Estos dos puntos definen el diámetro del círculo de la eclíptica, cuyo centro está situado en su punto medio. La eclíptica cruza el ecuador en los puntos correspondientes al equinoccio vernal (primer día de primavera) y al equinoccio de otoño (primer día de otoño). La eclíptica se divide en los 12 signos del zodíaco, empezando en el punto del equinoccio vernal. Las líneas divisorias de la eclíptica tienen su origen en el polo norte celeste. Mucho más conocida en la Europa medieval fue una obra escrita en árabe por Masallah, que se cree que fue un judío egipcio. Se tradujo al latín en 1276 y sirvió de base para el único buen tratado antiguo sobre el astrola­ bio que existió en inglés, es decir, el que escribiera un siglo más tarde nada menos que Geoffrey Chaucer. S por Juan Filopón de Alejandría. Se­vero Sebokt escribió al respecto en lengua siria un siglo más tarde. Después de esta época el instrumento pasó a ser razonablemente bien conocido, a juz­ gar por los muy variados tratados que 14 se le dedicaron en los mundos is­lá­mi­co y cristiano. Quizás el primer tratado europeo fuera el que escribió Hermann de Reichenau o Hermann de Lame, un monje de Reichenau que murió en 1054. u obra, titulada Tratado sobre el astrolabio, está fechada hacia 1392 y existen más de dos docenas de manuscritos antiguos. En algunos se añade el subtítulo de Pan y leche para niños. Este subtítulo fue probable­ mente añadido por algún copista sor­ prendido por las puntualizaciones que Chaucer hacía en la introducción de una obra que los adultos solían consi­ derar difícil. En versión moderna, la obra empieza así: “Lewis, hijito mío, he notado señales de tu habilidad para aprender las ciencias de los números y de las proporciones y no olvido tu especial deseo de conocer el contenido del tratado del astrolabio.” Chaucer continúa exponiendo el contenido del tratado, que no parece que llegase a acabarse. Explica la necesidad de una obra en inglés y reconoce su deuda con los astrónomos antiguos. Es una lás­ tima que su inglés sea casi tan difícil para el lector actual como lo fuera el latín para Lewis. Hacia el siglo xvi la difusión de la imprenta y la creciente mejora de las técnicas de grabado de ilustraciones produjeron cierto número de magnífi­ cos nuevos tratados sobre el astrola­ bio; a ellos se debieron, en parte, algu­ nas mejoras importantes en el arte de la construcción del instrumento. Los astrolabios se hicieron mayores, más ornamentados y estaban grabados con TEMAS 4 finura y precisión mayores. Pero, aparte de las diferencias en la nomen­ clatura de las inscripciones, poco o nada había en el típico astrolabio de principios del siglo xvii que no le resul­ tara familiar a un usuario de un mile­ nio atrás. El astrolabio más antiguo que ha llegado hasta nosostros se cree que data del año 927/8 y contiene una firma difícil de descifrar; podría ser una forma arábiga de un nombre griego (Bastulos o Nastulos). A finales del siglo xiii se conocía y se usaba el astrolabio planisférico desde la India, en oriente, hasta la Es­paña árabe, en occidente, y desde los trópicos hasta el norte de Inglaterra y Escandinavia. Según el país y el perío­do de origen, se pueden apreciar ciertas diferencias características en el estilo general y la decoración de los astrola­ bios. Los indicadores de las estrellas de las arañas de los primeros astrolabios, por ejemplo, solían tener una forma sencilla de flecha, grabada sólo con el nombre de la estrella. Por el contrario, los tardíos constructores indo-persas de astrolabios convirtieron a menudo la araña en un dibujo complicado, simé­ trico y foliado, cosa difícil de conseguir con lo que esencialmente es un mapa de estrellas de disposición asimétrica por naturaleza. Los constructores de astrolabios orientales a menudo damas­ quinaban sus instrumentos con plata y oro. Es interesante reseguir, a través de las obras firmadas que nos han lle­ gado de ellos, las sucesivas generacio­ nes de la misma familia. Toda la fami­ lia, por ejemplo, pudo haber trabajado en un centro como Lahore, pudiendo haber tenido conexiones con la corte mogol. Los instrumentos persas tien­ den a estar extremadamente ornamen­ tados con delicados filetes. E l estilo de las arañas occidentales suele ser un trasunto de los estilos de la arquitectura religiosa contempo­ ránea. El estilo de las inscripciones se parece normalmente al de los manus­ critos occidentales, lo que caracteriza muy bien el período en el que fueron grabados. Hay pruebas de que muchos astrónomos de todo el mundo fabrica­ ban sus propios instrumentos, aunque todos los centros intelectuales impor­ tantes tuvieron, en una u otra época, talleres profesionales especializados en la fabricación de astrolabios. Los instrumentos europeos de la Edad Media pocas veces fueron firmados por sus autores, pues en aquella época el anonimato no se consideraba un defecto. Los astrolabios del siglo xvi ya fueron firmados con regularidad. El tamaño físico de la mayor parte de los astrolabios se halla entre 8 y 45 cm MÁQUINAS DE CÓMPUTO 10. LAMINA DE ASTROLABIO COMPLETA. Incluye todas las líneas de coordenadas correspondientes a una latitud, es decir, todas las proyecciones tratadas individualmente en los gráficos precedentes. de diámetro, aunque pueden encon­ trarse algunos mucho mayores en varias formas especiales, como en las esferas de los relojes astronómicos. La inclusión de un astrolabio en la esfera del reloj se remonta a la antigüedad clásica, cuando se hacía que la araña girase una vuelta al día por me­dios hidráulicos. Tras la invención del es­cape mecánico a finales del siglo xiii, se instalaron relojes astro­ nómicos en las mayores catedrales euro­ peas. Una disposición típica era la que intercambiaba los papeles del mapa de estrellas y del cañamazo de coordenadas del astrolabio clásico, con las coorde­ nadas representadas en la araña y las estrellas pintadas en la lámina de debajo. Habitualmente se hacía girar las estrellas mientras la araña perma­ necía fija, pero también se hizo a veces a la inversa. Sobre la eclíptica del mapa de estrellas se puede encontrar, en oca­ siones, un modelo del Sol que se des­ plaza, manualmente o por un meca­ nismo, de manera que completa una vuelta a la eclíptica en un año. Para saber la hora gracias a un reloj de este tipo se debe estar familiarizado con los principios básicos de la utilización del astrolabio, por lo menos. El uso principal del astrolabio fue para saber la hora. En primer lugar se tomaba la altura del Sol o de una estre­ lla, empleándolo como instrumento de observación. A continuación, y supo­ niendo que el observador conocía la posición del Sol o de la estrella en la araña, se la hacía girar hasta que aquel punto coincidiera con el almucántar de la altura determinada. (Se supone que el observador había emplazado bajo la araña la lámina apropiada para su latitud geográfica y que sabía en qué lado del meridiano se encontraba el objeto observado.) Se ignoraba la refracción de la atmósfera, que cambia la posición aparente de los astros en el firmamento y que se acrecienta a medida que éstos se aproximan al hori­ zonte. La posición aproximada del Sol sobre la eclíptica para cada día del año se consultaba en las escalas del calen­ dario situado en el reverso del instru­ mento. Una vez situada la araña en la posi­ ción correcta, el observador puede de­ter­minar la hora local por diversos métodos. Si la circunferencia del astro­ labio está dividida en grados, 15 grados corresponden a una hora. El me­diodía 15 avanza en su rotación. Normalmente el ángulo horario se expresa en horas, minutos y segundos en lugar de hacerlo en grados de arco. El astrolabio puede indicar diferentes clases de horas. La primera es la hora sidérea o la hora de las estrellas, definida como el ángulo horario del primer punto de Aries. Si el día se divide en 24 horas, empezando en la medianoche, hay que añadir 12 horas a la cuenta de la hora sidérea, ya que el equinoccio vernal o primer punto de Aries (que a la sazón es la posición en la que se encuentra el Sol) cruzará el meridiano al mediodía local. O 11. EL REVERSO DEL ASTROLABIO incluye la alidada y determinados datos que el observador necesita. A lo largo del borde de este ejemplo hay una escala graduada para medir la altura de los objetos celestes con la ayuda de la alidada. La escala siguiente contiene los 12 signos del zodíaco, cada uno de ellos dividido en 30 grados. Las escalas de los días y los meses, interiores a la del zodíaco, sirven para relacionar la posición del Sol en la eclíptica con la fecha correspondiente. No son concéntricas con los otros círculos debido al movimiento no uniforme del Sol por la eclíptica. El diseño del sector interno del reverso del astrolabio varía mucho de uno a otro. En este caso el cuadrante superior izquierdo contiene una serie de líneas horizontales que parten de unas divisiones de grados; sus distancias al diámetro horizontal corresponden al seno de la altura de un objeto sobre el horizonte. El cuadrante superior derecho incluye líneas para convertir la hora equinoccial en horas desiguales directamente. Los dos cuadrantes inferiores contienen las “escuadras de las sombras”, usadas junto con un gnomon para obtener la tangente o la cotangente de la altura de un objeto sobre el horizonte. Si están trazadas cuidadosamente y con precisión, lo que no suele ocurrir, sirven para medir alturas con más fiabilidad que apuntando con la alidada. se establece cuando el Sol se halla hacia la parte alta del instrumento y la medianoche cuando el Sol está hacia la parte más baja, las seis de la mañana cuando está hacia la izquierda y las seis de la tarde cuando está hacia la dere­ cha. Imaginemos ahora un círculo máximo que una un objeto del firma­ mento con el polo norte celeste. El ángulo que forma dicho círculo máximo con el meridiano es el ángulo horario 16 del objeto. Como consecuencia de la proyección estereográfica, una regla que descanse sobre la línea que pasa por el centro del astrolabio y por la posición del objeto representada en la lámina, forma un ángulo con el diáme­ tro vertical (la línea meridiana) igual al ángulo horario del objeto. Se llama ángulo horario porque puede servir para medir el tiempo, ya que va cam­ biando de valor a medida que la Tierra tro tipo de horas son las del tiempo solar verdadero: el ángulo horario del Sol con independencia de su posi­ ción respecto a las estrellas. Más corriente es el llamado tiempo solar medio, basado en un “Sol medio” que se desplaza por el ecuador, en lugar de hacerlo por la eclíptica, y a una veloci­ dad uniforme, completando una vuelta entera en un año, igual que el Sol ver­ dadero. La Tierra se mueve alrededor del Sol trazando una elipse, en uno de cuyos focos se halla el Sol, y traza su órbita más deprisa cuanto más cerca se halla del Sol. Por consiguiente, visto desde la Tierra, el Sol verdadero parece que acelere o frene su velocidad en distintos trayectos de la eclíptica. El Sol verdadero y el Sol medio no sólo se mueven, pues, por diferentes trayectos, sino que lo hacen a diferentes velocida­ des. El tiempo solar verdadero, que es el observado, puede convertirse en tiempo solar medio, más útil, aplicando una corrección conocida como la ecua­ ción del tiempo, basada en el conoci­ miento que tenemos del movimiento de la Tierra en su órbita y que puede con­ sultarse en libros de referencia. Esta operación no se aplicó casi nunca antes del siglo xvii. Para convertir el tiempo solar medio a tiempo solar local, el observador necesita conocer su longi­ tud geográfica, otra corrección que raramente se efectuó. Una tercera clase de tiempo es el expresado en horas desiguales. En la Edad Media se dividía el período diurno en 12 partes iguales y el noc­ turno en otras 12 partes iguales, sin tener en cuenta la verdadera y cam­ biante duración del día y de la noche, lo que implica que las horas diurnas y las nocturnas sólo erán iguales en los equinoccios. Muchos astrolabios con­ tienen las líneas de las horas desigua­ les, si bien, para evitar confundirlas con los almucántares, solamente se trazan por debajo de la línea del hori­ zonte (véase la figura 9). Aunque el astrolabio se usase bási­ camente para determinar la hora, fue TEMAS 4 un elemento esencial de la práctica astrológica. Para establecer el horós­ copo para un momento determinado el astrólogo necesita conocer los siguien­ tes puntos de la eclíptica: el que se encuentra en el horizonte este (“el ascendente”), el que lo hace en el hori­ zonte oeste (“el descendente”), el que cruza el meridiano (“el grado del medio-cielo”) y el que cruza la prolon­ gación del meridiano por el norte, lla­ mada la línea de la medianoche (“el medio-cielo inferior”). Todos estos datos se leen fácilmente en el anillo de la eclíptica una vez se ha situado la araña correctamente según la hora del día de que se trate: quizás el momento de la concepción, o los del nacimiento, la muerte o algún otro acontecimiento importante, como una coronación. Una vez se han esta­ blecido los cuatro puntos clave de un horóscopo, pueden situarse en posición las 12 casas astrológicas (que no hay que confundir con los signos) y los pla­ netas pueden ser asignados a ellas. Sin embargo hay diferentes sistemas de realizar la división del firmamento en las 12 casas, algunos de los cuales se pueden encontrar en el tratado del astrolabio de Chaucer. Como les sucede hoy día a las moder­ nas computadoras electrónicas, en la Edad Media el astrolabio fue motivo de admiración y de entretenimiento, de fastidio y de incomprensión. A pesar de sus imprecisiones, fue un instru­ mento muy útil. Conocerlo ha de ser­ virnos a nosotros para apreciar mejor el nivel de desarrollo de una época en la que se le usó tanto y se le compren­ dió tan bien. BIBLIOGRAFIA COMPLEMENTARIA Libros del Saber de Astronomía del Rey D. Alfonso X de Castilla. Manuel Rico y Sinobas, Madrid 1863-66. A Treatise on the Astrolabe. Geoffrey Chaucer, dirigido por Walter W. Steak. Oxford University Press, 1872. Astrolabes of the World. Robert T. Gun­ ther. Oxford University Press, 1932. (Reim. Holland Pro, Londres, 1976.) Catálogo Crítico de Astrolabios Existentes en España. Salvador García Franco. C.S.I.C., Madrid 1945. Traité de l’Astrolabe. Henri Michel. Ed. Gauthier-Villars, París, 1947. (Reim. Alain Brieux, París, 1976.) The Principle and Use of the Astrolabe in “Oriens-Occidens”. Willy Hartner. G. Olms, Hildesheim, 1968. A computerised checklist of astrolabes. S. L. Gibbs, J. A. Henderson, D. J. Price. Yale University Press, New Haven, 1973. MÁQUINAS DE CÓMPUTO 17 Galileo y el primer instrumento mecánico de cálculo Stillman Drake Se trata del sector, empleado para resolver mecánicamente varios problemas matemáticos. Galileo lo inventó para abordar un problema insoluble y luego percibió su utilidad para otros más sencillos L a gente ha recurrido a muchos tipos de dispositivos mecánicos para ahorrarse cálculos aritmé­ ticos. De todos ellos, el más antiguo es el ábaco, con su conjunto de cuentas en­sartadas en alambres paralelos; si se mueven las cuentas siguiendo cier­ tas reglas determinadas, puede obte­ nerse el mismo resultado que operan­do con números escritos en un papel. Hoy en día apretamos los botones de una calcu­ladora siguiendo otras determi­ nadas reglas. Como los matemáticos descubrieron hace mucho tiempo maneras de reducir a números la geo­ metría y la física, cualquier problema práctico en que intervengan las mate­ máticas puede resolverse hoy sin rea­ lizar te­d iosos cálculos con papel y lápiz. Hasta hace no muchos años se usaba la lenta máquina de calcular mecá­ nica, apretando botones que po­nían en movimiento ruedas numeradas. Medio siglo atrás, antes de que se utilizara el motor eléctrico, las máquinas de este tipo se manipulaban mo­viendo una manivela y desplazando un carro. El mecanismo básico se re­monta al siglo xvii, cuando Blaise Pas­cal puso dígitos alrededor de va­r ias ruedas, que engarzó de modo que se produjese el arrastre de cifras. En el mismo siglo vivió Gottfried Wil­helm von Leibniz, quien introdujo el carro móvil para acelerar la multiplicación. Pero el mérito de haber dado con la idea básica de una máquina de calcular se debe a John Napier, o Neper, más que a Pascal. STILLMAN DRAKE, autor de nume­ rosos libros y artículos sobre la obra de Galileo, fue profesor de Historia en el Institute for the History and Philosophy of Science and Technology de la Univer­ sidad de Toronto. 18 En lugar de utilizar rue­das, Napier grababa los números en varillas móvi­ les de hueso. La merecida fama de Napier se debe fundamentalmente a su invención de los logaritmos en 1611, que le convier­te en el creador de la idea bá­sica de la regla de cálculo, el principal instru­ mento alternativo para evitar cálculos aritméticos en la época mo­d erna. Pronto se le ocurrió al inglés Edmund Gunter disponer los logaritmos de Napier en una línea y medir a lo largo de ella con una regla normal. La “línea de Gunter” permitía obtener aproxi­ maciones rápidamente, evitando la molestia de sumar y restar números tomados de tablas. Pronto aparecieron las reglas de cálculo, primero de forma circular y luego las más habituales de regleta deslizante. Las pequeñas calculadoras electró­ nicas han convertido en poco tiempo a la regla de cálculo y a la calculadora mecánica en piezas de museo. Había pasado menos de un siglo desde que ellas mismas hicieran lo propio con otro instrumento mecánico de cálculo que se había inventado algo antes y se codeó honrosamente con ellas hasta que se añadieron motores a las máqui­ nas de cálculo y la educación técnica moderna extendió el uso de la regla de cálculo. Este instrumento más antiguo es el sector. Galileo fue el inventor, alrededor de 1597, de la primera ver­ sión de este instrumento que despertó interés. La estructura básica del sector son dos brazos unidos en un extremo por un pivote. Los brazos son de la misma longitud (de 10 a 30 centímetros) y llevan escalas numéricas idénticas. Con él se puede abordar el problema geométrico de inscribir un polígono de lados iguales en un círculo de diámetro dado. Se abren los brazos del sector hasta que las puntas de sus extremos libres estén separadas por el diámetro del círculo. Luego, si la fi­gura que hay que inscribir en el círcu­lo es un pentá­ gono, por ejemplo, se mide la distancia que hay desde el 5 de un brazo del sector al 5 del otro, distancia que será la longitud de cada lado del pentágono (véase la figura 4). Este problema, sin embargo, no requiere llevar a cabo cálculo alguno, posibilidad que el ins­ trumento adquirió pos­teriormente. U na de las ventajas del sector era la facilidad con que se aprendía a usarlo, por lo que resultaba accesible a gente con poca instrucción. Otra era que, en muchos problemas prácticos corrientes, el que utilizaba el sector ni siquiera tenía que pensar en términos de números. De hecho, uno de los fac­ tores que condujeron a Galileo a con­ cebir el sector como una calculadora universal para todos los propósitos prácticos fue un problema que supe­ raba a las matemáticas de su tiempo. El antiguo sector era un bello ins­ trumento, normalmente hecho de latón o de plata. En museos y coleccio­ nes privadas se conservan no menos de un millar de ejemplares. Una ver­ sión más modesta formaba parte del utillaje básico del carpintero, del arte­ sano o del dibujante todavía en el siglo pasado, siendo la madera o el hueso los materiales utilizados para su pro­ ducción industrial. Pero hoy en día casi nadie ha oído siquiera hablar del sector y la historia de su invención ha sido objeto de conjeturas y de contro­ versias, pero no de investigación his­ tórica seria. La historia que contaré se basa en un examen de las instrucciones ma­nus­ critas para el uso del sector redactadas por Galileo antes de 1606, año en que las publicó por primera vez, en versión revisada. También he analizado muchos sectores antiguos. Mi interés por el TEMAS 4 1. EL “COMPAS GEOMETRICO Y MILITAR” DE GALILEO, tal y como se construyó a partir de 1598. Se muestran sus dos caras; los números no pueden distinguirse debido al desgaste y a que la fotografía no reproduce el tamaño real del instrumento. Este ejemplar, que se construyó probablemente en Florencia, procede de la colección del autor. Galileo diseñó su compás, que posteriormente se conoció como el sector, para resolver el problema que llamó de «calibrado», consistente en determinar la carga apropiada para una pieza de artillería de un calibre dado, según el material de que estuviese hecha la bala. Las escalas del instrumento se muestran en las figuras 8 y 9. 2. EL COMPAS CON EL CUADRANTE. El cuadrante permitía que el instrumento se utilizara para observaciones astronómicas y trabajos de topografía. Galileo diseñó el cuadrante de forma que pudiese separarse, facilitando el transporte del ins- trumento. También se le ocurrió la idea de introducir una escala que va de cero en cada extremo a 100 en el centro. Al añadir el cuadrante, el compás geométrico y militar podía utilizarse para determinar alturas, distancias e inclinaciones. MÁQUINAS DE CÓMPUTO 19 3. EL MARQUES GUIDOBALDO DEL MONTE, amigo de Galileo, inventó un precursor del sector. Estos dos dibujos aparecen en un libro publicado en Venecia en 1598. La tinta de la otra cara se trasluce por el papel, haciendo aparecer las líneas menos marcadas que cruzan los dibujos y no pertenecen a ellos. En una de las caras del instrumento (izquierda) había escalas tema se reavivó cuando Anahid Iskian, un especialista neoyorquino en graba­ dos y libros antiguos, llamara mi aten­ ción sobre una copia manuscrita de las instrucciones de Galileo hecha en 1605, que terminé comprando. Las instruc­ ciones diferían de las que se encuentran en el libro de Galileo, Operaciones del compás geométrico y militar, publicado en 1606. Yo había descubierto anterior­ mente, en la colección Rocco-Watson del Ins­tituto Tecnológico de California, una versión manuscrita diferente, que puede fecharse hacia 1599. Estos dos manuscritos, junto con las otras cinco versiones conocidas (conservadas en la Biblioteca Ambrosiana de Milán y que pueden datarse entre 1597 y 1600), han hecho posible la reconstrucción de la 20 que proporcionaban los lados de polígonos regulares que podían inscribirse en un círculo de diámetro igual a la distancia que separe las dos puntas del instrumento. Con las escalas de la otra cara (derecha) el instrumento podía utilizarse para dividir en varias partes iguales una línea de longitud igual a la separación de las puntas del instrumento. evolución del instrumento que Galileo inventó. Su historia resulta bastante diferente de lo que se había supuesto. La primera descripción publicada del uso del sector como instrumento mecánico de cálculo se debe a Thomas Hood. Se contiene en un texto inglés aparecido en 1598, fecha en la que Hood no sabía nada de un sector ita­ liano, mientras que en 1597 Galileo no había oído hablar del instrumento inglés, el cual es probable que ya se usase normalmente algunos años antes de la publicación del libro de Hood. Invenciones y descubrimientos simul­ táneos independientes no son raros en la historia de la ciencia y de la técnica. Lo extraño en este caso es que los dos inventores tenían una formación muy diferente: Galileo era un profesor de matemáticas y Hood un científico prác­ tico. En la invención del sector, cada uno de ellos había partido de un punto distinto y tenía un objeti­vo diferente. El sector de Hood tenía tres escalas. El modelo de 1597 de Galileo tenía siete, de las cuales sólo una (la desti­ nada a construir polígonos regulares) podía encontrarse en el de Hood. Galileo la eliminó de su sector un año después, cuando incluyó por primera vez una escala para obtener proporcio­ nes ordinarias, aunque era la escala más simple de todas y había desempe­ ñado desde el comienzo el papel prin­ cipal en el sector de Hood. Los accesorios del sector de Hood hacen pensar en que originalmente era TEMAS 4 un instrumento topográfico. Incluyen pares de visores removibles, una plo­ mada y un cuadrante graduado ligado a uno de los brazos. La escala de divi­ siones iguales que había en cada brazo probablemente se utilizaba original­ mente para dibujar mapas a cualquier escala. La abertura variable modifica las distancias entre los puntos corres­ pondientes de los dos brazos y con­ vierte al instrumento en una ayuda mecánica sencilla para la resolución de problemas de proporcionalidad. En un libro de instrumentos publi­ cado en Venecia en 1598 se muestra un tipo de sector que no está concebido como instrumento de cálculo. El ins­ trumento había sido inventado no mucho antes por el marqués Gui­do­ baldo del Monte, amigo de Galileo de muchos años, como una ayuda sencilla y barata para dos problemas comunes de dibujo y diseño. En uno de ellos se trataba de dividir un círculo en un número dado de arcos iguales o de inscribir un polígono regular en un círcu­lo. El otro era dividir una línea recta de longitud dada en un número exacto de partes iguales. El sector de Guidobaldo consolidaba y mejoraba dos instrumentos de dibujo que se llevaban utilizando en Italia desde el decenio de 1560. Uno de ellos, el compás proporcional ordinario, todavía se usa hoy; tenía puntas en ambos extremos y un pivote móvil. El otro era el compás de reducción, cuyo pivote era fijo y tenía dos puntas fijas y dos deslizantes perpendiculares a los brazos. Los modelos posteriores se construyeron de modo que las cuatro puntas tocaran el papel perpendicu­ larmente. Ambos instrumentos eran caros y requerían un reajuste frecuente de las partes móviles. La única parte móvil del sector de Guidobaldo era una simple bisagra y además el instru­ mento tenía escalas permanentes que proporcionaban directamente lecturas del número de partes de un círculo o una línea. El origen del “compás militar” de Galileo ha sido objeto de diversas con­ jeturas, que lo han relacionado de varias maneras con el compás propor­ cional, el compás de reducción y el sector de Guidobaldo. Siempre se ha supuesto que Galileo añadió escalas más complicadas a un instrumento de cálculo ya conocido. El problema de esta suposición es que no se ha encon­ trado ningún sector adaptado para el cálculo que se utilizara en Italia antes de que Galileo inventara su “compás militar” en 1597. Ahora puede aña­ dirse otra objeción: antes de que se incorporara la escala más simple, el sector de Galileo era ya un instru­ MÁQUINAS DE CÓMPUTO mento bastante complejo. Repasemos su historia. Los predecesores del sector de cálcu­lo de Galileo son dos instrumentos de una clase bastante diferente, inven­tados sesenta años antes por Niccolò Tartaglia, un matemático interesado en la dimensión práctica de su disci­ plina, con vistas a sus aplicaciones militares. Galileo los combinó en uno solo, añadiendo mejoras, antes de que se le ocurriera la idea de utilizarlo como instrumento mecánico de cálculo. T artaglia publicó en 1537 y en Ve ­necia un libro, La ciencia nue­va, en el que se aplicaban las matemáticas a la artillería. Presentaba un instru­ men­to con el que el artillero po­día de­ter­mi­nar la elevación de la pieza, consistente en una especie de escuadra de carpintero con un brazo más largo, que se si­tuaba en la boca del cañón, y un cuadrante fijo dividido en doce par­ tes iguales llamadas puntos (véase la figura 5). Una plomada que colgaba del vértice indicaba la elevación del cañón, de manera que a un disparo con eleva­ ción nula se le llamaba “disparo a nivel” y al tiro con 45 grados de elevación se le denominaba “disparo a seis puntos”. El instrumento se adoptó rápidamente en toda Europa. Tartaglia trataba también de cómo determinar la altura y la distancia de los blancos, visualmente y mediante triangulación, para lo que inventó un segundo instrumento, que también se basaba en la escuadra. Entre su época y la de Galileo, hubo otros inventores que propusieron instrumentos más útiles y apropiados para triangulación sobre el terreno. Muchos de los alumnos que Galileo tuvo en Padua a partir de 1592 eran jóvenes nobles destinados a carreras militares. Les dio clases particulares de arquitectura militar y de fortifica­ ción, lo que le llevó a mejorar y consoli­ dar los dos instrumentos inventados por Tartaglia. En primer lugar, reparó en el peligro que supone situarse delante de la pieza para ajustar su elevación, bajo el fuego enemigo. Esta y otras razones le hicieron pensar en un medio de calcular la elevación mi­dien­do cerca de la recámara, lo cual podría hacerse si se colocaban los extremos de los brazos del instrumento encima del cañón, y se leían puntos de elevación desde el centro del cuadrante y no desde un ex­tremo. Galileo diseñó el instrumento de forma que los brazos fueran de igual longitud. Como el ca­ñón es más grueso en la recámara, había que compensarlo alargando de alguna manera el brazo delantero del instrumento. Galileo dotó a su instru­ mento con un “pie móvil” para conse­ 4. EL POLIGONO inscrito en el círculo muestra un uso típico del instrumento inventado por Guidobaldo y del sector. El problema es inscribir un pentágono regular en un círculo de diámetro igual a la distancia entre las dos puntas del instrumento. Establecida esa distancia (parte superior) se mide la que hay (línea de color) entre el 5 de una escala y el 5 de la opuesta. Esa distancia es la longitud del lado del pentágono buscado. El polígono inscrito (parte inferior) divide además el círculo en arcos iguales de 72 grados. 21 guirlo, una pieza móvil que se mante­ nía en posición mediante un tornillo de fijación. P 5. EL MATEMATICO ITALIANO NICCOLO TARTAGLIA inventó, a comienzos del siglo xvi, un instrumento de medida para uso del artillero. Fue uno de los instrumentos modificados por Galileo para construir su compás militar. El brazo más largo (izquierda) se situaba en la boca del cañón; la elevación del cañón podía entonces leerse en “puntos” en el cuadrante por medio de la plomada. Se decía que un cañón apuntado con elevación cero “disparaba a nivel”, F en la figura. 6. EL INSTRUMENTO DE TRIANGULACION, el segundo invento de Tartaglia que Galileo adaptó, se muestra tal como aparece en otra ilustración del libro de Tartaglia La ciencia nueva. El instrumento servía para ayudar a los artilleros a determinar la altura y distancia de los blancos, visualmente y por triangulación. Galileo construyó su compás militar combinando los dos instrumentos inventados por Tartaglia, cambiando la escuadra por un cuadrante y añadiendo un clinómetro. 22 osteriormente Galileo añadió graduaciones al cuadrante, que se extendían hasta 90 grados. Con esta modificación el instrumento resultaba útil para observaciones astronómicas en marchas largas. Añadió también una escala clinométrica, que propor­ cionaba lecturas en unidades de tanto por ciento de gradiente; los arquitectos militares podían utilizarla para deter­ minar la inclinación de las escarpas. La escala, que proporcionaba las uni­ dades de altura por unidad de avance horizontal, sugería, a su vez, una sim­ plificación en la determinación visual de la altura y la distancia. Galileo divi­ dió su cuadrante en 200 partes iguales, que se leían desde cero en cada extremo a 100 en el centro, esto es a 45 grados. Cada unidad correspon­día, pues, a un uno por ciento del gradiente 1:1, lo que permitía prescindir de algunos cálculos corrientes y convertía otros en una cuestión de aritmé­tica mental sencilla. El instrumento resultante era venta­ joso para los artilleros, puesto que eli­ minaba la necesidad de utilizar dos instrumentos distintos, al tiempo que resultaba útil para topógrafos y cartó­ grafos civiles. Es probable que fuese en 1595 cuando Galileo escribió un breve tra­ tado sin título dedicado a los usos del instrumento combinado. La última parte, dedicada a la triangulación, se copió al final de un antiguo manuscrito que contenía sus primeras instruccio­ nes (1597) para el uso el sector. Los añadidos hechos a este apéndice sobre triangulación posteriormente mues­ tran que Galileo lo escribió antes de que hubiera perfeccionado su sector de cálculo. El grado de desarrollo que el instru­ mento inventado por Galileo había alcanzado en 1595 o 1596 puede perci­ birse en un dibujo hecho por un estu­ diante alemán, que está incluido en el manuscrito antes mencionado (véase la figura 7). El tamaño del cuadrante es exactamente el mismo que el del sector de Galileo conservado en Flo­ rencia. También están dibujados el cursor y el tornillo de fijación para el “pie móvil”, así como el soporte y la junta universal utilizados para mon­ tar el instrumento de forma que pu­diera emplearse en trabajos de topo­ grafía. Este es el único dibujo conocido de los accesorios, pero los libros de cuentas de Galileo muestran que cons­ truyó por encargo una nocella (junta universal) para encajar el instrumento en un trípode. TEMAS 4 El cuadrante de Tartaglia era parte integrante del instrumento que había inventado para determinar la eleva­ ción. Mientras sólo lo utilizaron los artilleros, ni su gran tamaño ni su tosca forma constituían un problema. Pero cuando Galileo incorporó la es­cuadra para triangulación, de manera que también pudiesen utilizarlo los topó­ grafos, separó el cuadrante y articuló los brazos para que pudiera transpor­ tarse más cómodamente. Esta modifi­ 7. ESTE DIBUJO DE LOS ACCESORIOS del compás militar de Galileo, hecho por un estudiante, se encuentra en un manuscrito del siglo xvii propiedad del autor. El manuscrito contiene las instrucciones de Galileo para el uso del sector. Es probable que el dibujante fuese uno de los muchos estudiantes alemanes de Galileo y que lo hiciera antes de que se añadieran escalas al instrumento. En la parte superior del dibujo se representa el cuadrante. Debajo, a la derecha, está el cursor que se ajus- MÁQUINAS DE CÓMPUTO cación creó automáticamente un sector. El siguiente paso natural era marcar cerca de sus bordes interiores las dos escalas del sector de Gui­do­baldo, pues ambas eran útiles para cartógrafos y arquitectos militares. taba a un brazo del compás para incorporar un “pie móvil”, que Galileo diseñó con el fin de compensar el estrechamiento de la pieza, de modo que su elevación pudiera leerse al pie del cañón en lugar de en la boca. Debajo está el soporte que servía para montar el instrumento en una “junta universal” (abajo en el centro), cuya base cónica ajustaba en un trípode, y (abajo a la izquierda) los brazos del instrumento, plegados en la forma en que se transportaba el compás. 23 No se conoce ningún ejemplar del sector de Galileo de 1597, pero es fácil reconstruir el instrumento siguiendo las primeras instrucciones que propor­ cionó para su uso. He dibujado un diagrama esquemático del mismo con las escalas rotuladas; el dibujo es la base de las figuras 8 y 9 y será útil para comparar la primera versión del ins­ trumento de Galileo con la versión posterior. Las dos escalas empleadas por Guidobaldo (G-1 para construir un polígono regular y G-2 para dividir una línea en segmentos iguales) estaban en el modelo de 1597, pero no en los posteriores. Galileo añadió una escala, que he designado V, la cual resultaba todavía más útil para los arquitectos militares, porque facilitaba la cons­ trucción de un polígono regular sobre una línea de longitud dada. Era fre­ cuente que el diseño de las fortificacio­ nes incluyera partes de polígonos regulares; la longitud de sus lados venía a menudo determinada por alguna característica del terreno o por parte de otra fortificación previa. Entre V y G-1 Galileo situó otra línea (VI), que llamó “tetragónica”. Esta escala proporcionaba directamente, pa ra cualquier polígono regular, el lado de otro polígono de la misma área. 8. LAS ESCALAS QUE INTRODUJO GALILEO se representan aquí esquemáticamente, tal como aparecían en el modelo de su sector de 1597 (izquierda) y en el que se construyó después de 1598 (derecha). Cada escala estaba inscrita en ambos brazos del sector. No reproducimos los números más que una vez; la escala del otro brazo se indica mediante líneas discontinuas en el caso de las escalas interiores. Los números escritos al pie de los brazos, que identifican las escalas, han sido aña- 24 Las mismas escalas servían para obte­ ner la cuadratura aproximada de cual­ quier círculo y para comparar áreas en medidas cuadradas. (Mediante la reducción de cualquier figura lineal a triángulos, su área total puede equi­ pararse a la de un cuadrado.) Las escalas V y VI señalan la apari­ ción de un instrumento mecánico dedi­ cado específicamente al cálculo, aun­ que limitado aún a comparaciones geométricas básicas. El siguiente paso de Galileo fue resolver mecánicamente un problema práctico importante de artillería, para el que no había solu­ ción conocida y que implicaba aspectos didos por el autor. Las escalas I y II ayudan a resolver el problema de “calibrado” que se le presentaba al artillero. I daba los volúmenes de pesos iguales de varios metales y piedras. II proporcionaba un medio de obtener raíces cúbicas y III de obtener raíces cuadradas. IV, que apareció por primera vez en 1598, proporcionaba divisiones iguales de una línea; la H significa que un sector inventado independientemente por Thomas Hood tenía una escala parecida. V servía para TEMAS 4 aritméticos, geométricos y físicos. Sin embargo, incluso tras haberlo resuelto, su sector no podía todavía resolver problemas planteados por la vida ordi­ naria, sencillos problemas de propor­ cionalidad del tipo regla de tres. Aún no se le había ocurrido la idea de un solo instrumento útil para todo. Veamos cómo evolucionó en sus manos la primera calculadora mecánica de uso general. Galileo observó que se aplicaban a pesos y medidas los mismos nombres en lugares distintos, aunque las canti­ dades descritas fueran muy diferen­ tes. Un capitán de artillería tenía que saber cómo cargar un cañón de un cali­ bre cualquiera con balas de cualquier material, sin recurrir a otra cosa que sus conocimientos sobre las cargas adecuadas para un calibre específico con balas de un material determinado. Esto era necesario, pues frecuente­ mente los capitanes tenían que actuar en lugares extraños y también porque cuando se capturaban piezas de arti­ llería al enemigo era necesario saber cómo utilizarlas contra él. Disparos desperdiciados y peligrosos errores serían el resultado de utilizar unida­ des de medida equivocadas, incluso en el caso de que los datos necesarios para cargar el cañón estuvieran inscritos en una pieza cuyo manejo no fuera fami­ liar. El único modo de evitar explosio­ nes del cañón, artilleros heridos o muertos y disparos desperdiciados era poder resolver rápidamente, en el campo de batalla, el problema que Galileo llamó “calibrado”. La solución del problema requería las escalas I y II, que daban, respecti­ vamente, los volúmenes relativos de pesos iguales de determinados metales y piedras y las relaciones de volúme­ nes esféricos correspondientes a igua­ les incrementos del radio. Sirviéndose de estas escalas, incluso un artillero sin instrucción matemática podía resolver cualquier problema de cali­ brado en unos segundos. En 1597 toda­ vía no se había aplicado el álgebra a la geometría, y mucho menos a la física, de modo que ni el mismo Galileo hubiera sido capaz de escribir una fórmula práctica para resolver el pro­ blema. Incluso si lo hubiera hecho, a los artilleros no les hubiera servido de nada, ni siquiera a los oficiales, pues sus conocimientos matemáticos eran bastante limitados. L construir un polígono regular dado en una línea de longitud dada. VI da, para cualquier polígono, el lado de otro de igual área. G-1 y G-2 coinciden con las escalas de Guidobaldo: G-1 sirve para inscribir un polígono regular en un círculo y G-2 para dividir una línea en partes iguales. MÁQUINAS DE CÓMPUTO a solución mecánica que Galileo consiguió para este problema le sirvió de inspiración para utilizarlo en otros. Que esto constituía para él una prioridad resulta claro porque, en todas las versiones de las instrucciones ante­ riores a 1600, el primer problema que se abordaba era el del calibrado. Pero en 1600 escribió una nueva versión de las mismas que comenzaba con una escala diferente (la IV), que proporcio­ naba divisiones lineales iguales enfren­ tadas, como si se tratara de dos reglas. Esta escala ni siquiera aparecía en el modelo de 1597; se añadió alrededor de un año después. Hacia 1600, Galileo había descubierto tantos usos del sec­ tor que, desde entonces, el problema del calibrado pasó a explicarse en el capítulo 20. Los manuscritos muestran lo equi­ vocados que han estado los historiado­ res al confiar en que el sentido común y la versión definitiva del manual de instrucciones publicado por Galileo podían revelar su forma de inventarlo. Es de sentido común que hubiese comenzado con algo sencillo (la escala de divisiones iguales, como la del sector de Hood) y que luego se diese cuenta de que podía aplicarse a problemas más complejos, tal y como explicaba posteriormente en sus instrucciones. En realidad lo primero que inventó fue un medio mecánico de resolver un pro­ blema que no podía resolverse con las matemáticas de su época: el problema del calibrado, que era una función de dos variables independientes. Sólo más tarde se le ocurrió que también los pro­ blemas de simple proporcionalidad podían resolverse mecánicamente. ¿Por qué habían de preocupar a un profesor de matemáticas problemas que no suponían dificultad alguna ni para él ni para sus alumnos? Galileo terminó ocupándose de este tipo de problemas en beneficio de la gente corriente, que no podía calcular raíces cuadradas y que hasta tenía dificulta­ des con la multiplicación y la división. Se había dado a los artilleros sin edu­ cación matemática la posibilidad de trabajar con precisión; ahora, por pri­ mera vez, los civiles que tampoco tenían educación matemática podían aprender a hacer incluso trabajos de topografía. Los añadidos al apéndice sobre trian­ gulación hechos después de 1600 refle­ jan la evolución del interés de Galileo por tratar mecánicamente problemas matemáticos sencillos. Originalmente, en 1595 o 1596, el texto proporcionaba cálculos aritméticos detallados para realizar triangulaciones. En el manus­ crito de 1605 y en su libro, cada ejemplo de este tipo va acompañado por un pasaje que muestra cómo, utilizando el sector, puede obtenerse rápidamente una aproximación a la misma respuesta sin recurrir a la aritmética. Abría dichos pasajes con frases como “Para los que no pueden hacer cálculos arit­ méticos...” o “Si se desea evitar tediosos cálculos...” Las pruebas proporcionadas por declaraciones juradas archivadas en 1607, la datación de manuscritos con­ servados en Milán y la forma y el con­ tenido de los otros dos manuscritos de las instrucciones de Galileo indican que el modelo definitivo de su sector se diseñó un año o dos después del instrumento de 1597. Hizo dos cam­ bios fundamentales y otros de menor importancia. Introdujo uno de los cam­ bios fundamentales porque consideraba que el instrumento sería imperfecto mientras no permitiera determinar el 25 área de cualquier figura limitada por líneas rectas y arcos circulares en una combinación cualquiera. Para este problema inventó una escala que pro­ porcionaba el área de cualquier seg­ mento de un círculo. Es la escala que he llamado VII. Requiere dos conjun­ tos de números, uno a cada lado de la línea. Para que pudiera leerse con mayor facilidad, tenía que situarse cerca de los bordes exteriores, donde había estado la escala V. Ya que V era de utilidad inmediata en problemas de fortificación, Galileo abandonó G-1 y puso V en su lugar, añadiendo una ex­p licación que mostraba cómo los polígonos inscritos calculables me­diante G-1 podían obtenerse fácil­ mente utilizando V en su lugar. El otro cambio importante introdu­ cido en 1598 consistió en reemplazar la escala G-2 por otra más sencilla (la IV), de divisiones iguales iniciadas en el pivote. Reglas idénticas, articuladas en un punto común, proporcionaban la solución inmediata de todos los proble­ mas de proporcionalidad, lo cual equi­ vale a resolver todas las ecuaciones lineales. Junto con las escalas III y II, que de hecho aumentaban las posibi­ lidades del sector hasta conseguir que resolviera algunas ecuaciones cuadrá­ ticas y cúbicas, la escala IV convertía la versión final del aparato en un ins­ trumento que podía resolver mecáni­ camente mu­chos problemas algebrai­ cos. La verdad es que el sector permitía dominar todos los problemas matemá­ ticos prácticos de la época. H acia 1606, año en que Galileo pu­ blicó su libro sobre el “compás geométrico y militar”, se habían fabri­ cado unos cien instrumentos, que se habían vendido a estudiantes o rega­ lado a amigos y dignatarios de Italia y del extranjero. Los libros de cuentas de Galileo muestran que al menos 20 ejemplares estaban en Alemania, Austria, Francia y Polonia. Su libro se publicó en italiano para que pudiera ser leído por todos. Al cabo de unos meses, un estudiante paduano plagió el libro en latín y pretendió que Galileo le había robado el invento. Como Galileo había dedicado su libro al prín­ cipe Cosimo de’ Medici, al que entonces estaba solicitando empleo, la cuestión era seria y adoptó medidas legales con­ tra el plagiario. Una traducción latina autorizada se publicó en Ale­mania en 1613, cuando los sectores ya se usaban en toda Europa. Un alud de pretensiones de priori­ dad en el invento aparecieron en otros países y en otros idiomas hasta casi 1640. Durante todo este tiempo se construyeron sectores con gran varie­ 26 dad de combinaciones de escalas. Yo he ido coleccionado copias de los libros y ejemplares del instrumento a lo largo de muchos años. Dejando a un lado la invención hecha por Hood de un sector de cálculo con menos aplicaciones, sólo una de tales pretensiones me parece algo fundada. Se trata de la afirmación hecha en 1610 por el matemático belga Michel Coignet, corresponsal de Guidobaldo y de Galileo hacia 1580, según la cual él había utilizado desde esa época su “escala pantométrica”, que consistía en líneas graduadas similares a las del último modelo del sector. Las líneas estaban grabadas en una lámina metálica sin partes móvi­ les. El instrumento inventado por Coignet se utilizaba, junto con un com­ pás de dividir ordinario, para resolver problemas parecidos, pero mediante construcción y medida, no por cálculo mecánico, como era el caso del instru­ mento inventado por Galileo. Lo que caracteriza a las calculadoras mecánicas es su capacidad para hacer varias cosas: abreviar cálculos largos, permitir que los matemáticos expertos resuelvan problemas que sin ellas que­ darían fuera de su alcance y permitir que personas sin formación matemá­ tica utilicen métodos de cálcu­lo que no dominan. Lo importante es que el sec­ tor de Galileo hizo estas tres cosas desde el principio, como lo haría luego la regla de cálculo. Me parece que el sector de Hood y la máquina de calcu­lar que se desarrolló en el siglo xvii a par­ tir de las ideas de Pascal y de Leib­niz son instrumentos algo diferentes, pues estaban limitados a problemas que podían resolverse utilizando métodos conocidos (aunque con menos co­modidad). Con el instrumento mecá­ nico de su invención, Galileo atacó un problema que no podía resolver de nin­ guna otra manera. Al hacerlo, com­ prendió que se podían utilizar medios mecánicos para resolver todos los pro­ blemas matemáticos prácticos de su tiempo, de la misma manera que ahora resolvemos nuestros problemas mate­ máticos prácticos me­diante máquinas electrónicas. BIBLIOGRAFIA COMPLEMENTARIA The Instruments of Galileo. Silvio A. Bedini en Galileo: Man of Science, dirigido por Ernan McMullin. Basic Books, Inc., 1967. Les Instruments Scientifiques aux xviie et xviiie Siècles. Maurice Daumas, París, 1953. Gli Strumenti. Vol. 1 de Storia delle Scienze, dirigida por Gerard L’E. Turner. Einaudi. Turín, 1991. TEMAS 4 La computadora mecánica de Charles Babbage Doron D. Swade La construcción, coronada con éxito, de uno de los ingenios calculadores de Babbage, un artilugio de tres toneladas, hace pensar que la historia ha juzgado erróneamente al precursor de la computación automática C harles Babbage es tenido por el gran precursor de las ciencias de cómputo. Babbage, empero, no tuvo éxito en sus esfuerzos por materializar sus proyectos. Las histo­ rias de la computación afirman inde­ fectiblemente que los tropiezos de Babbage se debieron a que sus artilu­ gios exigían más de lo que la ingenie­ ría mecánica de la era victoriana po­día permitir. Resulta curioso, sin embargo, que ninguna prueba res­ palde tal juicio. Con mis colegas del Museo de la Ciencia londinense, me propuse arro­ jar algo de luz sobre la cuestión. Para ello pensamos en construir a escala natural uno de los ingenios de cómputo de Babbage, basándonos en los diseños originales. Era el año 1985. Nuestra empresa culminaría con éxito en no­viembre de 1991, sólo un mes antes de cumplirse el bicentenario del naci­ miento de Babbage. En esa fecha, el dispositivo, conocido por el nombre de Ingenio de diferencias n.o 2, ejecutó im­pecablemente su primer cómputo de importancia. El éxito de nuestra la­bor permitió comprobar que los fracasos de Babbage no se debieron al di­seño, sino a una deficiente ejecución prác­ tica. El ansia de Babbage por mecanizar los cálculos nació de la exasperación que le provocaban las inexactitudes de las tablas matemáticas impresas. Cien­ tíficos, banqueros, actuarios, navegan­ tes y similares se valían de ellas para realizar aquellos cálculos que exigie­ DORON D. SWADE es ingeniero elec­ trónico, historiador de la computación y conservador jefe de la sección de com­ putación y control del Museo de la Cien­ cia de Londres. Dirigió la reconstrucción de la calculadora de Babbage. 28 ran exactitudes mayores que dos o tres cifras. Pero la producción de tablas era penosa y propensa a errores en cada una de sus fases, desde el cálculo hasta la transcripción y la composición tipo­ gráfica. Dyonisius Lardner, divulgador científico de la época, escribió en 1834 que una selección de 40 volúmenes de tablas matemáticas efectuada al azar contenía 3700 correcciones de erratas, algunas de las cuales, a su vez, conte­ nían errores. Babbage era un tenaz analista de los errores tabulares. En cierta ocasión co­laboró con el astrónomo John Herschel en la verificación de dos conjuntos de cálculos para tablas astronómicas, pre­ parados por separado; ambos queda­ron desalentados ante la multitud de discre­ pancias. “¡Desearía, en el nombre de Dios, que estos cálculos hubieran sido ejecutados por una máquina de vapor!”, exclamó Babbage en 1821. 1. CHARLES BABBAGE posó para este daguerrotipo hacia 1847, año en que comenzó a trabajar en el Ingenio de diferencias n.o 2. Babbage consideró que las calcula­ doras mecánicas ofrecerían un medio para eliminar todas las fuentes de errores de las tablas matemáticas. Imaginaba una máquina que no sólo calculase impecablemente, sino que también fuese capaz de erradicar los errores de transcripción y de composi­ ción tipográfica. C onstruyó en 1822 un modelo experimental que sirviera para enca­ minarle hacia su objetivo. Bautizó a su calculadora “ingenio de diferencias” porque está basada en un principio matemático conocido por método de diferencias finitas, que permite deter­ minar valores sucesivos de funciones polinómicas utilizando únicamente la operación de adición. La multiplica­ ción y la división, mucho más difíciles de traducir a procesos mecánicos, no son necesarias. Dado que el valor de la función en cada paso se calcula a partir del valor precedente, si el resul­ tado final es correcto podemos tener gran confianza en que todos los valores de la serie lo son. Los ingenios de diferencias de Bab­ bage se valen del sistema de numera­ ción decimal. Cada una de las cifras de un número polidígito se sitúa en una rueda dentada, la rueda de dígitos, que lleva grabados los dígitos decimales. El valor de cada uno está representado por la rotación angular de la rueda asociada. El mecanismo de control del ingenio garantiza que sólo sean váli­ dos ciertos giros correspondientes a valores numéricos enteros, a los que corresponden posiciones definidas de las ruedas numéricas. Bab­bage se jac­ taba de que sus máquinas producirían resultados correctos o se bloquearían, pero jamás darían resultados falsos. El esfuerzo más ambicioso por cons­ truir un dispositivo de cálculo a plena escala estuvo consagrado al malha­ TEMAS 4 2. EL INGENIO DE DIFERENCIAS N.o 2 se construyó cara al público en el Museo de la Ciencia de Londres. Vemos a los dos ingenieros constructores, Barrie Holloway (izquierda) y Reg dado Ingenio de diferencias n.o 1. Sus empeños se hicieron añicos en 1833, tras diez años dedicados al proyecto, desarrollo y manufactura de compo­ nentes, por no hablar de los enormes gastos. El proyecto se vino abajo tras una disputa con su ingeniero jefe, Joseph Clement, sobre el pago por la reubicación del taller mecánico. La desavenencia no parece que tuviera un fundamento técnico, al menos vista desde fuera. Pero durante todo este tiempo ha habido una pregunta que ha permanecido sin respuesta: las cir­ cunstancias que rodearon el hundi­ miento del proyecto ¿ocultaban la imposibilidad, técnica o lógica, de los proyectos de Babbage? E l Ingenio de diferencias n.o 1 consiste en un elemento sumador básico, repetido muchas veces en un montaje que materializa el método de diferencias. El tamaño y la compleji­ dad del ingenio son monumentales: el diseño incluye unas 25.000 piezas; la máquina, montada y en orden de mar­ cha, mediría casi dos metros y medio de alta, más de dos metros de larga y casi un metro de profundidad; pesaría MÁQUINAS DE CÓMPUTO Crick (derecha), efectuando ajustes. Babbage proyectó además un mecanismo de impresión para el ingenio de diferencias, no construido todavía por falta de tiempo y presupuesto. varias toneladas. El proyecto, finan­ ciado por el gobierno británico, resultó también costosísimo. Cuando le fue abonada a Clement la última factura, en 1834, la inversión ascendía ya a 17.470 libras. Por mor de comparación: el coste total de la locomotora de vapor de John Bull, construida en 1831, fue de 784 libras. Clement llegó a dejar listas unas 12.000 de las 25.000 piezas necesarias para el Ingenio de diferencias n.o 1, casi todas las cuales serían posterior­ mente achatarradas y fundidas. El gobierno acabó retirándose definitiva­ mente del proyecto en 1842, en parte a causa de la opinión de George Biddell Airy, astrónomo real, quien declaró que el ingenio “carecía de va­lor”. El fracaso de no poder terminar el ingenio de diferencias constituyó el trauma fundamental de la vida científica de Babbage. Los años de trabajo en el Ingenio de diferencias n. o 1 sí produjeron un re­sultado tangible y notable. En 1832 Clement ensambló una pequeña por­ ción del ingenio, compuesta por unas 2000 piezas, que debía servir como pieza de exhibición. Esta porción ter­ minada del artilugio constituye un excelente ejemplo de la ingeniería mecánica de precisión de aquella época y sigue funcionando a la perfección en el día de hoy. L a pieza de exhibición constituye la primera calculadora automática conocida. A diferencia de las calcula­ doras de sobremesa de aquel entonces, el aparato, una vez preparado, no re­q uería la intervención de un entendi­do. Quien la manejase podía conseguir resultados exactos sin com­ prender para nada los principios lógi­ cos o me­cánicos utilizados. A pesar de su impresionante capa­ cidad, el ingenio de diferencias sólo podía realizar una tarea fija. La repu­ tación de Babbage como adelantado de la informática descansa en otro dispo­ sitivo, mucho más refinado, el Ingenio analítico, concebido en 1834. Pre­ten­día que el Ingenio analítico fuese una má­quina computadora universal y pro­ gra­m able, de rasgos sorprenden­t e­ men­t e parecidos a los ordenadores electrónicos modernos. Disponía de un repertorio de operaciones básicas (adi­ ción, sustracción, multiplicación y 29 di­visión) que podía ejecutar en una secuencia arbitrariamente dada. La or­ga­ni­za­ción interna de la máquina presentaba un “almacén” y un “molino” independientes, equivalentes a la memoria y al procesador de un orde­ nador mo­d er­n o. La separación de almacén y molino ha sido un factor predominante en el diseño de las com­ putadoras modernas desde mediados de los años cuarenta. El Ingenio analítico se programaba mediante tarjetas perforadas, técnica utilizada con anterioridad en el telar de Jacquard para organizar los moti­ vos de los tejidos de punto. Era capaz de optar entre diversas líneas de ac­tua­ ción según el resultado de un cálcu­lo, lo que le facultaba para ejecutar fun­ ciones complejas. Babbage pretendía que la máquina pudiese recibir datos de hasta 50 dígitos y dar resultados de hasta 100 dígitos; la salida podía ser impresa, perforada en cartulina o representada gráficamente. A unque los historiadores suelen referirse al Ingenio analítico co­mo si de una máquina tangible se trata­ra, en realidad consiste en una serie de diseños que no llegaron a construirse y que Babbage fue refinando y perfec­ cionando en distintos períodos, desde 1834 hasta su fallecimiento en 1871. Desmoralizado por la suerte del In­ge­ nio de diferencias n.o 1, no em­prendió ninguna tentativa seria de construc­ ción de un ingenio analítico a plena escala. Los únicos restos interesantes de sus grandiosos diseños son una pequeña parte experimental del mo­lino, todavía incompleta al morir Bab­bage, y otro fragmento construido posteriormente por su hijo, Henry Prevost Babbage. Los trabajos en el Ingenio analíti­co indujeron a Babbage a meditar so­bre el diseño de mecanismos capaces de realizar automáticamente la mul­ti­ plicación y la división, regulados to­dos ellos por un complejo sistema de con­ trol. Las soluciones a esos problemas le animaron a proyectar un in­genio de diferencias más elegante, el Ingenio de diferencias n.o 2. Aunque tal má­quina habría de calcular con una precisión de 31 cifras, diez más que las proyec­ tadas para el primer modelo, conten­ dría la tercera parte de piezas que éste. Delineó planos de­tallados para esta segunda máquina entre 1847 y 1849, que ofreció al gobierno británico en 1852, pero no recibió apo­yo alguno. Y Funcionamiento de los ingenios de diferencias V emos uno de los veinte planos principales del Ingenio de diferencias n.° 2, que Babbage delineó a partir de 1847. La máquina, accionada mediante la manivela de la derecha, provoca, al girar, la rotación de una pila vertical de catorce pares de levas, que determinan la acción y el sincronismo de los ciclos de cálculo. Los números se almacenan en ocho columnas verticales, cada una de las cuales dispone de 31 ruedas portadígitos, que llevan grabados los números de 0 a 9. El menor dígito significativo de cada número es almacenado en la parte baja de la columna; el mayor, en lo más alto. Los valores iniciales necesarios para cada cálculo se introducen desbloqueando las ruedas de dígitos y haciéndolas girar a mano hasta el guarismo adecuado. Por debajo de las ruedas de dígitos se encuentra un sistema de cremalleras y palancas que, accionadas por enlaces con las levas, alzan, bajan y hacen girar los ejes ver 30 ticales, efectuando de este modo la adición de diferencias. El Ingenio de diferencias n.° 2 no realiza en secuencia la adición de números de derecha a izquierda, sino que, durante la primera mitad del ciclo, suma los valores almacenados en las columnas impares a los registrados en las pares; después, en el segundo semiciclo, se suman las columnas pares a las impares. Tal técnica reduce el tiempo requerido para el cálculo. Una técnica similar, la técnica de bombeo (pipelining), es utilizada en los ordenadores electrónicos. El mecanismo de impresión, dibujado a la izquierda, está acoplado a la última columna de ruedas de dígitos, que registran el resultado final del cómputo. Cada vuelta de la manivela produce un nuevo valor de la tabla de diferencias con una precisión de 30 dígitos, y deja automáticamente a la máquina preparada para generar el número siguiente. TEMAS 4 así siguie­ron las cosas du­rante casi un siglo y medio. En el curso de diversas visitas a Londres, que comenzaron en 1979, Allan G. Bromley, de la Universidad de Sidney en Australia, examinó los dibu­ jos y cuadernos de Babbage en la Biblioteca del Museo de la Ciencia y se convenció de que el Ingenio de diferen­ cias n.o 2 era técnicamente realizable. E n 1985, poco después de haber sido yo nombrado conservador de com­ putación del Museo de la Ciencia, se presentó Bromley allí con una pro­ puesta de dos páginas pidiendo que se averiguase la causa del fracaso de Babbage en la construcción de sus máquinas. Proponía también que el Museo se esforzase en dejar a punto la máquina en 1991, bicentenario del na­cimiento de Babbage. La propuesta de Bromley señaló el comienzo de un proyecto de seis años de duración. Los avatares de nuestro empeño por cons­ truir el ingenio de diferencias fueron dignos del mismísimo Babbage. Nos embarcamos en un complejo proyecto de ingeniería que nos condujo a terrenos técnicos desconocidos y nos obligó a afrontar rompecabezas mecá­ nicos, crisis financieras y las intrigas inherentes a toda iniciativa de cierto vuelo. El Ingenio de diferencias n.o 2 era a todas luces el más idóneo para el pro­ yecto. El juego de planos correspon­ diente se halla intacto, mientras que los planos del Ingenio de diferencias n. o 1 ofrecen lagunas lamentables. Además el diseño del Ingenio de dife­ rencias n.o 2 es más económico. Las li­mitaciones financieras y de tiempo pesaban en favor de prescindir de la impresora para concentrarnos en el resto del aparato. La impresora está compuesta por unas 4000 piezas y constituye por sí misma un problema de ingeniería no poco ambicioso. La documentación correspondiente al Ingenio de diferencias n.o 2 consiste en 20 planos principales delineados y en varios esbozos. El estudio detallado de los dibujos nos llevó a descubrir varios errores de concepción en los planos, amén de los detectados por Bromley. Uno de los montajes princi­ pales parece ser redundante; faltan en el proyecto, en cambio, otros mecanis­ mos. Por ejemplo, los valores iniciales necesarios para comenzar el cálculo se introducen desbloqueando las columnas y haciendo girar a mano cada una de las ruedas de dígitos recién liberadas hasta las posiciones apropiadas. Babbage no previó ningún medio para bloquear las columnas ya preparadas, por lo que el procedi­ MÁQUINAS DE CÓMPUTO 3. LA SECCION OPERATIVA del Ingenio de diferencias n.o 1, ensamblada por Joseph Clement en 1832, constituye la primera calculadora automática conocida. Su impecable funcionamiento respalda la convicción que Babbage tenía de que la construcción de un ingenio calculador completo era realizable en la práctica. miento de puesta en servicio se corrom­ pía por sí mismo. E l fallo de diseño más grave atañía al mecanismo de acarreo, el en­cargado de “llevar” en las sumas. Este componente crucial tiene la fun­ ción de hacer que la rueda de dígitos de orden siguiente (cuyos dígitos indi­ can números diez veces mayores) avance una unidad cada vez que la suma parcial de una rueda es mayor o igual que 10. El mecanismo de arras­ tre sufre su prueba extrema cuando se le suma 1 a una hilera de nueves. Babbage resolvió el problema del arrastre de forma muy original. Durante la primera mitad del ciclo de cálculo, el ingenio realiza una suma de 31 dígitos sin arrastrar las unidades de orden superior (los dieces), pero cada rueda digital que pasa de 10 activa un dispositivo de muelles a modo de advertencia. En la segunda parte del ciclo, cada uno de los dispo­ sitivos activados se en­carga de que un brazo giratorio haga avanzar un paso a la rueda digital de orden siguiente. Pero la configuración del mecanismo de arrastre que muestran los dibujos de Babbage no es viable. El sentido de giro de las ruedas digitales es inco­ rrecto y el mecanismo de advertencia y arrastre no podría funcionar cual fue delineado. El porqué de tales deficien­ cias ha suscitado muchas conjeturas. Examinamos la posibilidad de que se hubieran introducido errores delibera­ damente como medida de seguridad frente al espionaje industrial. Lo más verosímil es que algunos fallos se debieran a omisiones del diseño y otros fueran errores inevitables de delinea­ ción y trazado. Ninguno de los problemas que halla­ mos en el Ingenio de diferencias n.o 2 31 ponía en entredicho sus principios lógicos u operativos globales; con­ seguimos hallar solución para todos. Se suprimieron los mecanismos inne­ ce­s arios; ideamos los montajes de bloqueo de las ruedas indicadoras y, cuan­do hizo falta, dedujimos su movi­ miento de los de piezas vecinas. Bromley resolvió el problema del mecanismo de arrastre invirtiendo los elementos incorrectamente dibujados, como si se reflejasen en un espejo, y alterando adecuadamente su orienta­ ción. La introducción de un engranaje reduc­tor 4:1 en el eje motor disipó las dudas que había sobre si el voluminoso Ingenio de diferencias n.o 2 podría accionarse a mano. Esta modificación disminuye por cuatro el es­f uerzo requerido para girar la manivela; a cambio, la máquina se torna cuatro veces más lenta. La traducción práctica de las solu­ ciones halladas planteaba un pro­ blema. ¿Podríamos efectuar dichas alteraciones sin desvirtuar la autenti­ cidad histórica del resultado y sin poner en entredicho la misión de de­mostrar que los ingenios de Bab­bage eran lógica y prácticamente viables? Resolvimos el problema adoptando métodos de diseño característicos de Babbage y limitándonos estrictamente a los procedimientos técnicos y a los dispositivos de que podía disponer en su tiempo. Las modificaciones a los diseños originales se proyectaron ade­ más de suerte tal que cada mecanismo añadido por nosotros pudiera ser reti­ rado sin dificultad. En 1989 construimos un montaje experimental en miniatura para veri­ ficar la lógica del elemento sumador básico y confirmar que el mecanismo Principios matemáticos de los ingenios de diferencias L os ingenios de diferencias de Babbage reciben tal nombre porque se valen del método de diferencias finitas para hallar el valor de ciertas expresiones matemáticas. Tal método ha sido utilizado al pie con el fin de generar la tabla de cubos (y = x3). Las diferencias primeras se hallan restando los sucesivos pares de cubos. Se aplica después el mismo procedimiento a los pares de diferencias primeras, con lo que se obtienen las diferencias segundas. Repetido una vez más el proceso con las diferencias segundas, resulta que las diferencias terceras son constantes e iguales a 6. Esta información permite generar, invirtiendo el proceso de generación de las diferencias, el resto de la tabla de cubos. Por ejemplo, al sumar 6 a la diferencia segunda (18) se obtiene la nueva diferencia segunda (24); sumada esta cantidad a la diferencia primera (37) resulta la nueva diferencia primera (61); por fin, sumada ésta al último cubo calculado (64), se obtiene el número siguiente de la serie de cubos, a saber, 125 = 53. El procedimiento puede ser repetido indefinidamente y generar así tantos términos como se quiera por mera adición reiterada. El método de las diferencias finitas es igualmente aplicable a las funciones matemáticas denominadas polinomios, cuya expresión general es y = anxn + an-1xn-1 + ... + a1x + a0. La diferencia n-ésima de un polinomio de grado n será siempre una constante, la cual sirve de base para el cálculo de valores por el método de diferencias. Son muchas las relaciones de la física y la ingeniería representadas mediante polinomios, que sirven además para aproximar funciones más complicadas, como las funciones trigonométricas y logarítmicas. En los ingenios de diferencias de Babbage, cada columna de ruedas de dígitos representa la posición de un número polidígito de la tabla. El Ingenio de diferencias n.° 2 es capaz de tabular polinomios de grado 7 con una precisión de 31 dígitos, logro admirable incluso con criterios modernos. 32 de arrastre operaba bien. El artilugio suma dos números de dos cifras y tiene en cuenta los arrastres de unidades a decenas y de decenas a centenas. El dispositivo, finamente terminado, supuso un gran paso para convencer a patrocinadores y colegas de que nues­ tro proyecto no sólo comportaba una cuestión histórica sin resolver, sino que, además, constituía una obra de arte ingenieril. El mecanismo experi­ mental resultó más tarde ser de inapreciable ayuda para mostrar el funcionamiento de la máquina y para ensayar las primeras muestras de las piezas. La construcción del Ingenio de dife­ rencias n.o 2 y la estimación del costo de fabricación requerían planos a escala natural de todas sus piezas. A finales de 1989 contratamos con una empresa de ingeniería la preparación de un juego de planos a partir de los originales de Babbage. Era preciso suministrar además la información no disponible en los originales: dimensio­ nes precisas, elección de materiales, tolerancias, métodos de fabricación y otras muchas cuestiones de detalle. L as dimensiones de cada una de las piezas se obtuvieron por medición sobre los planos originales, tras de­ter­ minar la escala. La empresa de inge­ niería produjo 50 nuevos planos que especificaban cada una de las 4000 piezas del ingenio. Los montajes mecá­ nicos que han sobrevivido muestran que Babbage construía sus piezas en bronce, hierro fundido y acero. Brom­ ley y Michael Wright, del Museo de la Ciencia, asesoraron sobre los materia­ les a utilizar para cada pieza. Nues­tros colegas del Colegio Imperial de Ciencia y Tecnología analizaron la composi­ ción de los elementos del Ingenio de diferencias n.o 1 para que nos sirviera de guía en la selección de bronces modernos adecuados. No se hizo ningún intento de utilizar maquinaria de época para la construc­ ción de las piezas. Los 4000 componen­ tes del ingenio suponen sólo unos mil tipos de piezas diferentes, por lo que hay mucha repetición. Nos servimos sin pudor de las técnicas de manufac­ tura modernas para producir todas las piezas idénticas. También procedimos a soldar piezas que Bab­bage hubiera tenido que forjar. De lo que sí nos ase­ guramos es de que él hubiera podido producir componentes de la misma precisión, aunque seguramente por otros medios. La especificación de la precisión con que habrían de construirse las piezas resultó menos problemática de lo que temíamos al principio. Bromley y TEMAS 4 4. PARA LA CONSTRUCCION del Ingenio de diferencias n.o 2 fue preciso resolver ciertos problemas de ingeniería. Los técnicos del Museo de la Ciencia construyeron en 1989 parte del mecanismo de cómputo (a la izquierda) con el fin de comprobar Wright midieron piezas tomadas del Ingenio de diferencias n.o 1; compro­ baron que Clement conseguía que las piezas repetidas coincidieran con un margen de 35 a 50 milésimas de milí­ metro, en contradicción con el habitual prejuicio de que la ingeniería mecá­ nica de mediados del siglo pasado no alcanzaba la precisión suficiente para construir los artilugios de Babbage. Adoptamos las normas de la ingeniería moderna, sabiendo que no superaban los límites de lo que los artesanos del siglo xix podían conseguir. El proceso de preparación de los 50 planos mecá­ nicos nuevos requirió unos seis meses. Estábamos decididos a firmar un contrato de construcción y montaje a precio fijo, para no repetir la triste historia de Babbage y echar dinero en un saco sin fondo. El Museo de la Ciencia y la compañía especializada llegaron a un acuerdo; pero en junio de 1990, a punto de firmarse el contrato definitivo, la compañía quebró. A menos que lográsemos concretar los pedidos a nuestros proveedores antes de que terminase la jornada comercial del día siguiente incurriríamos en penalización por demora y tendríamos que embarcarnos en otra ronda de negociaciones, que comprometería nuestra meta de tener concluido el proyecto a tiempo para el bicentenario de Bab­b age. A mediodía del día 8, Crick y Holloway eran ya empleados del Mu­seo. Nos pasamos ese día sus­ cribiendo frenéticamente pedidos de piezas y esbozando contratos. Cumplimos por minutos. El Ingenio de diferencias n.o 2 se construyó a la vista del público en el Museo de la Ciencia. Las tareas de MÁQUINAS DE CÓMPUTO el correcto diseño del elemento sumador básico. Construyeron asimismo 210 complicadas palancas de bronce (a la derecha, sobre el plano que detalla su construcción) necesarias para el mecanismo de acarreo. ajuste y montaje comenzaron en noviembre de 1990 y quedaron con­ cluidas en mayo del año siguiente. El ingenio se convirtió en la pieza cen­ tral de la exposición que, dedicada a Babbage, se abrió al público el 27 de junio de 1991. Incluso entonces nos tuvo con el alma en vilo. El Ingenio de diferencias n.o 2, con sus tres tone­ ladas de peso, no había realizado aún ni un solo cómputo completo; se blo­ queaba sin cuento. Pusimos a punto técnicas de depuración para localizar la fuente de los atascos y continua­ mos trabajando en la máquina durante la exposición. En noviembre de 1991, un mes antes de cumplirse el bicentenario del nacimiento de Babbage, la máquina completó por primera vez un cálculo a plena escala. Produjo los 100 primeros valores de la tabla de potencias de 7 y ha funcio­ nado sin el menor fallo desde enton­ ces. El ingenio acabó costando menos de 300.000 libras (unos 50 millones de pesetas). L os historiadores de la técnica han debatido si las estrictas normas de precisión exigidas por Babbage resul­ taban necesarias. Se ha señalado que se construyeron ingenios mucho más burdos, que dieron buenos resultados. Georg y Edvard Scheutz, padre e hijo, inspirados por una descripción del tra­ bajo de Babbage, construyeron tres ingenios de diferencias, de diseño pro­ pio en su mayor parte. El primero de los tres, terminado en 1843, tenía un bastidor de madera y en su construc­ ción utilizaron sencillas herramientas de mano y un torno rudimentario. A pesar de su tosquedad, la máquina de los Scheutz funcionó satisfactoria­ mente ante la Real Academia de Ciencias de Suecia. Pero los ingenios de diferencias de Babbage eran mayores y más refina­ dos. La experiencia que nosotros adquirimos mientras construíamos el Ingenio de diferencias n.o 2 subraya la importancia de la adopción de estric­ tas normas de calidad. Esperábamos que las piezas repetidas, construidas con máquinas herramientas computa­ rizadas, serían lo bastante idénticas como para que fuesen intercambia­ bles. Sin embargo, resultó necesario el retoque fino de los componentes hasta las centésimas de milímetro, sobre todo para que el mecanismo de acarreo funcionase. La insistencia de Babbage en que las piezas fuesen de la máxima precisión se fundaba en sólidos princi­ pios de ingeniería. BIBLIOGRAFIA COMPLEMENTARIA Charles Babbage: Pioneer of the Computer. Anthony Hyman. Princeton University Press, 1982. D iference and A nalytical E ngines . Allan G. Bromley en Computing before Computers. Dirigido por William Aspray. Iowa State University Press, 1990. Glory and Failure: The Difference Engines of Johann Müller, Charles Babbage and Georg and Edvard Scheutz. Michael Lindgren. MIT Press, 1990. Charles Babbage and His Calculating Engines. Doron Swade. Science Museum, Londres, 1991. A Modern Difference Engine: Software Simulators for Charles Babbage’s Difference Engine No. 2. James Donnelly. Armstrong Publishing Company, 1992. 33 El computador del Dr. Atanasoff Allan R. Mackintosh La paternidad del ordenador electrónico digital se ha atribuido erróneamente durante mucho tiempo. Tal honor corresponde al físico John V. Atanasoff, otrora olvidado L a historia hizo justicia por fin a John V. Atanasoff. Tras decenios de oscuro anonimato, este profesor jubilado de física comenzó a recibir a los 84 años el reconocimiento de las ciencias del cómputo por algo que realizó casi medio siglo antes: la invención de la primera computadora digital electrónica. Hasta hace poco los textos de historia de la informática atribuían a otros ese logro. En tales relatos se afirma que los ordenadores actuales tuvieron sus orígenes en el decenio de 1930 y en los primeros años cuarenta, época en que abundaron los intentos independientes y enfrentados para automatizar, acelerar y, en general, eliminar el fastidio y la monotonía de los procesos de cálculo largos. Así, por ejemplo, Van­ne­ bar Bush, del Instituto de Tecno­logía de Massachusetts, acabó en 1932 una computadora mecánica que efectuaba cálculos por medio de engranajes y ejes giratorios. El alemán Konrad Zuse, George R. Stibitz, de los La­bo­ratorios Bell Telephone, y Howard H. Aiken, de la Universidad de Harvard (este último con la colaboración de la International Business Machines Corporation, IBM) desarrollaron, hacia finales de los años treinta y cada uno por su parte, ordenadores “electromecánicos”, en los que se utilizaban relés para la representación de los números. Las posiciones “cerrado” y “abierto” de los contactos del relé representaban los dígitos 0 y 1 del ALLAN R. MACKINTOSH es profesor de física experimental del estado sólido de la Universidad de Copenhague y dirige nordita , instituto escandinavo dedicado al estudio de la física teórica. Empezó a interesarse por la historia de Atanasoff en 1983, durante una visita a la Universidad estatal de Iowa; desde entonces ha estudiado a fondo las primeras etapas históricas de los ordenadores electrónicos. 34 sistema de numeración binaria, cuya base es 2. (A diferencia del sistema de numeración normal, de base 10 y que para expresar los números se vale de los dígitos 0 al 9, en el sistema binario los números se representan me­diante combinaciones de ceros y unos.) En esos mismos textos se afirma luego que las primeras computadoras electrónicas se inventaron a mediados de los años cuarenta. A diferencia de sus predecesoras mecánicas o electromecánicas, las computadoras elec­ trónicas operan con dispositivos electró­ nicos fundamentalmente: válvulas termoiónicas, transistores y, en nuestros días, microcircuitos; son los electrones y no las piezas del ordenador los que realizan casi todos los movimientos. Suele considerarse que la primera de esas máquinas fue Colossus, construida por los matemáticos Alan M. Turing y M. A. H. Newman y sus co­legas del Bletchey Research Esta­blishment, en Inglaterra. Colos­sus entró en servicio hacia 1943 y contribuyó a descifrar el código “Enigma” de los alemanes, lo que pesó decisivamente en el curso de la Segunda Gue­rra Mundial. El Electronic Numerical Integrator and Computer, eniac, se considera el segundo ingenio. Fue construido por John W. Mauchly y J. Presper Eckert y sus colaboradores de la Universidad de Pennsylvania y entró en servicio hacia 1945. En realidad, entre 1937 y 1942, bastante antes de concebirse ninguna de las impresionantes e importantes máquinas mencionadas, Atanasoff había diseñado y fabricado dos ordenadores electrónicos menores. El primero fue prototipo de otro mayor que ha dado en denominarse AtanasoffBerry Computer o, brevemente, abc. Berry era Clifford E. Berry, discípulo de Atanasoff e íntimo colaborador suyo desde 1939 hasta 1942. El tardío reconocimiento del logro de Atanasoff no es fruto de una investigación académica, sino el resultado incidental de un litigio jurídico que dio comienzo en 1967 entre la Sperry Rand Corporation y Honeywell, Inc. Sperry había comprado la patente del eniac y cobraba derechos de licencia a otros fabricantes de ordenadores electrónicos. Honeywell se negó a pagar y Sperry la demandó; por su parte Honeywell demandó a Sperry por violación de la legislación antimonopolio y por tratar de imponer una patente inválida. H oneywell sostenía que la patente no era válida porque, al preparar el contencioso contra Sperry, sus abogados habían tropezado con una mención a Atanasoff. Cuando le localizaron, Atanasoff, que no había par­ti­cipado en la construcción del eniac ni conocía su funcionamiento en detalle, comparó la máquina con la suya propia. Se percató de que ciertas partes de la patente del eniac (que cubrían esencialmente todos los aspectos de la computación electrónica) se deducían del abc y de la información que había compartido con Mauchly a principios de los años cuarenta. El testimonio de Atanasoff hizo mella en el juez Earl R. Larson, de la Audiencia Territorial de Minneapolis, quien sentenció el 19 de octubre de 1973 que la patente del eniac era inválida. Según los considerandos de la sentencia, “Mauchly y Eckert no in­ventaron por sí mismos el ordenador digital electrónico automático, sino que obtuvieron la materia objeto de litigio de un tal Dr. John Vincent Ata­ nasoff”. Tanto durante la vista como posteriormente Mauchly se negó a admitir que hubiera aprendido nada importante de Atanasoff. La viuda de Mauchly, Eckert y otras personas siguen compartiendo esa opinión pero, a mi juicio, los testimonios prestados durante la vista contradicen lo sostenido por Mauchly. La decisión de Larson, que Sperry aceptó sin apelar, no trajo fama inmeTEMAS 4 diata a Atanasoff, debido en parte a que los medios de información norteamericanos se encontraban a la sazón inmersos en el escándalo del Wa­tergate, que obligaría a dimitir al presidente Richard M. Nixon. El reconocimiento de la importancia de las contribuciones realizadas por Ata­nasoff se fue difundiendo lentamente por la comunidad científica y hoy ya se acepta que Atanasoff fue el primero que diseñó y construyó un ordenador electrónico digital. Ese reconocimiento se debe en buena medida a los esfuerzos de Arthur W. Burks, quien participó en el desarrollo del eniac, y de su esposa Alice. Ambos investigaron a fondo el trabajo de Atanasoff en el abc y lo describieron —junto con el juicio sobre la patente— en un artículo que tuvo mucha repercusión. Poste­rior­mente escribieron un libro sobre el asunto. La senda que lleva hasta el ordenador Atanasoff-Berry se inició cuando Atanasoff preparaba el doctorado en física teórica por la Universidad de Wisconsin, en Madison, a finales de los años veinte. Su tesis sobre la estructura electrónica del helio requería laboriosos cálculos, que duraban semanas con una de las calculadoras de sobremesa de la época, lo que le hizo soñar con un método de cómputo más automatizado. Continuó dándole vuel- 1. COMPUTADORA ABC (Atanasoff-Berry Computer), construida entre 1937 y 1942 por Atanasoff, a la sazón profesor de física del Colegio estatal de Iowa (que pasó luego a ser universidad), con ayuda de su alumno Clifford E. Berry. abc no fue el primer ordenador digital; le precedieron varias máquinas que manipulaban números directamente en lugar de representarlos mediante magnitudes físicas. Sí fue, sin embargo, el primero que utilizó MÁQUINAS DE CÓMPUTO tas a la idea después de doctorarse en 1930 y de comenzar su actividad docente en el Colegio estatal de Iowa (que sería el embrión de una futura universidad). A tanasoff siguió reflexionando va ­rios años sobre el modo de lograr tal automatismo. Al acabar 1937 tenía ya establecidos algunos principios generales. Por ejemplo, había determi­ nado que la función de memoria, esto es, el almacenamiento de datos, tenía que ser independiente de la función de cálculo y que el método de cómputo habría de ser digital y no analógico; la máquina debería expresar los núme- la electrónica (en forma de válvulas termoiónicas) para hacerlo funcionar y abordar operaciones aritméticas; abajo, a la derecha, se distinguen algunas de esas válvulas. Presentaba otra novedad: los elementos de cómputo estaban separados de los elementos de memoria. Estos se realizaban mediante condensadores montados en los grandes tambores de la parte trasera. Las bandejas situadas a la izquierda son lectoras de tarjetas perforadas. 35 era que los condensadores tienden a descargarse solos. En su situación relajada, Atanasoff dio con la idea de regenerar la memoria, proceso al que llamó “jogging” (“refresco”). Habría que regenerar la carga del condensador, de tal modo que si se encontraba, pongamos por caso, en estado 1, permaneciera así, sin alterarse con el tiempo ni degradarse a 0. Tras llegar a esas conclusiones, rememoró Atanasoff, “avanzada la noche volví al automóvil y regresé a casa con más calma”. Los ordenadores modernos siguen manipulando dígitos binarios almacenados electrónicamente de acuerdo con las reglas de la lógica y separan las funciones de cómputo y de memoria (regenerativa); vale la pena, pues, examinar con más detalle aquellas primeras decisiones de Atanasoff. ¿Por qué, por ejemplo, es preferible para la computación una máquina digital a otra de tipo analógico? 2. ATANASOFF durante la celebración de su octogésimo aniversario, en 1983, en la Universidad estatal de Iowa. En primer plano aparece un tambor de memoria del abc, el único componente importante de su máquina que ha sobrevivido. Cada anillo de condensadores del tambor almacenaba un número de hasta 50 dígitos binarios, corrientemente llamados bits. El tambor almacenaba 1500 bits. ros con dígitos y no por analogía con una magnitud física, como la distancia sobre la corredera de una regla de cálculo. Atanasoff tanteó también la idea de calcular en bases de numeración distintas de 10. Sin embargo, y según sus propias palabras, las ideas no parecían “cuajar” ni veía ninguna salida. Por fin una noche de aquel sombrío invierno Atanasoff realizó varios avances decisivos. La velada no había empezado muy prometedora, sino todo lo contrario. Atanasoff se sentía tan frustrado que abandonó el laboratorio, se subió al co­che y se puso a conducir a gran veloci­ dad, saliendo de la ciudad hacia el este. Trató de concentrarse en la carretera para distraerse de las preocupaciones. Horas después se encontraba a unos 300 kilómetros, en el estado de Illinois, y se detuvo en un establecimiento muy iluminado a tomar una copa. “Hacía un frío espantoso. Me quité el abrigo”, rememoró en su testimonio judicial. “Llevaba un abrigo muy pesado; lo colgué, me senté y pedí una bebida; mientras me la preparaban me di cuenta de que ya no estaba tan nervioso y volví a pensar en las máquinas de cómputo.” “Ahora bien, sin saber por qué, mi mente empezó a funcionar entonces, cuando no había querido hacerlo an­tes; 36 todo estaba en orden, el lugar era tranquilo y agradable; sospecho que tal vez había tomado un par de copas. Entonces me di cuenta de que fluían los pensamientos y de que disponía de algunos resultados positivos.” ¡Y tan positivos! Para realizar las funciones de control y de cálculo aritmético de su computadora Atanasoff decidió utilizar conmutadores electrónicos (dispositivos electrónicos que dirigen el flujo de las señales eléctricas) en vez de mecánicos. En este punto fue un auténtico pionero. Nin­ guna de las máquinas concebidas hasta entonces para resolver problemas matemáticos complejos se había basado en elementos electrónicos. También decidió que su máquina digital manipularía números binarios y que operaría con ellos según las reglas de la lógica y no por recuento directo (véase la figura 5). Esa misma tarde Atanasoff resolvió un problema específico relativo al almacenamiento de números en base 2. Había considerado ya antes la posibilidad de utilizar condensadores, que son dispositivos capaces de almacenar carga, para desempeñar el papel de memoria del ordenador. Por ejemplo, una carga positiva en uno de los bornes del condensador representaría el número 1 y la ausencia de carga el 0. El problema S e valorará mejor la finura intelectual de Atanasoff en este punto si se compara el abc con el analizador diferencial de Bush, la computadora científica más avanzada de aquella época. De naturaleza esencialmente mecánica, el analizador era además una computadora analógica; en ella, los resultados quedaban representados por la rotación de un eje. Los ordenadores analógicos tienen muchas aplicaciones, pero como proceden por medición de magnitudes y no por operaciones sobre números, se produce una pérdida de precisión inevitable. A la computadora digital de Atanasoff no le resultaba difícil conseguir una precisión mil veces mayor que la posible con el analizador diferencial. Y también era fácil aumentarla más todavía, añadiendo dígitos, si se requería. En el caso de las computadoras analógicas el aumento de precisión es difícil y superlativamente caro. Pensemos, por ejemplo, que para incrementar la precisión de una regla de cálculo en un factor de 10 sería preciso aumentar su longitud en la misma proporción. La computación digital de nuestros días se funda en el sistema binario. Es evidente que no fue Atanasoff el único en pensar así, pues las computadoras electromecánicas solían ser binarias, pero sí fue el primero en atinar con un medio electrónico de manipulación de los dígitos binarios. ¿Qué aspecto tiene un número escrito en base 2? En base 10, cada dígito del número representa, de derecha a izquierda, cierto número de unidades, decenas, centenas, millares, etcétera. Así, la cifra 237 repreTEMAS 4 senta en realidad 2 veces 102, más 3 veces 101, más 7 veces 100 (cualquier número, elevado a potencia 0 es igual a 1). En base 2, cada dígito binario (brevemente, bit) representa cierto número de unos, doses (21), cuatros (22), ochos (23) y así sucesivamente. Por consiguiente, el número denario 237 se representaría en base 2 como 11101101; contando de izquierda a de­recha, el número “contiene” sendas uni­dades de 27 (128 en el sistema denario), de 26 (64), 25 (32), 23 (8), 22 (4) y 20 (1) y ninguna unidad de 24 ni de 21. Como es natural, el sistema de base 2 resultaría poco práctico para un uso cotidiano. Mas por hallarse representados todos los números mediante 0 y 1, ofrece la decisiva ventaja de permitir a los programadores la representación de cualquier número mediante una serie de elementos que se encuentren en uno de dos estados o modos: estados de carga o descarga de los condensadores de Atanasoff, o las magnetizaciones hacia “arriba” o hacia “abajo” de un disco magnético. Tras considerar diversas alternativas (válvulas termoiónicas y materiales ferromagnéticos, que permiten modificar las orientaciones de diminutos imanes elementales mediante campos magnéticos), Atanasoff decidió almacenar los dígitos binarios en condensadores. Optó por ellos por razones económicas, al ser bastante baratos, y porque podrían enviar sus señales a la unidad de cómputo sin necesidad de amplificación. Tanto esta decisión como la solución que dio a la recarga de los dispositivos de memoria siguen aplicándose en la computación contemporánea. En nuestros días los condensadores son parte crucial de los microcircuitos que componen las memorias dinámicas de los ordenadores modernos y el “refresco” ideado por Atanasoff reviste vital importancia para su funcionamiento. Decidió construir la caja negra valiéndose de válvulas termoiónicas. Las válvulas recibirían señales procedentes de los condensadores de las memorias, a las que bautizó con los nombre de ábaco de teclado y ábaco contador, por analogía, respectivamente, con las teclas y el carro móvil —el contador— de las calculadoras mecánicas de sobremesa utilizadas en aquella época. Las válvulas recibirían asimismo señales procedentes de otros condensadores que almacenarían los dígitos de arrastre (los que se “llevan” al ir sumando o restando). “Tras haber sido instruido por una persona provista de un soldador”, el circuito lógico procedería a elaborar la respuesta correcta y a reemplazar el contenido del contador con el resultado. La operación de las válvulas electrónicas sobre la información sería tan rápida que podría encargárseles que sumasen o restasen repetidamente los diversos dígitos de dos números cualesquiera almacenados en los ábacos. En nuestros días, los circuitos lógicos están empaquetados en pastillas diminutas (“chips”), muchísimo más céleres que las válvulas termoiónicas; pero realizan, en esencia, las mismas funciones que les asignó Atanasoff. ¿Qué ha sido de su otra gran decisión, a saber, la de separar las funciones de memoria y de procesamiento? También ese legado pervive. Los ordenadores modernos, como pueda ser un microordenador de sobremesa, poseen tres elementos distintos: el sistema de entrada/ salida, que comprende el te­clado, la pantalla de visualización y la impresora (Atanasoff optó por que la entrada y la salida se efectuasen mediante tarjetas perforadas, utilizadas ya en las E l descubrimiento de un método para conservar los datos en condensadores resultó decisivo, pero quizá el máximo logro de Atanasoff fuese el desarrollo de un complejo conmutador electrónico: el circuito lógico. Hallándose en el hostal de Illinois imaginó dos unidades de memoria, dos ábacos, como los llamó. Concibió entonces (son sus palabras) una “caja negra” —el circuito lógico— en la que penetrarían los números alojados en la memoria; basándose en reglas lógicas materializadas en el montaje, la caja negra produciría los resultados correctos de una adición o de una sustracción de los números y los presentaría por los terminales de salida. MÁQUINAS DE CÓMPUTO 3. PROTOTIPO DEL ABC, construido en 1939 para poner a prueba dos ideas fundamentales. Atanasoff proyectaba recargar, es decir, regenerar, constantemente los condensadores de memoria, para que no perdieran su carga de modo impredecible. También planeó realizar los cálculos por medio de circuitos lógicos, esto es, sistemas de válvulas termoiónicas capaces de sumar o restar números binarios según reglas lógicas y no por recuento. El prototipo constituyó un éxito. Una vuelta del disco de memoria (rueda rosa), cuyos condensadores almacenaban por cada lado un número binario de 25 dígitos, determinaba que el único circuito lógico sumase o restase el número almacenado en una de las caras del disco al número de la otra cara. Mientras el circuito calculaba (almacenando o recobrando en el proceso los dígitos de arrastre positivo o negativo de un condensador encargado del arrastre o acarreo), el circuito regenerador refrescaba la memoria. 37 calculadoras de su tiem­po); en segundo lugar, la unidad central de proceso, que realiza las operaciones de control y el proceso de los datos; y por último la memoria, que consta de componentes internos y ex­ternos (unidades de disco, por ejemplo). A tanasoff estaba convencido de haber hallado los principios correctos de la computación electrónica, pero sabía perfectamente que llevarlos a la práctica exigiría un gran esfuerzo. En ese empeño le ayudó Berry, cuya obsesión por el tema no era inferior a la del propio Atanasoff. Este recordaría luego que, aun es­tando ambos muy ocupados, ni una sola vez les faltó tiempo para la computadora: “Teníamos el corazón puesto por completo en esa aventura”, dijo. Comenzaron por construir un proto­ tipo en miniatura para poner a prueba los elementos esenciales de la concepción de Atanasoff: los circuitos de lógica electrónica y la memoria binaria regenerativa. Se dieron prisa en la tarea. El prototipo se encontraba listo en octubre de 1939. Portaba dos ábacos de memoria, montados en las dos caras de un disco de plástico (baquelita). Cada ábaco constaba de 25 condensadores; tenía, por consiguiente, capacidad para albergar un número binario de 25 ci­fras, el equivalente de un número de­cimal de ocho. Atanasoff y Berry in­troducían los números binarios en los ábacos cargando a mano los con­ den­s adores que representaban el nú­m ero 1 y dejando sin cargar los co­rres­pon­dientes al 0. Al pulsar un 4. COMPONENTES DEL ABC, diseñado para que la máquina resolviera sistemas de 29 ecuaciones lineales, cada una con 29 in­cógnitas, de x1 a x29. Tales ecuaciones pueden resolverse sumando (o restando) repetidamente una ecuación de otra, hasta que se elimina una de las incógnitas. Se repite el proceso hasta obtener la solución, esto es, los valores de todas las incógnitas. Para llevar a cabo tales operaciones, el abc leía los coeficientes de las incógnitas (como el 2 del término 2x1) en tarjetas previamente perforadas, las traducía a base 2 y cargaba los coeficientes de una ecuación en el tambor “teclado” de 38 interruptor, el disco daba una vuelta y el circuito de lógica electrónica, dotado de ocho válvulas termoiónicas, leía los números de los ábacos. Con ayuda de un condensador que alojaba los dígitos de acarreo, el circuito procedía a sumar los números y depositaba la suma en el ábaco designado como contador, donde se leía manualmente. Al pro­pio tiempo, un circuito de regeneración refrescaba el número del ábaco teclado. El prototipo no era una computadora impresionante, claro está; el viejo sistema de lápiz y papel corría más. Pero venía a ser ya, comparado con la actual computación electrónica, lo que el aeroplano de los hermanos Wright a la aeronáutica de nuestros días. Al poner de manifiesto la viabilidad de los principios ideados por Atanasoff, el la memoria, mientras que los coeficientes de la otra se cargaban en el tambor “contador” . En cada rotación de los tambores, los circuitos lógicos (a razón de siete válvulas por circuito) sumaban o restaban un par de coeficientes y situaban el resultado en el contador. Al mismo tiempo, los circuitos de regeneración de la memoria recargaban los condensadores del tambor teclado. Cuando el abc eliminaba una variable designada, la máquina almacenaba los números restantes de la ecuación en tarjetas perforadas, para utilizarlos posteriormente. (Los dibujos del artículo son obra de George Retseck.) TEMAS 4 prototipo inició el camino que conduce al ordenador moderno. Lo tenía ya todo para construir el abc , cosa que ocurrió entre 1939 y 1942. La máquina fue proyectada para realizar a gran escala una tarea computacional específica, muy frecuente en ingeniería y en física: la resolución de sistemas de ecuaciones lineales. Ejemplo de tales ecuaciones es el par 2x + 5y = 9 y x + 2y = 4, siendo x e y las incógnitas. Llamemos a a la primera ecuación y b a la segunda. Como sin duda recordarán quienes hayan estudiado los principios elementales del álgebra, los sistemas de ecuaciones pueden resolverse por un método sistemático llamado reducción escalonada por filas, o método de re­ducción de Gauss, que viene a consistir en sumar o restar dos ecuaciones hasta que se anula el coeficiente de una de las incógnitas y, por consiguiente, ésta desaparece. En el ejemplo que nos ocupa, al restar por dos veces sucesivas a de b, el coeficiente 2 del término 2x se reduce a 0, quedando así la ecuación y = 1. Al sustituir y por 1 en la ecuación a de partida resulta x = 2. Fijémonos en que el proceso de res­tar por dos veces b de a equivale al de multiplicar b por 2 y restarla de a una vez; después de todo, la multiplicación no es más que una repetición de sumas. P or supuesto que Atanasoff tenía puestas sus miras en un problema más complejo: pretendía resolver un sistema de n ecuaciones con n incógnitas; en concreto, de 29 ecuaciones con 29 incógnitas, x1 a x29. La solución de tales sistemas obedece al mismo esquema que el ejemplo anterior: se toman dos ecuaciones (sean, por ejemplo, 2x1 + 5x2 – 3x3 + 7x4 + ... + 6x29 = 9 y x1 + 2x2 + 4x3 – 2x4 + ... + 8x29 = 4) y se le resta a una de ellas un múltiplo de la otra hasta que se elimine una de las incógnitas. Para eliminar x1, pongamos por caso, habría que multiplicar la segunda ecuación por 2 y restarla de la primera, con lo que se obtendría la ecuación x2 – 11x3 + 11x4 + ... – 10x29 = 1, llamada la eliminante. Repitiendo el proceso con pares de ecuaciones diferentes se generan 28 ecuaciones de las que se ha eliminado la incógnita x1. La iteración del procedimiento con estas 28 ecuaciones permite obtener otras 27 ecuaciones desprovistas de las incógnitas x1 y x2; se prosigue así hasta dejar solamen­te una ecuación con una incógnita. Llegados a este punto se rehace el camino en sentido inverso por la serie de ecuaciones hasta determinar el valor de todas las incógnitas. MÁQUINAS DE CÓMPUTO Se trata de un método directo y sencillo, pero que requiere una gran cantidad de cálculos aritméticos. Ata­ nasoff estimó, muy sensatamente, que la resolución de un sistema de 29 ecuaciones con 29 incógnitas con una de las clásicas calculadoras de sobremesa llevaría unas diez semanas de penoso afán, capaz de aturdir a la mente más despierta; consideraba, en cambio, que su ingenio realizaría la tarea en una semana o dos. Al objeto de llevar a la práctica su propósito de resolver sistemas de muchas ecuaciones, situó los ábacos teclado y contador sobre grandes tambores, en lugar de sobre un disco. Cada tambor contenía 30 números binarios, especificados cada uno con precisión de hasta 50 dígitos. La máquina abc efectuaba la eliminación de Gauss correspondiente a dos ecuaciones cada vez. Los coeficientes de las mismas, previamente perforados en tarjetas en notación decimal, se pasaban a base 2 mediante un tambor especialmente diseñado al efecto y se almacenaban en la memoria. En el tambor contador se guardaban los coeficientes de una de las ecuaciones y en el tambor teclado los coeficientes de la otra. En cada revolución completa de los tambores, que tardaba un segundo, los circuitos lógicos efectuaban una adición o una sustracción de los dos conjuntos de coeficientes. En particular, uno de los circuitos lógicos, que constaba ahora de siete válvulas, sumaba o restaba el coeficiente de x1, pongamos por caso, depositando la suma o la diferencia en el contador. Al propio tiempo, los otros circuitos procesaban igualmente los otros pares de coeficientes. (Esta tarea, mediante la cual se realizan simultánea y paralelamente cierto número de operaciones idénticas, se conoce por operación vectorial; los ordenadores que las realizan se denominan procesadores vectoriales.) A la par, otros circuitos repasaban el ábaco teclado y refrescaban la memoria. Posteriormente, una vez realizadas múltiples adiciones y sustracciones y eliminado un coeficiente determinado, la abc perforaba en notación binaria el conjunto de coeficientes restantes (la eliminante) sobre tarjetas, que se guardaban hasta su requerimiento en una etapa posterior, en la que una lectora de tarjetas binarias transfería a la memoria la información que contenían. Calculadas todas las incógnitas en forma binaria, la lectora de tarjetas decimales funcionaba a la inversa, al objeto de traducir los datos binarios en números ordinarios. El sistema de entrada y salida mediante tarjetas perforadas funcionó correctamente en los primeros ensayos; sin embargo, al incorporarlo al abc producía un error cada diez mil operaciones de perforación o de lectura aproximadamente. Así no podrían manejarse satisfactoriamente grandes sistemas de ecuaciones (es decir, sin tener que efectuar amplias comprobaciones y repeticiones de los cálcu­los), si bien los sistemas pequeños podrían resolverse sin dificultad. Atanasoff y Berry estaban tratando de resolver ese problema relativamente sencillo cuando la Segunda Guerra Mundial les obligó a abandonar los trabajos sobre el ordenador. Berry pasó a ocupar un puesto que retrasaba su incorporación a filas y Atanasoff fue destinado al Naval Ordnance La­boratory, de la Marina de los Estados Unidos. Suele tomarse por incompleta la computadora que hubieron de abandonar. Más exacto sería definirla como un ordenador capaz de funcionar, aunque falible, cuya sección de computación electrónica —los circuitos lógicos— constituyó un gran éxito. Habida cuenta de la celeridad con que se proyectó y construyó el abc, puede aventurarse que el problema surgido en el sistema de tarjetas binarias se habría solventado rápidamente. Es más, podría haber funcionado con un sistema de entrada/salida desarrollado muchos años antes por IBM y que luego se incorporó al eniac. Además, de haber tenido ocasión de exhibir la potencia del ordenador, Atanasoff habría recibido el apoyo económico necesario para rematar el proyecto. Si él y Berry hubieran tenido la posibilidad de continuar su proyecto, a buen seguro el abc hubiera estado en pleno servicio en 1943. Pero sufrió, por contra, la suerte de casi todos los equipos envejecidos: víctima del canibalismo, sus piezas se aprovecharon para otros fines y terminó desguazado sin enterarse Atanasoff. S i el abc permaneció durante tanto tiempo en el olvido, ¿cómo han influido las ideas de Atanasoff en las ciencias de cómputo modernas? La respuesta apunta hacia Mauchly y tiene que ver también con la introducción de las innovaciones de Atanasoff en el eniac. El eniac difería considerablemente de la computadora abc. Fue el primer ordenador electrónico de aplicación general, mientras que el abc se había diseñado como máquina especializada en una sola tarea. (El eniac podía programarse para abordar problemas distintos modificando en debida forma las interconexiones de un panel de control.) La máquina de Mauchly y Eckert era mucho mayor 39 24 (16) 24 (8) 24 (4) 24 (2) 24 (1) DATO EN CONTADOR 1 0 0 1 1 (19) TECLADO 0 1 0 1 1 (+11) SALIDA EN CONTADOR 1 1 1 1 0 (=30) ACARREO A LA COLUMNA SIGUIENTE 0 0 0 1 1 0 a que la de Atanasoff; utilizaba millares de válvulas, no sólo unos pocos centenares, y era mucho más rápida, pues su memoria, que también era electrónica, no dependía de tambores giratorios. Además el eniac calculaba por recuento directo y no por medios lógicos; cálculos que efectuaba en base 10. Sin embargo salta a la vista que Mauchly y Eckert incorporaron al eniac los elementos básicos de la computación electrónica digital ideados por Atanasoff y que hicieron lo mismo en una computadora posterior, la edvac. Lo más obvio es que la eniac y la edvac se valían de conmutación electrónica para gobernar el funcionamiento de la computadora; la edvac, por su parte, utilizaba también circuitos lógicos para realizar las operaciones aritméticas, que se efectuaban en base 2; asimismo recurría a la memoria regenerativa. Mauchly recibió también de Atanasoff la idea de que la electrónica digital posibilitaría la construcción de una máquina que efectuase cálculos con mayor velocidad y precisión que el analizador diferencial de Bush. b SALIDA ENTRADA CONTADOR TECLADO ACARREO CONTADOR ACARREO 0 0 0 0 1 1 1 1 0 0 1 1 0 0 1 1 0 1 0 1 0 1 0 1 0 1 1 0 1 0 0 1 0 0 0 1 0 1 1 1 c CONTADOR 10011 (19) 0 1 1 1 1 (=30) TECLADO 01011 (+11) DIGITOS DE REMPLAZO A ACARREO 0 DIGITOS DE REMPLAZO 1 1 0 0 0 CIRCUITO LOGICO 1+1+0 1+1+1 0+0+1 0+1+0 1+0+0 5. CADA CIRCUITO LOGICO de la abc sumaba dos números por vez, como los que vemos en este ejemplo (a), de acuerdo con las reglas establecidas en una tabla (b). Supóngase que deban sumarse el equivalente del número 19, situado en el contador, con el equivalente del 11, en el teclado. Tras convertir los números al sistema de numeración binaria, que los expresa en combinaciones de potencias de 2 (como 20, 21, 22, 23, o sea, 1, 2, 4, 8) los sumandos se escribirían 10011(16 + 0 + 0 + 2 + 1) y 01011 (0 + 8 + 0 + 2 + 1). El circuito lógico operaría sobre esos números sumando en primer lugar los situados en la columnas de la derecha (20). Para hacerlo, determinaría que la configuración de los dígitos de las memorias contador, teclado y arrastre (a saber, 1, 1, 0) coincidían con la antepenúltima línea de la sección “entrada” de la tabla. (El dígito de arrastre inicial siempre es 0.) A partir de la correspondiente sección de “salida”, el circuito procedería entonces (c) a enviar un 0 (negro) al contador (donde se registraban los resultados), que remplazaría el 1 que allí estaba situado. También se enviaría un 1 (rojo) a la memoria designada para el arrastre o acarreo. El procedimiento equivale a determinar por recuento que 1 más 1 es igual a 2 y que el nú­me­ro 2, escrito en base 2, es 10. A continuación el circuito sumaría de igual modo los dígitos de las restantes columnas. 40 tanasoff, que hacia mayo de 1941 “sabía que podríamos construir una máquina capaz de hacerlo casi todo, en lo que a computación se refiere”, decidió que el abc podía convertirse en un analizador diferencial electrónico a raíz de que un colega del Instituto de Tecnología de Massa­ chusetts (MlT) le comentara que los investigadores de ese centro estaban considerando la posibilidad de introducir elementos electrónicos en una nueva versión del analizador. Ata­ nasoff le escribió a Mauchly sobre este asunto; ambos analizaron pormenorizadamente la cuestión cuando Mau­ chly visitó a Atanasoff durante casi una semana, en junio de 1941. Du­rante aquella visita Atanasoff le mostró el abc, que estaba casi listo para funcionar. Cuatro años más tarde, el eniac hacía realidad el sueño de Atanasoff. eniac y Colossus, que también era programable, prepararon el camino al paso siguiente del desarrollo del ordenador electrónico: la incorporación de un programa residente en la memoria. Este avance de los ordenadores de aplicaciones generales simplificó su programación y permitió que el programa actuase de distinto modo en función de los resultados de los pasos intermedios. Desde que se introdujeron los primeros ordenadores de programa almacenado, a finales de los años cuarenta, los computadores han multiplicado su TEMAS 4 potencia y su velocidad. La estructura no ha cambiado tanto, sin embargo. Se adivina la impronta del pasado en los usos a que se destinan algunos ordenadores. Así, por ejemplo, ha revivido el interés por las computadoras para aplicaciones especiales, sobre todo entre los investigadores que tienen problemas muy específicos que resolver. La verdad es que resulta asombrosa la semejanza entre el abc y una computadora moderna para la resolución de sistemas de ecuaciones lineales aunque, claro está, éstas son enormemente más veloces. N o cabe duda de que se hubiera reconocido mucho antes la contribución de Atanasoff a la informática si hubiera patentado sus trabajos. Como señalan los Burk, pudo reclamar para sí la noción misma de cómputo digital electrónico, así como la conmutación electrónica en los ordenadores, los circuitos para la adición y la sustracción lógica, la separación de las funciones de procesado y memoria, las memorias de tambor de condensadores, la regeneración de la me­moria, la utilización del sistema binario de numeración en la computación, las unidades modulares, el procesamiento vectorial y el control sincronizado de las operaciones electrónicas, entre otras innovaciones. Afirmar que se hubiera tratado de una de las patentes más importantes jamás concedidas no sería más que subestimar su trascendencia. Por desgracia, la confusión creada por la guerra y la ineficacia de las personas a quienes se confió la obtención de una patente impidieron que llegara a cumplimentarse una solicitud formal de patente para ninguna de las innovaciones de Atanasoff. Tampoco él emprendió los pasos necesarios para obtenerla porque se le hizo creer que el eniac se fundaba en principios muy diferentes de los del abc y que tal máquina constituiría el modelo de las futuras computadoras, con lo que la patente sobre cualesquier idea o dispositivo de la abc carecería de valor. Por si fuera poco, estaba enfrascado en otros proyectos y, más tarde, en fundar su propia empresa de ingeniería. Además de aclarar uno de los grandes logros de la técnica, la historia de Atanasoff invita a unas cuantas reflexiones sobre la investigación científica. De entrada, la suerte del inventor no es siempre ni fácil ni cómoda. A pesar de sus muchos esfuerzos, Atanasoff sólo logró reunir 6000 dólares para construir el abc, mientras que la financiación del eniac contó con un presupuesto de medio millón de dólares, dado su valor militar (entre otras MÁQUINAS DE CÓMPUTO funciones, con el eniac se prepararon tablas de tiro para la artillería). Invita también a pensar sobre la crea­tividad científica. El gran avance de Atanasoff en aquella noche invernal de 1937 ilumina el proceso creativo con notable claridad. Durante mucho tiem­po estuvo luchando a brazo partido con su problema, sufriendo de­cepciones y sin apenas avanzar; pero su mente continuaba absorbiendo y elaborando información. Entonces, ha­l lándose de­dicado a una actividad to­talmente diferente, le llegó la solución. Los profanos podrían muy bien considerar que los 300 kilómetros de carretera que Atanasoff hizo hasta llegar al hostal no son más que un método estéril de echar un trago; en realidad, Ata­ nasoff sabía muy bien lo que hacía. Se dio cuenta de que la mente necesita va­riedad y descanso para funcionar creativamente. Tras concebir ciertos principios fundamentales, dejó que entrase en juego “una especie de cognición”. Tal confianza en la intuición puede no concordar con la noción común de que la investigación científica es una actividad estrictamente racional, pero constituye un camino seguido por muchos científicos e investigadores. F inalmente, no es coincidencia que grandes progresos técnicos sean obra de investigadores de temas básicos. La actividad científica suele re­querir la invención de herramientas nuevas y los investigadores, profundamente dedicados a la resolución de problemas científicos, tienen motivos poderosísimos para afrontar el reto. Importa que comprendan con claridad esa conexión entre ciencia y técnica quienes defienden que puede limitarse el apoyo a la investigación básica sin que se frene el desarrollo tecnológico. BIBLIOGRAFIA COMPLEMENTARIA The eniac: First General-Purpose Electronic Computer. Arthur W. Burks y Alice R. Burks en Annals of the History of Computing, vol. 3, n.o 4, págs. 310-399, 1981. Advent of Electronic Digital Computing. John Vincent Atanasoff en Annals of the History of Computing, vol. 6, n.o 3, págs. 229-282; julio de 1984. The First Electronic Computer: The Atanasoff Story. Alice R. Burks y Ar­ thur W. Burks. University of Michigan Press, 1988. Atanasoff: Forgotten Father of the Computer. Clark R. Mollenhoff. Iowa State University Press, 1988. The First Electronic Computer. Allan R. Mackintosh en Physics Today, vol. 40, n.o 3, págs. 25-32; marzo de 1988. 41 Pinceladas históricas E l ENIAC (Electronic Numerical Integrator and Computer) fue el primer ordenador electrónico conocido por el público, aunque sus comienzos estuvieron velados por el secreto de guerra. Se construyó entre 1943 y 1946 en el departamento de ingeniería eléctrica de la universidad de Pennsylvania (EE.UU.), bajo la dirección de J. Presper Eckert, Jr. y John W. Mauchly, para el Estado Ma­yor del ejército norteamericano. Utilizaba 18.000 lámparas de vacío, manejaba números decimales de un máximo de diez cifras, hacía los cómputos en paralelo y su reloj batía a 100 kHz. La programación consistía en modificar manualmente las conexiones según el problema a resolver. Las estimaciones de la demanda existente para la nueva máquina que realizaron por aquella época las grandes compañías norteamericanas de equipos de oficina (entre ellas IBM) no eran muy optimistas: se consideraba que bastarían dos docenas de ejemplares para cubrir todas las necesidades de cómputo de los sectores público y privado de Estados Unidos. Marvin Minsky, uno de los fundadores del campo de estudio de la inteligencia artificial, encargó a un estudiante de licenciatura que conectase una cámara de televisión a un computador e hiciese que éste describiese lo que veía. Esto sucedía en 1966. Le concedió un verano para realizar la tarea, tiempo que Minsky consideraba suficiente para resolver el tema de la visión artificial. Han pasado treinta años y se está todavía lejos de conseguirlo. “microordenadores”, consistentes por lo general en conjuntos de componentes que los aficionados a la electrónica montaban por sí mismos. Inicialmente no tenían teclado ni pantalla: las instrucciones y los datos se introducían mediante series de conmutadores situados en un panel frontal y los resultados se obtenían leyendo otra serie de indicadores luminosos. La memoria interna era muy reducida y la externa inexistente. Cuando se añadieron teclado, pantalla y dispositivos de almacenamiento externo (cintas y discos magnéticos) fue necesario contar con pro­ gramas encargados de mane­ jar estos recursos, lo que se conocía como “sistema operativo”. El primero de ellos que alcanzó cierta popularidad se llamaba CP/M (Control Program/Monitor) y había sido desarrollado por Gary Kildall en 1973. El tipo de máquina que hoy se conoce como PC fue inicialmente un producto pues­to a la venta por IBM en 1981. No tenía disco rígido, sino sólo una o dos unidades de disco flexible de 5 1/4 pulgadas (que no actuaban inicialmente más que por una cara) y ninguna capacidad gráfica en su monitor monocromo. IBM no tenía puestas en él muchas expectativas. Su precio era algo superior a un millón de pesetas de las de entonces. El sistema operativo del PC, en cambio, no fue elaborado por IBM, sino que se encargó a una pequeña empresa de programación, entonces desconocida, llamada Microsoft. La precipitada adaptación de Anuncio de microordenador (1977) CP/M que Microsoft realizó se convirtió en la primera versión del famoso PC-DOS, Hacia 1970 se convierte en MS-DOS o simplemente DOS. El inesperado éxito comercial realidad el primer “microprocesador” físico: una pastilla del PC enriqueció a Microsoft y le permitió iniciar su vertique puede funcionar por sí sola como unidad central de ginosa carrera posterior en el ámbito de la programación. proceso (CPU). Intel y Texas Instruments son las compañías que disputan su paternidad. Encuentra sus primeros usos Todavía a principios de los años ochenta, la mayor parte en calculadoras portátiles y relojes electrónicos. de los particulares que deseaban tener un acceso directo a los ordenadores lo hacían por medio de aparatos que La calculadora científica HP-35, presentada por Hewletthoy parecen poco más que juguetes. La serie constituida Packard en 1972, significó el paso a la historia de la regla por los modelos ZX-80, ZX-81 y finalmente Spectrum, de de cálculo. Su sucesora programable, la HP-65, fue el inicio Sinclair, tuvo especial aceptación. Las ventas mundiales de la informática personal para muchos ingenieros, cienfueron tales que la reina de Inglaterra concedió el título tíficos y contables a partir de 1974. de Sir a Clive Sinclair, su promotor, por el impulso que supusieron para las exportaciones británicas. En 1975 algunas firmas comerciales empezaron a ofrecer 42 TEMAS 4 PRESENTE Pantallas planas Steven W. Depp y Webster E. Howard Gracias a los últimos progresos en microelectrónica y cristales líquidos ya son posibles las pantallas murales y las de pulsera L a técnica más utilizada para la exhibición de imágenes en pantalla sigue siendo la del tubo de rayos catódicos (TRC). Sin embargo, es difícil obtener con ella pantallas portátiles que consuman poca energía y, pese a ello, ofrezcan imágenes de calidad. Siempre que se ha intentado construir una pantalla plana con un TRC, se han conseguido imágenes de calidad mediocre y los diseños han sido demasiado complejos o de muy cara fabricación. La tentativa más reciente en ese sentido reemplaza el cañón electrónico de barrido por una serie de diminutos emisores de electrones, montados sobre una placa y recubiertos por otra. Entre ambas placas hay que colocar unos separadores que deberán ser, para resistir el vacío intermedio, o grandes o numerosos; en cualquier caso oscurecerán la imagen. Todavía no se ha encontrado una solución satisfactoria a este problema. Una pantalla plana ideal ha de producir imágenes con buena luminosidad, marcado contraste, gran resolución, rápida respuesta, numerosos matices de gris y todos los colores del arco iris. También debe ser resistente, duradera y barata. Las tres técnicas que han logrado cierta aceptación comercial —la de los paneles de plasma, la de las pantallas electroluminiscentes y la de las pantallas de cristal líquido— se quedan cortas en alguna de estas cualidades, pero una cuarta, de reciente introducción en el STEVEN W. DEPP y WEBSTER E. HOWARD, del Centro de Investigación Thomas J. Watson de IBM en Yorktown Heighs, estudian las técnicas de reproducción de imágenes en pantalla. Depp, que dirige el grupo de sistemas de entrada, se doctoró en física en la Universidad de Illinois en 1972. Howard, doctor en física por Harvard, encabeza la investigación sobre física de semiconductores, electroluminiscencia de capa delgada y pantallas de cristal líquido con matriz activa. 44 mercado, ofrece imágenes que rivalizan con las de los TRC y en algunos casos las superan: se trata de las pantallas de cristal líquido (PCL) con matrices activas; ninguna otra suma hoy más recursos de investigación y desarrollo ni mayores inversiones para su fabricación. Cuando empezaron a desarrollarse las primeras pantallas planas, nadie había pensado todavía en los dispositivos de cristal líquido con matrices activas. Se ensayaron muchos sistemas de producción o modulación de la luz según patrones controlados. La primera técnica empleada (a finales de los años sesenta) recurría a los plasmas, que son descargas en gas. La pantalla de plasma consta fundamentalmente de dos láminas de vidrio 1. EL CRISTAL LIQUIDO está sellado por dos placas de vidrio. Una lleva los transistores que gobiernan los electrodos de cada célula; la otra porta los filtros de color y un electrodo que cierra todos los circuitos. Polarizadores delanteros y traseros completan el sistema, que se ilumina desde atrás. En la microfotografía, obtenida por barrido con efecto túnel, se aprecian las moléculas de cristal líquido, fijas al sustrato. TEMAS 4 en las que se han imbricado respectivas series de cintas paralelas de película conductora; las láminas están dispuestas de manera que dichas series de líneas se crucen. Entre una y otra lámina hay un espacio lleno de una mezcla de gases, donde no suele faltar el neón. Un voltaje suficientemente elevado en cualquier punto de intersección producirá una descarga en el gas; éste se descompondrá en un plasma de electrones y iones, que, excitado por la corriente, emitirá luz. El sis­tema se comporta como una red de lám­paras de neón en miniatura y, por tanto, constituye una pantalla “emisora”. Como la ionización del gas se produce cuando se le aplica un voltaje bien determinado, es fácil controlar qué intersecciones se iluminan y cuáles no. Para ello basta con aplicar un voltaje igual a la mitad del umbral de encendido a una fila y una columna dadas, porque así sólo donde éstas se corten habrá voltaje suficiente para que la MÁQUINAS DE CÓMPUTO descarga se produzca. Con el barrido de una fila tras otra, y repitiendo el proceso al menos 60 veces por segundo, se puede conseguir que el ojo perciba una imagen estable. Esta imagen será necesariamente poco luminosa, debido a que cada punto concre­to sólo puede brillar durante una pequeña fracción de tiempo. Pese a tal inconveniente, este diseño se ha aplicado en los ordenadores portátiles y en otros muchos productos. E n esa misma línea se consiguen imágenes más brillantes por medio de la corriente alterna. H. Gene Slottow y Donald L. Bitzer, de la Universidad de Illinois, descubrieron que la corriente alterna producía un efecto de memoria inherente, puesto que una celdilla recién excitada retiene brevemente parte de la carga en sus electrodos aislados. Cuando se invierte el voltaje, esta carga se añade a cualquier nueva diferencia de potencial que se aplique y, en consecuencia, desencadena otra vez la descarga. Como los elementos que constituyen la imagen (los píxeles) se encienden cada vez que el voltaje se invierte, la emisión de luz tiene lugar durante una proporción de tiempo mucho mayor. En un principio los plasmas de co­rriente alterna despertaron el interés por su efecto de memoria, pero hoy en día, que las memorias de semiconductores son tan económicas, las virtudes que aún cuentan de estas pantallas son su luminosidad, robustez y fiabilidad. Resultan muy adecuadas para uso militar. La mayoría de las pantallas de plasma son de color naranja. No es fácil modificar su diseño de manera que se obtengan imágenes polícromas, característica que hoy en día los usuarios esperan encontrar en el producto (más del 80 % de los monitores que se venden actualmente son de color). La generación de color requiere tres fuentes diferentes, una de las cuales emite 45 en rojo y las otras en azul y verde. Pero no sería práctico conseguir esos colores llenando cada píxel con un gas diferente. De ahí que se haya optado por emular el proceso que tiene lugar en los tubos fluorescentes: se genera una emisión de luz de un tipo determinado, que da a continuación lugar a luz de distintos colores por medio de revestimientos fosforescentes. Un único gas, el mismo para todo el conjunto, emite luz ultravioleta y esta radiación invisible provoca que cada celdilla radie luz de color rojo, azul o verde, según la naturaleza del pigmento fosfórico que la recubra. L as pantallas de plasma consumen gran cantidad de energía; por ello se las utiliza principalmente en aplicaciones que no requieran un gran rendimiento energético ni facilidad de transporte. Pero podemos construir con ellas paneles de hasta 1,5 metros de diagonal, dimensiones suficientes para una pantalla de televisión de alta definición que se colgase en la pared. Si los paneles de plasma en color alcanzaran un precio razonable y una gran fiabilidad, podrían destinarse a tal fin. Otra importante técnica del tipo de la pantalla emisora plana se basa en el fenómeno de la electroluminiscencia de capa delgada. Al principio se esperaba aprovechar la electroluminiscencia para el alumbrado de viviendas, hasta que se comprobó el pobre rendimiento de la técnica. Estos dispositivos terminaron utilizándose en la fabricación de pantallas alfanuméricas, en competencia con las pantallas de plasma. Al igual que los dispositivos de descarga gaseosa, una pantalla electrolu­ miniscente se asemeja a un emparedado. El emisor de luz, una sus­­tancia fosforescente —generalmente sulfuro de cinc dopado con manganeso—, se co­loca entre dos capas aislantes portadoras de electrodos ortogonales. Cuando el voltaje supera un valor umbral bien definido, el emisor se descompone y conduce corriente. Esta corriente excita los iones de manganeso, que emiten una luz de color amarillo, análoga al brillo del neón de la pantalla de plasma. Aunque estas pantallas duran bastante, presentan dos inconvenientes importantes: no pueden producir imágenes a todo color y consumen casi tanta energía como las pantallas de plasma. La obtención de colores requiere una sustancia fosforescente que sea buena emisora de azul, pero hasta ahora no se ha encontrado ninguna que ofrezca la luminosidad, eficiencia y longevidad adecuadas. Asimismo requiere una escala de grises de gradación progresiva, cualidad que ha resultado difícil de controlar. Por otra parte, la eficacia de estos paneles disminuye a medida que aumenta el número de elementos de imagen que los constituyen. Cada uno de estos elementos se comporta como un condensador y la simple carga y descarga de todos ellos precisa cantidades de energía apreciables. Este problema dificulta el uso de paneles electroluminiscentes que contengan mucha información en aplicaciones alimentadas por baterías. L a tecnología no emisora primaria se vale de las propiedades electroópticas de los cristales líquidos (CL), un tipo de moléculas orgánicas. Como su nombre indica, se trata de compuestos que fluyen igual que los líquidos, si bien presentan una ordenación cristalina. Esta fase de la materia no es tan rara como podría creerse. Se ha estimado que un químico orgánico que sintetizara compuestos al azar produciría moléculas con propiedades de cristal líquido en uno de cada mil experimentos. Las moléculas de este tipo, conocidas desde hace unos cien años, aparecen bajo numerosas formas, desde la de membranas celulares hasta la de espuma jabonosa. 2. LAS PANTALLAS EMISORAS brillan con luz propia cuando se comunica energía a un plasma o a una sustancia fosforescente. Las pantallas de plasma (izquierda) consisten en una red de lámparas de neón en miniatura, que se descargan una a una al combinarse los voltajes aplicados a su fila y a su columna. Los diseños de corriente alterna (no representados) retienen carga en electrodos aislados, creando un efecto de memoria. Las pantallas electroluminiscentes de película delgada (derecha) reemplazan el gas del diseño anterior por una película de sustancia fosforescente sólida. 46 TEMAS 4 Los CL más importantes son los compuestos nemáticos, con forma de trenzas. Cada una de sus alargadas moléculas con aspecto de vara tiene libertad de moverse con respecto a las demás, si bien existen sutiles fuerzas intermoleculares que tienden a mantener alineados sus ejes; el efecto recuerda un tanto el modo en que se mueve un banco de peces. Puede fijarse la dirección de alineación de las moléculas o mediante su exposición a un campo eléctrico o colocándolas en las proximidades de una superficie preparada para ello. El control de dicha alineación permite regular, asimismo, las propiedades ópticas del material y muy especialmente el efecto que tiene sobre la transmisión de luz. Una configuración habitual consiste en emparedar uno de estos compuestos de cristal líquido entre dos láminas de vidrio con diferentes alineaciones moleculares. Para obtener semejante CL, del tipo “nemático torcido”, se reviste la cara interior de cada una de las láminas con una película transparente que sea conductora eléctrica: de óxido de indio y estaño, por ejemplo. A continuación se añade una capa delgada de un polímero orgánico y finalmente se lo “cepilla” en la dirección deseada. El “cepillado” alinea el polímero por la combinación de sus cadenas, mediante diminutos raspados o por ambas cosas. Estos fenómenos de superficie se transmiten a sí mismos a las moléculas adyacentes del cristal líquido a través de un mecanismo todavía no aclarado. El trenzado de las hebras moleculares se consigue colocando las láminas de vidrio de forma tal que sus orientaciones preferentes se crucen ortogonalmente. C uando se dirige un haz de luz polarizada sobre una célula de cristal líquido, la dirección de polarización tenderá a seguir la rotación del trenzado y saldrá del emparedado ha­biendo girado, por lo tanto, 90 grados. Los polarizadores cruzados que están a un lado y otro de la célula dejan pasar la luz en vez de bloquearla, al contrario de lo que sucedería si la célula no estuviera presente: es el llamado estado de transmisión (“on”); el estado de no transmisión (“off ”) se produce al aplicar un campo eléctrico a través de los dos conductores transparentes, lo cual orienta las moléculas del cristal líquido de manera que sus ejes sean paralelos a las líneas del campo. Esta realineación deshace la anterior configuración de trenzado y, por tanto, la célula en cuestión no hará girar la polarización de la luz incidente. La célula no ejerce ya ningún efecto óptico apreciable y los MÁQUINAS DE CÓMPUTO 3. EL OBTURADOR POR ROTACION DE LA LUZ se utiliza en la mayoría de las pantallas planas no emisoras. Las moléculas de cristal líquido nemáticas, con forma de trenzas, se disponen de manera que gire el plano de polarización de la luz. Los píxeles no activados dejan pasar la luz hacia un segundo polarizador (izquierda). Cuando se aplica un voltaje, se deshace la rotación, y la luz queda bloqueada (derecha). polarizadores cruzados bloquean, como sucede normalmente, el paso de la luz. En una célula real la transmisión varía gradualmente con el voltaje aplicado. Hasta aquí hemos descrito lo que sucede en un píxel. La pantalla de cristal líquido consta de un gran número de ellos. Se colocan los electrodos de filas en uno de los sustratos de vidrio y los de columnas en el otro; de esa manera cada punto de intersección define la dirección de un píxel diferente. Dado que la luz proviene de un reflector o fuente luminosa, la matriz se comporta como una red de minúsculos obturadores gobernados electrónicamente. La simplicidad del diseño y los moderados valores de voltaje y energía que requiere su funcionamiento determinan que estas PCL de “matriz pasiva” sean las pantallas planas más vendidas en la actualidad. Sin embargo, la misma simplicidad de la técnica marca un límite infle­xible a sus prestaciones. Como Paul M. Alt y Peter Pleshko de IBM han de­mostrado, sólo puede mejorarse la resolución de estos dispositivos si se sacrifica el contraste. El problema tiene su origen en el entrecruzamiento de voltajes, inherente al sistema de excitación de los píxeles. En efecto, primero se aplica un voltaje a una sola fila y se ajustan los voltajes de las columnas de forma tal que produzcan un gran voltaje total sobre los píxeles seleccionados de dicha fila; los que no están seleccionados reciben un voltaje menor. El proceso continúa con la alimentación de la fila siguiente, en un proceso que barre de arriba abajo en una sexagésima de segundo, y a continuación se repite para el cuadro siguiente. Durante la proyección de un cuadro de vídeo, cada píxel seleccionado recibe un pulso de voltaje elevado cuando se activa su fila, los no seleccionados reciben voltajes moderados y todos los pí­xeles sufren pulsos entrecruzados de menor magnitud procedentes de las demás filas, cuando éstas se activan. Dado que este entrecruzamiento aumenta con el número de filas, la diferencia de voltaje efectivo entre los píxeles seleccionados y los no seleccionados va disminuyendo a medida que crece el tamaño de la red. Si hay 240 filas —menos de la mitad que la pantalla de un televisor corriente—, dicha diferencia descenderá hasta un 6,7% solamente. Por el contrario, la obtención de un contraste aceptable para una célula nemática girada 90 gra­dos exige una diferencia de voltajes de un 50%, por lo menos. H ay tres formas para soslayar el conflicto entre contraste y resolución. En primer lugar se puede intentar que la curva de transmisiónvoltaje tenga una pendiente mayor, de manera que unas diferencias de voltaje pequeñas produzcan grandes variaciones en la transmisión de luz. Este objetivo se consigue con las PCL “nemáticas con supertorcedura” al retorcer 180 grados o más el cristal 47 líquido. En segundo lugar cabe usar cristales líquidos que muestren efecto de memoria, lo que permite controlar muchas filas sin que se pierda contraste. Los cristales líquidos ferro­ eléctricos poseen esta propiedad y con ellos se han montado pantallas de 1000 filas o más. Estos dispositivos son, sin embargo, algo lentos. Además, como sólo admiten dos estados de transmisión estables, no reproducen con facilidad las diversas tonalidades de grises. Por todo ello la tecnología de matrices pasivas resulta menos adecuada para la reproducción de vídeos o de imágenes realistas. L a tercera forma, mucho más radical, divide las funciones de control y de transmisión, de forma tal que cada una de ellas pueda optimizarse por separado. Este control por medio de “matrices activas” se basa en el empleo de un conjunto de transistores, cada uno de los cuales activa un píxel diferente. Cada píxel recibe un voltaje de su línea de columna sólo cuando se enciende el correspondiente transistor. Se puede actuar sobre las otras filas cuando el transistor está apagado; entretanto, el píxel mantiene el voltaje que se le había suministrado inicialmente. Dado que este método aísla del entrecruzamiento a los píxeles, el número de filas controlables puede ser altísimo. Además esta técnica genera colores con facilidad. Los píxeles y sus respectivos transistores se agrupan en tríadas, en las cuales cada píxel posee un filtro de uno de los tres colores primarios. Una vez se ha actuado sobre todas las filas, la pantalla entera se reescribe. Este proceso de restauración (“refreshing”) impide que aparezcan distorsiones, obligadas por la pérdida gradual de carga de las células de cristal líquido, que iría reduciendo sus voltajes y variando su transmisión de luz. Y lo que es más importante, al restaurarse sesenta veces por segundo, los píxeles pueden reproducir imágenes de vídeo y otras imágenes que exijan cambios de pantalla rápidos. Las pantallas de matriz activa se parecen mucho a las pastillas de memoria dinámica de acceso aleatorio (DRAM, dynamic random-access memory). Tanto aquéllas como éstas son circuitos integrados complejos que almacenan cargas en aproximadamente un millón de posiciones discretas, cada una de ellas controlada por un solo transistor. Sin embargo, el ordenador lee en una pastilla DRAM una fila cada vez nada más, detectando la carga existente en cada posición, mientras que el ojo humano lee la pantalla entera de una vez. Otra diferencia consiste en que las DRAM almacenan datos digitales y las pantallas de matriz activa, da­tos analógicos. En las primeras, cada célula debe hallarse en estado de transmisión (“on”) o de corte (“off”); en las últimas, los voltajes de las cé­lulas han de variar en una escala continua de grises. Esta cualidad re­q uiere que la pantalla “codifique” mucha más información 4. PASIVO FRENTE A ACTIVO: en las matrices de cristal líquido pasivas (izquierda) se envía un impulso de dirección a todos los píxeles de una fila, y se suma o resta el voltaje de una columna. En las células no seleccionadas se cruzan voltajes, cuyo valor medio aumenta con el número de columnas; se crea así un conflicto entre contraste y resolución. Las matrices activas (derecha) lo evitan dirigiendo cristales líquidos 50 que la que admite una pastilla DRAM de un tamaño parecido. Este requisito se ha podido cumplir merced a un diseño cuidadoso y al control de las tolerancias de fabricación. Para nuestra fortuna, éstas sólo han de aplicarse a pequeña escala, de un píxel al contiguo, y ello se debe a que, pese a ser sensible a las variaciones locales que se producen en los bordes de los objetos, el ojo apenas percibe las variaciones que van creciendo de forma gradual a medida que barre la pantalla de un lado a otro. Las pantallas de matriz activa se gobiernan mediante transistores de película delgada (TPD), técnica que ha desarrollado su potencialidad sólo en los últimos diez años y cuyo origen está en la fabricación de células solares. Se construyen en grandes conjuntos a coste comparativamente reducido. Su único inconveniente —su menor capacidad de transporte de corriente— apenas tiene importancia cuando se los utiliza en pantallas, ya que se necesita muy poca corriente para controlar un cristal líquido. E n el transistor de película delgada se utilizan capas depositadas de diferentes materiales para formar el semiconductor, los aislantes y los electrodos. Igual que sucede en los transistores habituales, dos terminales conducen la corriente y un tercero activa y desactiva el transistor. Sin embargo, cuando se trata de transistores clásicos, la mayoría de esos elementos se forman en la superficie de un cristal semicon- mediante transistores de película delgada. Mientras los transistores están activados, las celdillas de cristal líquido asociadas se cargan a los voltajes de las líneas de columna, también llamadas líneas de datos; desactivados, los voltajes se mantienen constantes. De este modo, se puede formar una imagen fila por fila, que persistirá hasta el siguiente “ciclo de restauración”. TEMAS 4 ductor único, cuyas propiedades eléctricas en determinadas regiones se modifican mediante la adición de átomos donadores de cargas (“dopantes”). En cambio los TPD se pueden fabricar casi sobre cualquier superficie, incluso sobre vidrio común. Fueron precisos veinte años para convertir los TPD en productos comerciales. Cuando Paul K. Weimer, de la compañía RCA, inventó esa técnica en 1962, se confiaba en que encontraría aplicación en los circuitos electrónicos corrientes. Sin embargo, enseguida fue desplazada por otros dispositivos electrónicos, lo que apartó del trabajo en ella a la mayoría de los investigadores. En 1974, T. Peter Brody y su equipo, de la empresa Westinghouse, demostraron que los TPD podían utilizarse como interruptores en las pantallas de cristal líquido. Incluso este uso era difícil en aquella época, porque con los materiales y procesos disponibles no podían obtenerse grandes series de dispositivos estables y libres de defectos. Se probó con diversos semiconductores. El silicio policristalino fue el primero en emplearse en un producto comercial. Ocurría en 1984 y el aparato, un televisor de bolsillo fabricado por Seiko-Epson, tenía una pantalla de cinco centímetros. Pero ésta se fabricaba mediante costosos procesos de circuitos integrados y tratamiento de materiales a elevadas temperaturas. El futuro apuntaba hacia otro ma­terial, el silicio amorfo. En 1979 el gru­po encabezado por P. G. LeComber, de la Universidad de Dundee, vio que el silicio amorfo, ya por entonces en desarrollo para uso en células solares de poco costo, era adecuado para TPD destinados a las pantallas. S on varios los procesos clave en la fabricación de los TPD. En primer lugar, se forma el sustrato con un vidrio purificado de metales alcalinos, que podrían contaminar los transistores o el cristal líquido. El vidrio fundido se vierte, en un proceso ideado por Corning y cuidadosamente controlado, para crear una lámina tan plana que, si la imaginásemos del tamaño de un campo de fútbol, su espesor variase menos que el grosor de un lápiz. A continuación, se deposita la capa de semiconductor mediante un proceso de plasma que utiliza gas silano, SiH4, a baja presión. Una descarga eléctrica ioniza el gas y disgrega las moléculas en fragmentos, que se condensan sobre el vidrio, donde forman una red aleatoria de silicio, rica en hidrógeno. La presencia de hidrógeno es crucial, puesto que cierra los enlaces rotos que, MÁQUINAS DE CÓMPUTO si no, atraparían electrones y destruirían el semiconductor. Finalmente se depositan los electrodos metálicos, los aislantes y demás elementos del TPD de forma similar a la habitual en la fabricación de circuitos integrados, con la diferencia de que el área a cubrir es mucho mayor. Unas dos docenas de compañías, japonesas en su mayoría, desarrollaron la técnica de TPD/PCL a mediados de los ochenta. A finales de ese decenio, IBM/Toshiba, Sharp, Hitachi y otras firmas obtenían imágenes de excelente calidad sobre pantallas de color de 25 centímetros de diagonal. Por primera vez una pantalla plana podía competir con un tubo de rayos catódicos en contraste, luminosidad y saturación de color (o viveza). De hecho, quienes contemplan a la vez los dos tipos de pantallas suelen preferir la imagen nítida, sin distorsión y exenta de fluctuaciones que ofrece la TPD/PCL. L a pantalla de matriz activa está alcanzando ya los niveles de calidad de imagen impuestos por la pantalla de TRC, pero su coste es muy su­perior al de ésta. Los fabricantes irán ganando experiencia en todos esos campos donde ya es indispensable el empleo de pantallas planas. Se espera que hacia 1995 tengan un mercado de unos quinientos mil millones de pesetas. La producción a tal escala deberá reducir los costes por unidad, hasta el punto de que las pantallas planas sean competitivas con los TRC en televisores, ordenadores personales y otros ar­tículos de uso común. A finales de esta década, los ingresos procedentes de la venta de pantallas planas deberían superar los generados por los TRC. BIBLIOGRAFIA COMPLEMENTARIA Flat-Panel Displays and CRTs. Dirigido por Lawrence E. Tannas, Jr. Van Nostrand Reinhold Company, 1985. Liquid Crystal TV Displays: Principles and Applications of Liquid Crystal Displays. E. Kaneko. D. Reidel Publi­ shing Company, 1987. Liquid Crystals: Applications and Uses, vol. 1. Dirigido por Birendra Bahadur. World Scientific, Singapur, 1990. Flat Panel Displays using Amorphous and Monocrystalline Semiconductor Devices. K. Suzuki en Amorphous and Microcrystalline Semiconductor Devices: Optoelectronic Devices. Dirigido por Jerzy Kanicki. Artech House, Boston, 1991. Thin-Film-Transistor/Liquid Crystal Display Technology: An Introduction. W. E. Howard en IBM Journal of Research and Development, vol. 36, n.o 1, págs 3-10, enero de 1992. 51 Representación visual de biomoléculas Arthur J. Olson y David S. Goodsell La generación de imágenes por ordenador agiliza la investigación de la estructura molecular y contribuye a elucidar la química de la vida “E l ojo, al que se llama ventana del alma, constituye el medio principal por cuya virtud el entendimiento logra apreciar más plena y abundan­ temente las obras infinitas de la naturaleza.” Las palabras de Leonardo da Vinci expresan con elocuencia la íntima relación entre visión y comprensión. A pesar de lo cual, la ciencia moderna se enfrenta no pocas veces a objetos invisibles para el ojo humano. Químicos y bioquímicos hallan entorpecida su tarea por la imposibilidad de observar las moléculas que estudian. Los componentes atómicos de las moléculas no son discernibles ni siquiera a través del microscopio electrónico. Pero la tecnología informática permite elaborar imágenes convincentes y científicamente exactas de las moléculas construidas por las células. El grafismo por ordenador contribuye a desvelar, por ejemplo, la forma en que los anticuerpos buscan moléculas extrañas, la manera en que las enzimas proporcionan el ambiente exacto y adecuado para iniciar una reacción química. A veces las imágenes cobran gran peso conceptual; piénsese en el diagrama de la estructura en doble hélice del ADN, publicada por James Watson y Francis Crick, que revolucionó nuestra comprensión de la herencia humana y de las enfermedades genéticas. Varias son las formas de recoger los datos en bruto para la confección de imágenes. Por su éxito, destaca la cristalografía de rayos X. En esta técnica se irradia con un haz intenso de rayos X un cristal compuesto por una molécula determinada; los rayos X se dispersan según pautas características, pautas que se analizan matemáticamente para descubrir la distribución espacial de los electrones y, por extensión, la ubicación de cada átomo de la molécula. La espectroscopía por resonancia magnética nuclear (RMN) ofrece otra vía para la determinación de la estructura de una molécula. En un campo magnético intenso se sitúa una disolución que contenga la molécula de interés. A continuación, sometemos la muestra a impulsos de ondas de radio; los núcleos de ciertos átomos de la molécula responden emitiendo ondas de radio propias, cuyas frecuencias dependen de los ambientes químicos locales. La interpretación de estas frecuencias revela las distancias aproximadas entre los átomos de las moléculas. Al combinar estas restricciones con propiedades químicas conocidas de la molécula, inferimos las posiciones de los átomos constituyentes. 1. IMAGENES SIMULADAS del mundo molecular, creadas me­ diante grafismo informático. Una imagen del virus de in­ munode­ficiencia humana (abajo), basada en datos obtenidos mediante microscopía electrónica por U. Skoglund y por S. Höglund, muestra un núcleo de forma cónica que contiene material genético, rodeado por una envoltura esférica. A la derecha tenemos una vista de una droga ligándose al ADN, trazada a partir de datos de cristalografía de rayos X recopila­ dos por R. E. Dickerson. La droga es la región de elevada den­ sidad electrónica (verde y amarillo) que rellena el estrecho surco del ADN (esferas oscuras). ARTHUR J. OLSON y DAVID S. GOODSELL trabajan para ampliar el papel del grafismo informático en el estudio de la función y la estructura de macromoléculas biológicas. Olson, que se doctoró en la Universidad de California en Berkeley, fundó en 1981 el laboratorio de grafismo molecular en el Instituto de Investigación de la Clínica Scripps. Goodsell se doctoró en 1987 por la Universidad de California en Los Angeles, donde también estudió cristalografía por rayos X. Ingresó seguidamente en el laboratorio de Olson, donde desarrolla técnicas de presentación de imágenes moleculares y métodos computacionales para el diseño de medicamentos. 52 TEMAS 4 MÁQUINAS DE CÓMPUTO 53 2. LA CRISTALOGRAFIA por dispersión de rayos X proporcio­ na la información necesaria para simular la imagen de una molécula. Un cristal de ADN dispersa los rayos X según pautas características (izquierda). El análisis computarizado de la pauta de dispersión puede revelar la distribución de electro­ nes en cada molécula de ADN. Una red de líneas trazada en torno a las regiones de elevada densidad electrónica (derecha) ilustra las demarcaciones de los átomos de la molécula; lo que estamos viendo corresponde a un insólito desemparejamiento adenina-guanina. Una imagen por píxeles (arriba) da mejor sensación de la disposición tridimensional de los átomos, pero su computación requiere más tiempo. La ciencia de los materiales ha desarrollado un tercer método de observación de los átomos en las moléculas: la microscopía por sonda exploradora. Se inmoviliza una molécula sobre una superficie plana, explorada por una aguja cuya punta tiene sólo unos pocos átomos de anchura. Un bucle de realimentación permite que la aguja siga el contorno exacto de cada átomo, trazando y describiendo su forma. Repetidos pases de la aguja delimitan un contorno tridimensional de un lado de la molécula. Las tres técnicas suministran inmensas cantidades de datos, cuya interpretación resulta mucho más sencilla vertidos a forma visual. Antes de que los ordenadores llegaran a los laboratorios, se cernía laboriosamente información en diagramas de barras, oscilogramas y fotografías, para luego construir modelos de latón o plástico basados en tales resultados. Ante la enorme cantidad de trabajo requerido, los científicos se veían limitados a estudiar micromoléculas que no contuvieran arriba de unas pocas docenas de átomos. Pero las moléculas biológicas constan de centenares a cientos de miles de átomos. En 1947, Raymond Pipinsky, de la Universidad estatal de Pennsylvania, ideó y puso a punto una máquina analógica, la XRAC, para transformar los datos cristalográficos que obtenía por dispersión de rayos X en una imagen molecular inteligible. A la par de los avances en informática ha crecido también la magnitud de los problemas a que es aplicada. Los ordenadores digitales, utilizados en conjunción con sistemas de representación gráfica computarizada, permiten crear imágenes detalladas de macromoléculas: enzimas, anticuerpos e incluso virus completos. Dos métodos, conceptualmente distintos, son los predominantes en la creación de imágenes de moléculas. En uno de ellos, la imagen se construye a partir de conjuntos de líneas trazadas de un punto a otro. El segundo genera la imagen a partir de un mapa denso de puntos, llamados elementos de imagen, o píxeles. Cada técnica tiene ventajas e inconvenientes característicos. Dado que para determinar una recta basta especificar dos posiciones, los equipos de representación diseñados para gráficos “esqueléticos” (“gráficos vectoriales”) permiten la manipulación interactiva de la imagen. La generación de imágenes en equipos pensados para el trazado de puntos (el monitor en color) requiere mucho más tiempo, porque a cada elemento de imagen hay que asignarle un valor de color; un monitor típico contiene más de un millón de puntos. Pero las pantallas de trazado por puntos admiten la simulación de efectos de gradación y sombra, que dan mayor realismo a las imágenes. Para construir una imagen molecular, se empieza por recopilar información sobre la estructura de la molécula; casi siempre, por medios roentgenocristalográficos. Los rayos X sufren máxima dispersión allí donde mayor es la densidad electrónica, vale decir, en torno a los átomos de la molécula. Por tanto, las regiones que exhiben elevadas densidades electrónicas son átomos; las regiones de baja densidad corresponden a espacio vacío. (También la microscopía electrónica puede proporcionar mapas tridimensionales de densidad electrónica; aunque son parecidos, no alcanzan a resolver átomos individuales.) De igual manera que los cartógrafos se valen de líneas de nivel para separar valles de montes, los cristalógrafos se valen del grafismo informático para trazar una superficie límite en los datos que separe del espacio vacío los átomos. La superficie puede representarse mediante una espesa malla de líneas que recuerdan la jaula de un canario. Armado de un programa de gráficos, el científico sitúa y acomoda una cadena de átomos en el interior de la superficie siguiendo las convoluciones indicadas por los datos de densidad electrónica. Las imágenes basadas en píxeles proporcionan una visión más clara de los resultados cristalográficos. 54 TEMAS 4 Podemos, por ejemplo, asignar colores y propiedades ópticas específicas a diversos valores de los datos. En el mapa de densidades electrónicas del ADN, las regiones de la molécula que poseen valores elevados de densidad aparecen opacos y en color, mientras que las regiones de baja densidad se muestran transparentes. Merced a un proceso denominado “rendición volumétrica”, los programas de graficación construyen imágenes que remedan la forma en que viajaría la luz a través de objetos que poseyeran tales propiedades ópticas. Desdichadamente, la presentación de objetos tridimensionales exige tiempos de cómputo mucho mayores que los necesarios para la presentación de imágenes esqueléticas. La ganancia en claridad se logra a costa de menor velocidad de manipulación de la vista de la mo­lécula. Una vez conocidas las coordenadas de los átomos constituyentes, la computadora ofrece una pléyade de técnicas para el análisis de la molécula. El infografismo molecular puede centrarse en la preparación y simplificación de la imagen de la molécula al tiempo que salvaguarda toda la información pertinente. Aclara muchas cosas la forma en que se pliega una cadena proteínica. Jane S. Ri­chardson, de la Universidad de Duke, ha popularizado una representación gráfica sencilla y efectiva, que sigue el plegamiento general de la proteína pero elimina el confuso revoltillo de los átomos individuales El diagrama resultante, similar a una cinta, facilita la clasificación de muchos y diversos tipos de estructuras proteínicas, reduciéndolos a un número limitado de distintos motivos de replegado. Los ordenadores facilitan también el estudio de la forma de una molécula biológica, la cual, a su vez, determina la manera en que interactúa con otras. El modo más sencillo de mostrar la topografía exterior de una molécula consiste MÁQUINAS DE CÓMPUTO en crear un diagrama de ocupación del espacio. En este procedimiento, el ordenador dibuja los átomos de las moléculas dándoles forma esférica, cuyos radios reflejan en qué medida pueden aproximarse unos a otros. Al colocar todas las esferas en sus posiciones correctas se logra una imagen lúcida de la molécula entera. Y al colorear cada átomo de acuerdo con su naturaleza química se aporta más información. Las imágenes producidas por rellenado del espacio nos muestran la molécula cual se nos ofrecería si se ampliara hasta tamaño visible. B. K. Lee y Frederic M. Richards adoptaron un método diferente y calcularon qué aspecto le ofrecería una molécula a una molécula de agua. Se valieron de un programa de ordenador para hacer rodar una molécula de agua en torno a todas las caras y recovecos de cierta molécula, señalando aquellos lugares donde el agua establecía contacto. Dedujeron así una imagen que muestra la superficie de la molécula, pero omite las regiones inaccesibles a las moléculas de agua circundantes. Tal imagen contribuye a elucidar, por ejemplo, de qué forma interaccionan las proteínas con el agua que se halla siempre presente en los sistemas biológicos. La disposición geométrica de los átomos constituye un aspecto de la naturaleza de una molécula; también son importantes las propiedades físicas y químicas de cada átomo, como su carga, tamaño e interacciones con otros átomos. Peter J. Goodford ha desarrollado un procedimiento para determinar de qué forma interactúa químicamente una molécula con los átomos de otras moléculas. Goodford va colocando sucesivamente un átomo de prueba simulado por ordenador en diversas demarcaciones de la inmediatez de la molécula. El ordenador calcula en cada punto la interacción química entre sonda y molécula, gene55 rando un catálogo de ubicaciones favorables y desfavorables al átomo de sondeo. Las imágenes producidas mediante este tipo de análisis pueden hacer destacar los “puntos calientes” químicos donde es verosímil que se enlacen nuevos átomos. El grafismo electrónico permite también captar la escurridiza conducta dinámica de las moléculas biológicas. Las moléculas vibran, giran y se retuercen en billonésimas de segundo. Sus movimientos resultan invisibles en el análisis por dispersión de rayos X o en la resonancia magnética nuclear, porque la ejecución de tales experimentos puede exigir horas e incluso días. Las simulaciones dinámicas computarizadas, en cambio, permiten seguir los movimientos de una molécula a través de millares de pasos temporales, generando el correspondiente número de instantáneas de la cambiante estructura. Podemos entonces revisar la simulación entera, fotograma a fotograma, deteniéndonos en las fases temporales más importantes. Los fotogramas más conseguidos se pueden combinar para montar con ellos una especie de corto cinematográfico que describe la dinámica de la molécula. Encontramos una de las aplicaciones más apasionantes de las nuevas técnicas de grafismo en el diseño molecular asistido por ordenador. Conforme se ha avanzado en el conocimiento de las moléculas biológicas, se ha hecho más apremiante la capacidad de modificar moléculas específicas para adecuarlas a necesidades concretas. El diseño de antibióticos, la construcción de nuevas proteínas y la inge- niería genética de microorganismos constituyen un mínimo inventario de las metas perseguidas por la bioingeniería para mejorar la salud humana y la calidad de vida. El grafismo informático ha entrado en el diseño de drogas contra la hipertensión, los enfisemas, el glaucoma y diversas formas de cáncer. Permite ensayar una amplia gama de potenciales medicamentos antes de emprender el laborioso proceso de síntesis en el laboratorio. Un empeño particularmente prometedor consiste en el diseño de agentes antivíricos capaces de controlar los efectos del virus de inmunodeficiencia humana (VIH). Se han aislado cierto número de proteínas de tal virus y han conseguido determinar sus estructuras; entre ellas, la transcriptasa inversa del VIH, la molécula que traduce ARN en ADN con el fin de incorporarlo al ADN de la célula hospedadora, y también la proteasa del VIH, molécula crucial que permite la maduración del virus y da ocasión a éste para provocar ulteriores infecciones. Se ha conseguido cristalizar la proteasa del VIH, tanto libre como ligada a diversas moléculas inhibidoras, lo que ha permitido su estudio cristalográfico mediante rayos X. El ulterior análisis por medios informáticos de las estructuras de las moléculas ha facilitado la identificación de una lista cada vez mayor de posibles compuestos medicamentosos. Algunos de ellos parecen mostrar efectividad en ensayos químicos de laboratorio, siendo capaces de detener el crecimiento del VIH en un cultivo celular. Aunque están pendientes de solución los problemas de 3. EL DISEÑO MOLECULAR es una de las aplicaciones de los gráficos moleculares computerizados en más veloz crecimien­ to. La proteasa del VIH (arriba), una molécula crucial para la maduración del virus, constituye una atractiva diana en el diseño de medicamentos. Se muestra en azul el espinazo de la proteína; el sitio de actividad catalítica aparece en verde. Una droga inhibidora (violeta) se engarza en el sitio activo de la proteasa, impidiendo la función vírica normal. Los datos de este modelo han sido tomados de A. Wlodawer, adscrito al nor­ teamericano Instituto Nacional del Cáncer. 56 TEMAS 4 4. LA ESTRUCTURA Y FUNCION molecular pueden ser estu­ diadas con facilidad, claridad y precisión merced a los gráficos informáticos. Las imágenes de la hilera superior fueron traza­ das con equipos de gráficos vectoriales, mientras las de la inferior corresponden a imágenes por píxeles. Los investiga­ dores pueden examinar la forma de un anticuerpo valiéndose de una superficie puntilleada (arriba, izquierda) o de una serie de esferas sombreadas para hacerlas parecer macizas (abajo, izquierda). Los ordenadores permiten representar la ligadura de un antígeno mostrando flechas indicadoras de la dirección del campo electrostático de la molécula (arriba, centro) o valiéndose de técnicas de rendición volumétrica para mostrar la intensidad de las interacciones entre carbo­ nos; el verde indica regiones favorables al carbono (abajo, centro). Los movimientos internos, extremadamente rápidos, de un anticuerpo pueden representarse a través de una imagen múltiple (derecha, arriba) o mediante una serie de instantá­ neas de momentos físicamente interesantes (abajo, derecha). toxicidad y eficacia en pacientes humanos, al menos uno de los inhibidores de la proteasa del VIH, el Ro31-8959, se ha mostrado bastante prometedor y está siendo objeto de evaluación clínica. Animados por lo mucho que se ha progresado en la comprensión de la estructura y función proteica, Richard A. Ler­ner y sus colegas de la Clínica Scripps se han embarcado en un proyecto especialmente ambicioso: el diseño de enzimas “a la medida” para catalizar (vale decir, facilitar) ciertas reacciones químicas. Modifican anticuerpos para que actúen de catalizadores. Los anticuerpos poseen una notable capacidad para reconocer y distinguir diversas moléculas, por lo que podría ser construido un anticuerpo catalítico al objeto de facilitar una reacción cuidadosamente seleccionada. Quizá llegue el día en que anticuerpos catalíticos diseñados específicamente logren atacar un virus o fragmentar un coágulo sanguíneo sin causar daño a las células sanas del paciente. En colaboración con Victoria A. Roberts, John A. Tainer y Elizabeth D. Getzoff, también de Scripps, Lerner ha mo­dificado un anticuerpo para crear un sitio químico susceptible de enlazar átomos metálicos. Se han apoyado en el grafismo informático. La posibilidad de añadir metales a los anticuerpos constituye un paso importante hacia la síntesis de catalizadores “a la carta”, pues son muchas las reacciones que son catalizadas por mediación de átomos metálicos. Apenas si adivinamos el futuro que el grafismo molecular informatizado nos ofrece. La velocidad y la capacidad de almacenamiento de la maquinaria informática se están duplicando cada 18 meses, lo que da pie a mejoras proporcionales en la versatilidad de los programas. Los equipos de simulación de la realidad —la llamada “realidad virtual”— capaces de sumergir al investigador en un mundo molecular tangible se están haciendo realidad. Existen ya cascos dotados de pantallas de vídeo que mueven la imagen obedeciendo a los movimientos de la cabeza; dispositivos de realimentación de fuerzas permiten al sujeto “percibir” de forma táctil las fuerzas que actúan sobre la molécula que están examinando. En un prototipo que se está desarrollando en la Universidad de Carolina del Norte bajo la dirección de Frederick P. Brooks Jr., se recurre a un simulador computarizado para ensayar posibles drogas “palpando” cómo encajan en una molécula diana. Un proyecto muy novedoso desarrollado en esas mismas instalaciones ha conectado un microscopio de barrido por efecto túnel con un sistema de realidad virtual. Tal sistema se propone capacitar al experto para ver y sentir los detalles atómicos de una molécula examinada bajo el microscopio. Tales sistemas podrán facultarnos para interactuar con el mundo submicroscópico, como si se tratara de los sentidos corporales. Quizá la máxima virtud del grafismo molecular informatizado resida en su potencial para facilitar la comunicación. Las redes de transmisión de datos a alta velocidad permitirán el examen simultáneo de los últimos resultados en investigación molecular. El vídeo interactivo posibilitará el estudio de la estructura y función molecular. Y simulaciones refinadas, conjuntadas con gráficos realistas, consentirán adquirir la percepción personal del complejo mundo químico que hay en nuestro interior. MÁQUINAS DE CÓMPUTO BIBLIOGRAFIA COMPLEMENTARIA Macromolecular Graphics. A. Olson y D. Goodsell, en Current Opinion in Structural Biology, vol. 2, págs. 193-201; abril de 1992. 57 Reventando el polvo Philip E. Ross S on pegajosas como la goma. Es inútil tratar de lavarlas. O atacarlas con chorros de gas. Pero esas molestas motas, del tamaño de un virus, tienen que desaparecer. Cuando las líneas de los circuitos integrados se estrechan a menos de un micrometro, las partículas contaminantes provocan defectos y convierten los beneficios esperados en pérdidas seguras para los fabricantes. Las fábricas de semiconductores brillan hoy como los chorros del oro. Sematech, consorcio manufacturero de circuitos integrados en la texana Austin, tiene una sala rutilante, donde la densidad de polvo es la de un guisante en cuatro kilómetros cúbicos de aire. Pero la limpieza, por sí sola, no resuelve el problema de los desperdicios generados en la impresión de circuitos en obleas de silicio. Los contaminantes que se originan en el proceso causan casi la mitad de los defectos de los microcircuitos. ¿Qué producto de limpieza poseerá potencia suficiente para eliminar las partículas sin estropear la oblea? Varios investigadores están explorando técnicas que usan haces de luz láser que borre el polvo de las obleas semiconductoras. “No hay procedimientos alternativos para librarse de las motas”, dice Susan D. Allen, química de la Universidad de Iowa, que está patentando un método que se sirve del láser para la limpieza de los microcircuitos. Hay otras técnicas que dan buen resultado, siempre y cuando el tamaño de las partículas a eliminar superen el medio micrometro. Pero los componentes del tamaño inferior al micrometro podrían verse afectados por granos que miden 0,1 micrometro o menos. Con tales proporciones, las fuerzas de van der Waals adhieren las partículas a las superficies de los circuitos con intensidad pareja a la de un enlace químico. Los chorros de gas, demasiado débiles, son incapaces de vencer esas fuerzas. Los chorros de gas reforzados con partículas de hielo logran desalojar algunas partículas, pero esos chorros son, a su vez, proclives a la contaminación. El lavado por líquidos agitados por ultrasonidos no puede filtrarse en escalas submicroscópicas; o lo que es lo MOTAS SUBMICROSCOPICAS que tapan parcialmente las falsillas empleadas para imprimir circuitos en obleas de silicio (arriba). IBM está desarrollando un sistema con un láser excímero que las elimina (abajo). 58 mismo: añade tanta suciedad como quita. Los plasmas, o gases ionizados, eliminan las partículas al reaccionar químicamente con ellas, pero reaccionan también con los substratos. La atracción electrostática puede transferir la suciedad de un microcircuito a una lámina en contacto con él; mas, de nuevo, la lámina no se deja limpiar bien. Los láseres presentan una doble ventaja: no rozan el microcircuito y emiten longitudes de onda que algunas substancias absorben mejor que otras. La técnica de Allen se funda en tal absorción diferencial. Somete las obleas de silicio a vapor de agua libre de polvo, que se acumula en las hendiduras que subyacen bajo las partículas. Ataca luego las obleas con láseres cuya emisión infrarroja coincide con las bandas de absorción del vapor de agua, pero no del silicio. El agua explota en forma de vapor, lanzando las partículas lejos de las obleas para que las arrastre la corriente de aire. El nuevo método ha logrado así eliminar el polvo de superficies de silicio lisas, sin estropear el substrato. Texas Instruments está interesada en la técnica de Allen. Es lógico para ella y para todas las empresas de microcircuitos: la limpieza por láser podría ahorrar parte de los más de 300 millones de dólares que se invierten en limpieza en las instalaciones de fabricación de circuitos integrados. Hoy, los fabricantes occidentales de microelectrónica desechan un 40 por ciento de los centenares de microcircuitos producidos de cada oblea de silicio de 15 cen­tímetros. Se sospecha que las empresas japonesas desperdician sólo el 10 por ciento de sus microcircuitos. Allen no limita su sistema al vapor de agua. “En principio, podríamos incluso usar argón”, añade. Naturalmente, ello requeriría emplear un láser que emita una longitud de onda absorbible por el argón. Por su parte, el grupo de Werner Zapka, del Centro Alemán de Tecnología de IBM en Sindelfingen, interviene directamente sobre la suciedad. Al dirigir un potente haz ultravioleta de un láser excímero sobre las partículas, las hace saltar de la oblea. Andrew C. Tam, del Centro de Investigación Almadén de IBM en la ciudad californiana de San José, está ahondando en la técnica de Zapka; según sus palabras, el láser elimina las partículas incluso de substratos con puntos de fusión similares. Esto es importante, continúa Tam, porque la carencia de daños al substrato indica que el láser no puede estar vaporizando las partículas. Cree que el calor, por sí solo, provoca que las partículas salten, como al tostar maíz. Robert J. Baseman y Douglas W. Cooper, del Centro de Investigación Thomas J. Watson de IBM en Yorktown Heights, han visto bailar las partículas bajo el impulso de un láser excímero. “Mi impresión es que se podrían eliminar partículas del substrato sin dañarlo”, asegura Baseman. En cualquier caso, ningún sistema lasérico resuelve los problemas de limpieza que tiene planteados el Valle del Silicio. “Hay millones de partículas formadas por diferentes substancias”, resume Tam. “Quién sabe cuál podrá eliminarse y cuál no.” Pero se ha de encontrar alguna solución, o el microcircuito, cada vez más chico, se sofocará en su propio polvo. TEMAS 4 La retina de silicio Misha A. Mahowald y Carver Mead Un microcircuito basado en la arquitectura nerviosa del ojo proporciona una forma nueva y más poderosa de realizar cálculos E l ojo es la ventana a través de la cual percibimos el mundo que nos rodea. El ojo es también la ventana a través de la cual discerni­ mos la forma en que actúa el cerebro. La retina, capa delgada de tejido que tapiza la órbita del ojo, convierte la luz que le llega en señales nerviosas que el cerebro interpreta como imágenes visuales. Este pequeño apéndice del sistema nervioso central debe extraer todos los rasgos esenciales de una ima­ gen visual con gran rapidez y fiabili­ dad bajo condiciones de iluminación que varían desde la oscuridad de una noche sin luna hasta la luminosidad extrema del sol de mediodía. La capacidad de la retina para llevar a cabo estas tareas es mayor que la de los más potentes superordenadores. Ahora bien, una por una, las neuronas de la retina son del orden de un millón de veces más lentas que los dispositi­ vos electrónicos y consumen una ener­ gía diez millones de veces menor. También operan con mucha menos precisión que los ordenadores digita­ les. El estudio de la forma en que la retina desempeña su cometido propor­ cionará una valiosa información sobre los principios computacionales de otras regiones del cerebro menos acce­ sibles. El cálculo biológico debe, pues, diferir bastante de su contrapartida digital. Con el objeto de estudiar esta diferen­ cia, decidimos construir un microcir­ MISHA A. MAHOWALD y CARVER MEAD trabajan en circuitos analógicos a gran escala en el Instituto de Tecno­ logía de California. Mahowald diseña sistemas de visión que remedan la or­ ganización nerviosa. Mead es profesor de informática y figura destacada en el campo del desarrollo de métodos de di­ seño de circuitos integrados a gran es­ cala. Trabaja ahora en la creación de modelos de silicio de la cóclea, la retina y otras estructuras corporales. 62 cuito de silicio inspirado en la arqui­ tectura nerviosa y en el funcionamiento de la retina. Esta retina artificial genera, en tiempo real, unas señales de salida que son una réplica de las que se producen en la retina humana. Nuestro éxito nos ha demostrado que esta iniciativa no sólo es capaz de esclarecer la naturaleza del cálculo biológico, sino que sirve también para demostrar que los principios del pro­ cesado neural de la información ofre­ cen un nuevo paradigma técnico de extraordinaria potencia. L os sistemas de procesado de imágenes por medios electrónicos habituales no guardan especial pare­ cido con la retina humana. Suelen estar constituidos por un dispositivo fotosensible que emite señales propor­ cionales al valor absoluto de la ilumi­ nación en cada punto de la imagen, respaldado por un potente ordenador que intenta extraer las características geométricas del objeto a partir de los datos digitales resultantes. La retina presenta cinco capas de células. A través de ellas fluye la infor­ mación en un sentido vertical (de cada una de las capas a la siguiente) y en sentido horizontal (entre las células vecinas de una misma capa). La detec­ ción de los fotones y el procesamiento de toda la información que éstos con­ tienen se combinan de forma muy com­ pleja. Creemos que esta arquitectura es crucial para la formación de imáge­ nes visuales. Las tres capas superiores de la retina (fotorreceptores, células hori­ zontales y células bipolares) son las que mejor se conocen. Se trata, tam­ bién, de las capas externas que hemos simulado en la retina de silicio. La primera capa consta de conos y bastones, que convierten la luz inci­ dente en señales eléctricas. Las célu­ las horizontales —la segunda capa— establecen conexiones con fotorreceptores y células bipolares a través de la sinapsis triádica. Cada célula horizon­tal se conecta con sus vecinas a través de las llamadas uniones de intervalo, por las que se difunden los iones. En razón de esa configuración, el potencial de una célula horizontal viene determinado por el valor medio ponderado espacialmente de los poten­ ciales de las células que la rodean. La mayor contribución corresponde a las células inmediatas; las más distantes contribuyen relativamente menos. Cada célula bipolar recibe sendas señales de entrada procedentes de un fotorreceptor y de una célula horizon­ tal y emite una señal que es proporcio­ nal a la diferencia entre estas dos. La información procedente de la célula bipolar atraviesa la capa celular ama­ crina, llega hasta los ganglios celula­ res y, finalmente, se transmite hasta el nervio óptico. La misión principal que cumplen esas tres capas es la de adaptación. Los fotorreceptores, las células hori­ zontales y las células bipolares reciben una cantidad muy variable de la luz incidente y adaptan su respuesta para producir una señal con un intervalo dinámico mucho más estrecho que, sin embargo, capta toda la información a destacar en un cuadro determinado. La adaptación es necesaria para que el sistema pueda responder con sensi­ bilidad a los pequeños cambios locales de la imagen en relación con un fondo cuya intensidad puede variar en un factor del orden de un millón entre el mediodía y la noche. La retina cubre este enorme inter­ valo mediante una serie de etapas diferentes. La primera de las respues­ tas biológicas se basa en la utilización de dos tipos de receptores diferentes: los bastones son sensibles a los niveles luminosos de baja intensidad y los conos a los niveles luminosos de inten­ sidad más alta. Por otra parte, los conos están facultados para alterar el intervalo de las intensidades lumino­ sas a las que responden, según el brillo TEMAS 4 medio a largo plazo de la es­cena per­ cibida. (Estos mecanismos de adapta­ ción explican por qué, cuando una persona pasa de una zona de sol intenso a otra de semioscuridad, ve de­saparecer las imágenes como si hubieran sido obtenidas en condiciones de sobreex­ posición.) Las células bipolares cuentan con un intervalo dinámico más estrecho que los de conos y bastones. El ele­ mento principal para reforzar su res­ puesta en relación con los aspectos principales de una imagen es la si­nap­ sis triádica. La sinapsis triádica media la retroalimentación entre las células 1. ASI VE UNA RETINA DE SILICIO un gato en movimiento. Quedan con ello patentes las etapas iniciales del procesamiento de imágenes biológico. (Las zonas de la imagen que son más oscuras que sus alrededores aparecen de color azul; las que son más claras, de color rojo.) La retina responde con MÁQUINAS DE CÓMPUTO horizontales y los conos. En virtud de ello, las células bipolares no tienen que responder al brillo absoluto de una escena; responden sólo a la diferencia entre la señal procedente del fotorre­ ceptor y la señal media local, tal como viene calculada por la red de células horizontales. mayor fuerza a las imágenes en movimiento: la cabeza del gato y las patas delanteras sobresalen con un relieve más acusado, mientras que las partes del cuerpo que se encuentran en reposo se confunden con el fondo. (Fotografía de Jessie Simmons.) 63 Modelo de estructuras neuronales en silicio L a retina humana consta de células que conducen las señales nerviosas de una capa a otra y por el interior de cada capa. La retina de silicio reproduce las funciones de las tres capas exteriores de la retina humana: los fotorreceptores (conos y bastones), las células horizontales y las células bipolares. Los conos y bastones transforman la luz en señales eléctricas; las células horizontales responden a la intensidad luminosa media existente en su proximidad; las bipolares transmiten una señal que corresponde a la relación entre las señales de los bastones y las células horizontales a través de las células ganglionares. L os fotorreceptores de silicio imitan la función de los conos de la retina. Cada uno consta de un fotosensor y un circuito de adaptación que ajusta su respuesta a los niveles luminosos variables. Una red de resistencias variables simula la capa de células horizontales y proporciona una respuesta basada en la cantidad media de energía luminosa que incide sobre los fotorreceptores más próximos. Los circuitos de las células bipolares amplifican la diferencia existente entre la señal procedente del fotorreceptor y el valor medio local. Todos los circuitos que se integran en la pastilla se disponen en bloques superpuestos. Las zonas de silicio contaminado con impurezas (verde) son las bases de los transistores y de los fotosensores; el polisilicio (rojo) constituye los cables y los resistores; las líneas metálicas (azul) actúan como conductores de baja resistencia. El diagrama (izquierda) muestra la disposición del circuito del receptor y la red hexagonal de resistores variables que forma la red de células horizontales. 64 TEMAS 4 Las señales emitidas por fotorrecep­ tores y células horizontales son de tipo logarítmico; por tanto, la señal de salida de las células bipolares —diferencia entre ambas—corresponderá al cociente entre la intensidad de luz lo­cal y la intensidad del fondo, cualquie­ra que sea el valor absoluto del nivel luminoso. El procesamiento posterior de esa infor­ mación en función del cociente entre intensidades permite que la retina per­ ciba con detalle lo mis­mo las zonas cla­ ras que las oscuras encerradas en una misma escena. La adaptación local no se limita a asegurar la obtención de señales ade­ cuadas para cambios pequeños del brillo de las imágenes; suprime tam­ bién los elementos irrelevantes y refuerza los pertinentes. Las zonas grandes y uniformes producen sólo señales vi­suales débiles, porque los impulsos procedentes de un determi­ nado fotoreceptor quedan cancelados por la señal promediada espacialmente que procede de la red de células hori­ zontales. El perfil de los objetos pro­ duce señales intensas porque los receptores situados a ambos lados del perfil reciben niveles de luz que difie­ ren notablemente del promedio local. La respuesta temporal, relativa­ mente lenta, de la red de células ho­rizontales refuerza la respuesta del sistema óptico a las imágenes en mo­vimiento. Las señales de las imáge­ nes de los objetos en movimiento que producen los fotorreceptores se obtie­ nen en un tiempo en que las señales producidas por las células horizontales (con las que tienen que compararse) corresponden todavía a un nivel de in­tensidad anterior. Al contrario de lo que sucede en una cámara fotográfica, que produce una sola instantánea de una imagen, buena parte del trabajo de la retina se dedica a registrar cambios. A mediados de la década de los ochen­ta, los neurocientíficos sabían ya lo suficiente sobre el modo de operar de las neurona: su funcionamiento no encerraba ningún misterio. Desde el punto de vista de un diseñador de sis­ temas, no había ninguna misión cum­ plida por un elemento neuronal que no pudiera repetirse con dispositivos elec­ trónicos. Nuestro objetivo al construir una retina de silicio no plantea­ba en absoluto una reproducción biológica de este órgano en sus últimos detalles, sino la creación de una versión simpli­ ficada del mismo que contuviera la estructura mínima necesaria para remedar el funcionamiento biológico. Cada píxel de nuestro modelo de retina consta de tres partes: un fotorre­ ceptor, una serie de conexiones de MÁQUINAS DE CÓMPUTO células horizontales y una célula bipo­ lar. El fotorreceptor comprende un elemento fotosensible y un bucle de retroalimentación que imita el meca­ nismo lento de adaptación de los conos en la retina biológica. El fotosensor consiste en un transistor bipolar que produce una corriente proporcional al número de fotones que absorbe. El bucle de retroalimentación amplía la diferencia existente entre la fotoco­ rriente instantánea y su nivel medio a largo pla­zo. El voltaje de salida de este circuito es proporcional al logaritmo de la intensidad luminosa. En el clímax de su sensibilidad, el fotorreceptor puede formar imágenes con flujos luminosos del orden de 100.000 fotones por segundo, un valor que correspondería a la intensidad de la luz existente en un paisaje bañado por la luz de la luna, enfocada sobre el microcircuito con la ayuda de la lente de una cámara fotográfica ordinaria. (Este valor se halla también próximo al límite operativo de los conos de la retina en los vertebrados.) Los cambios de intensidad elevados saturan la res­ puesta del fotorreceptor hasta que éste se adapta al nuevo nivel luminoso. Para imitar las células horizontales construimos una red hexagonal senci­ lla de resistencias y condensadores. Cada vértice de la red se conecta a un determinado fotorreceptor y, a través de resistencias idénticas variables, a los seis vértices más próximos. Los con­ densadores corresponden a la ca­pacidad de almacenamiento de cargas de las membranas celulares horizontales, cuyas finas ramificaciones presentan una gran superficie para almacenar las cargas iónicas procedentes del fluido extracelular. Por su parte, las resisten­ cias constituyen una ré­plica de las uniones de intervalo que emparejan células horizontales adyacentes en la retina de los vertebrados. El voltaje, en cada vértice de la red celular horizontal, presenta, pues, un valor medio espacialmente ponderado de las señales de entrada de los foto­ 2. RETRATO DE LINCOLN (arriba) y su difuminación gradual conforme la retina de silicio se va adaptando a una imagen inmóvil. Cuando la retina se ha adaptado a esta imagen evanescente, la sustitución de una hoja de papel en blanco produce una imagen residual en negativo, de forma análoga a lo que sucede cuando el sistema visual humano percibe estas imágenes residuales al dejar de mirar una escena con objetos muy brillantes. La banda luminosa que recorta la cabeza de Lincoln en la primera imagen se produce como consecuencia de que la retina de silicio refuerza el contraste de los limites entre zonas claras y oscuras. 65 3. IMAGENES DE UN BALON EN MOVIMIENTO para mostrar de qué modo la respuesta retardada de la red celular horizontal afecta a la percepción de la retina del hombre. El balón deja tras de sí receptores a la red. Variando los valo­ res de estas resistencias, podemos modular la superficie efectiva sobre la que se promedian tales señales: a ma­yor resistencia, se necesitará menos superficie sobre la que se distribuyan las señales. Las células horizontales sirven también para alimentar a los fotorreceptores y reducir su respuesta en zonas de intensidad uniforme. L a señal de salida final de cada píxel de la retina de silicio procede de un amplificador que detecta la diferen­cia de potencial que existe entre la sa­lida de una unidad de fotorreceptor y el vértice correspondiente de la red de células horizontales. El amplificador se asemeja, en su comportamiento, a las células bipolares de los vertebrados. El resultado es una pastilla de semi­ conductor (“chip”) que contiene unos 2500 píxeles (los fotorreceptores y los circuitos de procesado de imágenes asociados con ellos), dispuestos en forma de una matriz de 50 por 50. Esta pastilla retiniana incorpora, además, todas las conexiones por cable y circui­ tos amplificadores que nos permiten estudiar las señales de salida de cada píxel o proceder a un barrido de las salidas de todos los píxeles y llevarlas hasta un monitor de televisión, que muestra así globalmente la imagen procesada por todo el sistema. (El pro­ ceso de diseño y construcción de esta retina de silicio ha requerido 20 en­sayos diferentes, cada uno de los cuales ha costado varios meses de trabajo. La investigación continúa para crear nue­ vos diseños, específicos para determi­ nadas tareas, y comprobar las hipóte­ sis relacionadas con el proceso de formación de imágenes.) El comportamiento de esta retina artificial adaptativa muestra un estre­ cho parecido con el de los sistemas 66 una cola o estela de excitación, con zonas brillantes en los lugares por los que han pasado las partes oscuras del mismo y con zonas oscuras en los lugares por los que han pasado las partes claras. biológicos. Comenzamos por examinar la forma en que las señales de salida de los píxeles responden a los cambios de la intensidad luminosa cuando las células que los rodean se encuentran sometidas a una iluminación de fondo constante. La forma de la curva de respuesta es similar a la de las células bipolares de la retina de los vertebra­ dos. Los cambios de la iluminación de fondo modifican el potencial de la red de células horizontales; y así, la curva de respuesta de la retina de silicio se desplaza de la misma manera en que lo hacen las retinas biológicas. La respuesta temporal de la retina de silicio se parece también mucho a la de las células bipolares. Cuando la intensidad de la luz aumenta de repente, existe un gran salto en el vol­ taje de salida, igual a la diferencia que se aprecia entre la nueva señal de entrada y el voltaje medio almacenado previamente en la red de resistencias. La respuesta disminuye hasta alcan­ zar un valor estable, para el que la red calcula un nuevo voltaje medio. Cuan­do la luz disminuye bruscamente hasta alcanzar su intensidad original, el vol­ta­je de salida adquiere un valor inferior al original, dado que la red posee ahora un potencial medio mayor que el que tenía. Cuando la red vuelve a recuperar el valor medio original, la salida torna también a su estado del principio. En una retina biológica, la respuesta lenta de las células horizon­ tales asegura que los cambios bruscos de la intensidad —que podrían corres­ ponder, por ejemplo, a la sombra de un predador pasando sobre un animal— atraviesen las células bipolares sin sufrir ninguna atenuación. En las pruebas subsiguientes, en­con­ tramos que nuestra retina de silicio estaba sujeta a muchas de las mismas ilusiones ópticas que perciben los hu­manos. Recordemos una de las más conocidas, la del contraste simultáneo: un cuadrado gris parece ser más oscuro cuando se coloca sobre un fondo blanco que cuando se coloca sobre un fondo negro. Otras ilusiones ópticas se refie­ ren a las bandas de Mach (bandas apa­ rentes claras y oscuras adyacentes a transiciones de la oscuridad a la luz) y a la red de Herring, en la que apa­recen unos puntos grises en la intersección de una red de líneas blancas. T odas estas ilusiones ópticas aportan datos de interés sobre el papel de la retina biológica en la reducción de la anchura de banda de la informa­ ción visual para extraer los rasgos esenciales de una imagen determi­ nada. Las ilusiones se producen en virtud de la codificación selectiva, por parte de la retina, de la información visual que recibe. El hecho de que nuestro modelo de retina proporcione en ocasiones ilusiones ópticas nos con­ firma en nuestra interpretación de los principios según los cuales opera la retina biológica. El comportamiento de la retina arti­ ficial demuestra el poderío del para­ digma de cálculo analógico en que se basan los circuitos nerviosos. El para­ digma digital que domina la computa­ ción supone que la información debe digitalizarse para reducir al máximo el nivel de ruido y la degradación. En un dispositivo digital, los voltajes si­tuados dentro de cierto intervalo se transforman en bits con un valor de uno, por ejemplo, mientras que los vol­ tajes situados en un intervalo dife­ rente se convierten en ceros. Todos los dispositivos que están situados a lo largo del camino de cálculo recuperan los valores de sus voltajes, retornando a sus valores correctos. La digitali­ zación impone precisión sobre sis­ TEMAS 4 Ilusiones ópticas y retina de silicio S i el comportamiento de la retina de silicio sufre percepciones erróneas propias del sistema visual, es legítimo pensar que domina principios biológicos esenciales. La parrilla de Herring es una ilusión óptica que se caracteriza por la aparición de manchas grises en las intersecciones de un reticulado de cuadrados negros sobre un fondo blanco. Estas manchas se producen como consecuencia de que la res- puesta de la retina en un punto dado del campo visual depende de la intensidad de la luz en los puntos próximos. Porque las zonas de las intersecciones contienen más espacio blanco, se reduce el brillo aparente de la propia intersección. Ocurre así en la ilusión óptica de contraste simultáneo (abajo), en la que un cuadrado gris aparece más oscuro o más claro según el brillo del fondo sobre el que destaca. La ampliación de la red o parrilla pone de manifiesto que no se produce ningún cambio ilusorio en el brillo: tanto el centro como los alrededores del campo de recepción son menores que el espacio existente entre los cuadrados. Cuando el tamaño del centro de recepción es comparable al espacio existente entre los cuadrados, se produce la ilusión óptica. La ilusión desaparece de nuevo cuando el reticulado se ve desde cierta distancia: la intensidad media correspondiente a los alrededores es casi la misma en todas las zonas. Los cuadrados pequeños que existen en estas dos figuras tienen la misma tonalidad de gris. Sin embargo, dado que la retina percibe el brillo de un objeto relacionándolo con el fondo en que se encuentra dicho objeto, el cuadrado de la derecha nos parece más claro. MÁQUINAS DE CÓMPUTO 67 4. UN CUADRADO EN ROTACION produce una cola de píxeles oscuros (color azul) a medida que va girando. Este efecto síguese de la disminución lenta del voltaje en la red de células horizontales de la retina; el cuadrado brillante aumenta el potencial de esta red de células y provoca que los píxeles del fondo aparezcan más oscuros en términos relativos. Entretanto, la zona circular del centro del cuadrado se muestra del mismo color que el fondo, dado que su intensidad no cambia con el tiempo y, por consiguiente, la retina se adapta a ella. temas físicos que, por naturaleza, son imprecisos. Por el contrario, las neuronas son dis­ positivos analógicos: sus cálculos están basados en corrientes de iones variables de forma continua y no en bits que repre­ sentan valores discretos de ceros y unos. A pesar de ello, los sistemas neuronales son procesadores de información alta­ mente eficientes. Ello se explica por el trabajo de los sistemas nerviosos, que se basan en la física fundamental y no intentan oponerse a ella. Aunque la naturaleza no sabe nada de bits, del álgebra de Boole o de la teoría de sistemas lineales, muchos fenómenos físicos cumplen importan­ tes funciones matemáticas. Por ejem­ plo, el principio de conservación de la carga determina que las corrientes eléctricas se sumen o resten. Las pro­ piedades termodinámicas de los iones dan lugar a que las corrientes que flu­ yen hacia el interior de una célula sean una función exponencial de la diferen­ cia de potencial que existe a ambos lados de su membrana. 68 La física ayuda a explicar por qué los circuitos integrados digitales más eficientes que se puedan imaginar con­ sumirán del orden de 10–9 joules por cada operación, mientras las neuronas sólo consumen 10–16 joules. En los sis­ temas digitales, las operaciones con datos y los cálculos deben llevarse a cabo convirtiéndolos en un código binario, un proceso que requiere unos 10.000 cambios de voltaje digitales por cada operación. Los dispositivos ana­ lógicos ejecutan esta misma operación en un solo paso y, por tanto, disminu­ yen el consumo de potencia de los cir­ cuitos de silicio en un factor del orden de 10.000. De mayor trascendencia resulta que la capacidad de los circuitos neurales analógicos para trabajar en medios impredecibles dependa de su habilidad para representar la información en su conjunto. Estos circuitos responden a las diferencias existentes en la ampli­ tud de las señales, y no a sus valores absolutos; eliminan así, en buena parte, la necesidad de proceder a ope­ raciones de calibrado muy precisas. El contexto para una señal neurológica puede ser la intensidad luminosa me­dia local, como sucede cuando la señal del fotorreceptor se compara con la señal procedente de una red de célu­ las horizontales en la sinapsis triádica. Puede tratarse también del comporta­ miento previo del propio circuito neu­ ronal, como ocurre en el proceso de adaptación a largo plazo de un fotorre­ ceptor ante los cambios de nivel lumi­ noso. El contexto de una señal puede estar formado también por un conjunto algo más complejo de pautas nerviosas, incluidas todas las que constituyen los procesos de aprendizaje. La interrelación existente entre el contexto y la adaptación es un princi­ pio fundamental del paradigma neu­ ronal. Este principio condiciona los circuitos inspirados en la neurología. Dado que la información se basa siem­ pre en cambios y diferencias, los cam­ bios constantes son una necesidad para los sistemas neuronales y no una fuente de dificultades, como sucede en los sistemas digitales. Por ejemplo, cuando se muestra una imagen a una retina digital, es necesario que la man­ tengamos siempre en movimiento; en caso contrario, la retina se adaptará a ella y dejará de percibirla. Esta exigen­ cia de cambios sitúa firmemente a los circuitos neuronales en el mundo que observan, en contraste con los circuitos digitales, cuyo diseño parte de la sepa­ ración entre el sistema y el mundo exterior. H emos andado ya los primeros pa ­s os en la simulación de los cálculos que realiza el cerebro para procesar una imagen visual. ¿Cómo generalizar esa misma estrategia a otros tipos de cálculos cerebrales? A primera vista, puede parecer que la naturaleza básicamente bidimensio­ nal de los circuitos integrados actuales constituya un freno limitante de nues­ tro esfuerzo por modelizar el tejido nervioso. Ahora bien, muchas partes del sistema nervioso central están constituidas por láminas delgadas que soportan representaciones bidimen­ sionales de toda la información rele­ vante a efectos de los cálculos. La retina es sencillamente el ejemplo más obvio de esta disposición. Y, lo mismo en el sistema nervioso que en el de silicio, los dispositivos activos —sean sinapsis o transistores— ocupan no más allá del 1 o 2 por ciento del espa­ cio; los “cables” de conexión ocupan la superficie restante. En consecuencia, podemos asegurar que la limitación que representan las conexiones ha for­ zado el diseño de muchas de las partes TEMAS 4 del cerebro hasta proporcionarle una configuración peculiar. Las formas de conexión especializa­ das constituyen una adaptación evi­ dente a las situaciones en que el nú­m ero de elementos de procesa­ miento viene limitado por la cantidad total de cable de conexión que se nece­ sita para acometer una operación de cálculo. Por ejemplo, las conexiones cerebrales se disponen de forma tal que permitan asegurar que toda la información que está estrechamente relacionada se almacena en grupos de neuronas que se encuentran muy próximas entre sí. En particular, las zonas corticales que llevan a cabo las primeras fases del procesamiento de las informaciones visuales mantienen constantes las relaciones espaciales de la imagen. Esta forma cartográfica de organización de la corteza cerebral posibilita que la mayoría de las conexio­ nes del cerebro sean de corta longitud y muy ramificadas. Siguiendo esta misma disposición, en nuestra retina de silicio las resistencias de la red celu­ lar horizontal realizaban los cálculos para todo el circuito y no sólo los correspondientes a las células adya­ centes más inmediatas. El desarrollo futuro de la retina de silicio y otros microcircuitos, similares a éste e inspirados también en las neuronas, discurrirá por dos caminos po­tencialmente divergentes. Consiste el primero en la creación de una máquina de visión mejorada. Al fin y al cabo, una pastilla (“chip”) que aloje un conjunto de circuitos analógicos, más o menos sencillos, puede realizar las mismas funciones que un sistema de muchas pastillas que contenga un sensor de imágenes, muchos micro­ procesadores potentes y pastillas con gran capacidad de memoria. Algo se ha he­cho en este sentido; me refiero al diseño de circuitos binoculares, forma­ dos por la asociación de dos retinas de silicio, con el fin de determinar la dis­ tancia entre dos objetos de una misma escena. La visión real (o algo que se le aproxime) exigirá probablemente la utilización de microcircuitos de retina que centupliquen el número de píxeles de los actuales, amén de otros circuitos capacitados para reproducir, de la mejor manera posible, el trabajo de las funciones que son sensibles al movi­ miento y que refuerzan los perfiles de las imágenes. En última instancia, estos sistemas deberán incorporar también ciertos circuitos nerviosos que reconozcan las imágenes produci­ das por la retina. El otro camino conducirá hacia un objetivo todavía más ambicioso: la MÁQUINAS DE CÓMPUTO comprensión del cerebro. Durante años, los biólogos han dado por su­puesto que el funcionamiento del cerebro se entendería del todo cuando se supiera de qué modo operan todas las moléculas integrantes de una membrana nerviosa. Pero el modelo del cálcu­lo digital y el del cálculo ana­ lógico han demostrado la falsedad de esa suposición. Después de todo, los ordenadores se construyen partiendo de un sistema de dispositivos perfec­ tamente establecido cuyo funciona­ miento se conoce en sus más mínimos detalles. Lo que no empece que, mu­c hísimas veces, sea imposible demostrar que un simple programa de ordenador calculará cierto resultado o incluso si el correspondiente cálculo llegará a su fin. D ejando al margen la perfección que se alcance en la reproducción de esa arquitectura del cerebro, este di­seño, por sí solo, no nos proporcio­ nará una visión global de los principios y representaciones que rigen la orga­ nización del sistema nervioso. Las interacciones entre los cálculos corres­ pondientes son demasiado complejas. No obstante, si los investigadores son capaces de fabricar sistemas de silicio que reproduzcan adecuadamente un sistema biológico, pueden contribuir a hacer progresar nuestros conocimien­ tos actuales del sistema nervioso. El éxito de esta aventura puede ten­ der un puente entre la neurobiología y las ciencias de la información, amén de permitir un conocimiento más hondo del cálculo como proceso físico. Todos estos planteamientos fructifica­ rán en una visión totalmente nueva del procesamiento de la información que canalice la potencia de los siste­ mas analógicos colectivos para resol­ ver problemas que son inabordables con los métodos digitales al uso. BIBLIOGRAFIA COMPLEMENTARIA The Retina: An Approachable Part of the Brain. John E. Dowling. Belknap Press of Harvard University Press, 1987. Adaptive Retina. Carver Mead y Mohammed Ismail. Kluwer Academic Publishers, 1989. An Electronic Photoreceptor Sensi­ tive to Small Changes in Intensity. T. Del­bruck y C. A. Mead en Advances in Neural Information Processing Systems I. Dirigido por David Touretzky. Morgan Kaufmann Publishers, 1989. Silicon Retina. M. A. Mahowald y Carver Mead en Analog VLSI and Neural Systems. Dirigido por Carver Mead. Addison-Wesley, 1989. 69 Cuestión de peso Deborah Erickson L as tarjetas de memoria constituyen el nervio de los ordenadores portátiles. Pero, ¿por qué tienen éstos que pesar tres kilos? Se responderá que la mitad del peso se lo llevan las baterías que alimentan la operación del control mecánico del disco que permite almacenar datos. Cabe, sin embargo, otra vía alternativa. Los fabricantes de circuitos integrados y de ordenadores están empeñados en crear una forma de memoria permanente, libre de los inconvenientes que presentan los soportes de registro magnético. La solución podría venir de las tarjetas de memoria, que son paquetes de microcircuitos de silicio. Del tamaño de una tarjeta de crédito, aunque algo más gruesas, las tarjetas de memoria almacenan programas y datos. Son menores, más rápidas y más ligeras que los controles mecánicos de disco empleados por los ordenadores portátiles y de sobremesa. Los datos almacenados en los microcircuitos se pueden recuperar rápidamente con muy poco consumo de energía. Con las nuevas normas de diseño de equipos y programas, las tarjetas de memoria compatibles transformarán radicalmente el significado de “portátil”. Conforme las tarjetas vayan almacenando y procesando mayor información, ensancharán el radio de aplicación de los ordenadores personales. Aparte de las hojas de cálculo y los programas de tratamiento de textos, los ingenieros sueñan con módulos conectables que ofrezcan mapas de carreteras, listas de restaurantes y hasta periódicos. Las tarjetas de memoria a medida han hallado ya aplicaciones industriales en vuelos de pruebas de aviones y control de inventarios. No hace muchos años se introdujeron en sintetizadores de música, cartuchos de videojuegos, aprendizaje de pronunciación y agendas. El primer escollo grave que ha habido que superar ha sido el de la normalización, estándar que se resume en el acrónimo PCMCIA, que en inglés designa la asociación internacional de ordenadores personales con tarjeta de memoria. Cada uno iba al comienzo por libre, pero ya se ha logrado la estandarización. Bajo la norma de PCMCIA, los conectores en las tarjetas de memoria tendrán todos 68 agujas; cada una corresponde a una señal discreta de almacenamiento de datos. Se reserva alguna para futuros usos, tales como funciones periféricas, como los módems. No es casualidad que la norma de distribución de agujas coincida con la propuesta por la 70 Asociación de Desarrollo de la Industria Electrónica del Japón (JEIDA) en 1985. Los fabricantes occidentales querían un acuerdo y lograr que cualquier máquina que emplease el sistema operativo corriente MS-DOS (por ejemplo, los PC de IBM) pudiera usar cualquier tarjeta. De la misma manera que se están desarrollan­do diferentes funciones para las tarjetas de me­moria y de entrada y salida, los fabricantes de semiconductores están ensayando diversos métodos de almacenamiento de datos. Los circui­tos integrados de memoria usados en la mayoría de los ordenadores, conocidos como DRAM (“Dynamic Random Access Memory”, o memoria de acceso aleatorio dinámico), no son apropiados para almacenamiento permanente porque no retienen los datos cuando se desconecta el ordenador. La estrella ascendente entre los sistemas de almacenamiento de datos es la memoria relámpago, o Flash; muchos lo consideran el mejor sistema para las tarjetas de memoria. No necesita batería para mantenerla y se puede reprogramar eléctricamente. El inconveniente de Flash es que hay que borrarlo por sectores. En lugar de variar un mensaje de “Hola Sara, ¿cómo estás?” a “Hola, Sito...” simplemente cambiando el nombre, Flash guardará un documento entero, consumiendo valioso espacio. Algunas compañías se esfuerzan en salvar esa limitación borrando bloques cada vez menores; otras fían en los programas para que se cuiden de borrar lo sobrante cuando el usuario está trabajando en otra zona de la tarjeta. Cada clase de pastilla requiere su propio modo de almacenamiento de datos. A fin de superar este obstáculo para la intercambiabilidad, PCMCIA y JEIDA se pusieron de acuerdo en normalizar un “Metaformato”, o indicador lógico que describe, para cualquier máquina adaptada al mismo, el contenido del disco y su organización interna. El problema estriba, sobre todo, en la compatibilidad de medios entre las versiones antiguas y las más modernas de MS-DOS. Todavía hay dificultades que allanar, pero es seguro que el campo avanzará con el perfeccionamiento de las tarjetas de memoria. Las empresas agresivas y rápidas ganarán dinero a corto plazo, hasta que los costes de fabricación inevitablemente se conviertan en el más exigente criterio de supervivencia. TEMAS 4 MÁQUINAS DE CÓMPUTO 71 Semiconductores de arseniuro de galio Marc H. Brodsky No se trata de que sustituyan a los de silicio. Su velocidad y sus propiedades ópticas permiten muchas aplicaciones en el campo de los ordenadores y de las comunicaciones optoelectrónicas L a era de la electrónica se asienta sobre la explotación de circuitos microscópicos grabados sobre láminas de silicio. El éxito actual y las perspectivas futuras del silicio en los sistemas electrónicos domésticos, comerciales, industriales y militares explica la actitud crítica de quienes trabajan con él ante la aparición de otro semiconductor prometedor, el arseniuro de galio. “El arseniuro de galio”, dicen con sorna, “es la técnica del futuro, siempre lo ha sido y siempre lo será”. Al cabo de casi treinta años de ser la técnica del futuro, el arseniuro de galio ha empezado a abrirse su propio camino, no para desbancar al silicio, sino para servirle de complemento en nuevas aplicaciones. Sus ventajas específicas se centran en la velocidad con que los electrones se mueven a su través, en las operaciones con señales débiles y en la generación y detección de la luz. Estas ventajas revisten especial interés en muchas aplicaciones relacionadas con los ordenadores, con la recepción de señales de televisión y con la transmisión optoelectrónica de datos a través de redes de fibras ópticas (la fotónica, como se denomina esta técnica). Los láseres y diodos emisores MARC H. BRODSKY ha dirigido muchos trabajos de investigación sobre las propiedades fundamentales y las aplicaciones de los semiconductores, en el Centro de Investigación Thomas J. Wat­ son de la empresa IBM en Yorktown Heights. Estuvo al frente del laboratorio de tecnología avanzada de arseniuro de galio hasta su nombramiento como director de planificación técnica en la división de investigación de esta empresa. Brodsky cursó todos sus estudios de física en la Universidad de Pennsylvania. 72 de luz de arseniuro de galio, que se utilizan en los equipos de reproducción de discos de audio y en las técnicas de producción de imágenes vi­s uales, alcanzan una importante cifra de ventas. Cada año se venden cientos de miles de antenas receptoras de las señales procedentes de satélites en las que se utilizan detectores de arseniuro de galio. Se prevé que el empleo de circuitos de gran velocidad que utilicen transistores de arseniuro de galio alcanzará una difusión similar dentro de muy pocos años. En una economía y una sociedad que dependen del intercambio rápido de información y de su procesado subsiguiente, se exigirá que muchos de los dispositivos basados en el silicio incorporen una proporción considerable de componentes de arseniuro de galio para realizar adecuadamente su trabajo. L a tecnología del arseniuro de galio ha seguido las huellas del curso de desarrollo que los científicos trazaron en su día para el silicio. Desde la invención del transistor, en 1948, por John Bardeen, Walter H. Brattain y William B. Shockley, de la compañía Bell Telephone, los investigadores han intentado mejorar los semiconductores siguiendo dos caminos diferentes. En primer lugar, los físicos e ingenieros electrónicos buscan materiales que sean capaces de conectar y desconectar un circuito con la mayor rapidez posible, y que lleven a cabo además otras operaciones, tales como la detección y producción de luz. La verdad es que la preparación del arseniuro de galio —un material que no existe en la naturaleza— se llevó a cabo, en los años cincuenta, gracias a Heinrich Welker, de los Laboratorios Siemens, con la intención de cubrir estos objetivos. Welker investigó, con idéntico pormenor, otros semiconductores rela- cionados con este material, derivados de elementos situados en las columnas del sistema periódico adyacentes a la del silicio y germanio, que fueron los elementos constituyentes de los primeros transistores. En segundo lugar, los ingenieros se han preocupado por mejorar las técnicas de fabricación de los semiconductores. Este trabajo exige que las propiedades físicas y químicas de los semiconductores estén bien definidas y que se desarrollen los procesos y los materiales auxiliares compatibles con ellos, para fabricar los aislantes, conductores, conexiones externas y otros componentes esenciales de los correspondientes circuitos. Los materiales semiconductores han de purificarse con sumo cuidado, combinarse con otras sustancias en proporciones precisas y producirse en forma de cris­ tales perfectos; las imperfecciones originadas durante el proceso de fabricación de los transistores y circuitos deben eliminarse sin comprometer las propiedades electrónicas deseadas. Ni siquiera hoy es fácil el cumplimiento de ninguno de estos requisitos; mucho menos lo fue en un principio, cuando tuvo que crearse una nueva ciencia de los materiales conjugando una serie de estudios fundamentales de física, química, metalurgia y otras disciplinas. Intentaré guiar al lector a través de estos campos atractivos, e interrelacionados, de la física, la ingeniería, los materiales y la electrónica, para demostrar por qué el arseniuro de galio es un material cuya comercialización constituye un reto y se nos ofrece, a la vez, tan prometedora. La propiedad más interesante del arseniuro de galio es la gran facilidad con que los electrones se mueven en su seno: a igualdad de condiciones, los circuitos de arseniuro de galio son más rápidos que los circuitos de silicio para TEMAS 4 potencias iguales o incluso inferiores. Como el arseniuro de galio consume me­n os energía, el calor que ha de ex­traer­se del circuito resulta menor. Esta propiedad adquiere toda su im­por­tancia si se tiene en cuenta la relación que existe entre la velocidad de un se­mi­conductor y la energía que consume. Un ingeniero tiene que prestar atención al problema de la velocidad en el contexto de un dispositivo concreto y no en un cristal puro de un determinado elemento o compuesto. En la actualidad se utilizan diferentes tipos de transistores como elementos de conexión y desconexión en circuitería electrónica (véanse las figuras 2 y 3). La realización de cálculos o el procesamiento de datos se llevan a cabo efectuando ciertos cambios en estos dispositivos. Estos cambios no pueden ser más rápidos que la velocidad de conexión o desconexión, es decir, el tiempo que un electrón invierte en atravesar la región del semiconductor gobernada por las señales eléctricas procedentes de otra parte del circuito. La velocidad de conexión o desconexión de un semiconductor depende de la velocidad media con que los electrones se mueven en su seno; esta velocidad es del orden de un millón o más de centímetros por segundo. Los electrones encuentran muchos obstáculos en su movimiento a través de un transistor; como consecuencia de las muchas colisiones que tienen con los átomos, los iones o con otros electrones, los electrones en cuestión adquieren una distribución de velocidades característica, cuya forma viene determinada por el campo eléctrico bajo el que se mueven y por la manera en que resultan difundidos por los átomos que constituyen el semiconductor y las impurezas existentes en el mismo. Los electrones se mueven en todas direcciones y pierden, a menudo, una parte de su energía, disminuyendo su flujo neto en la dirección del campo eléctrico aplicado. Una analogía mecánica nos ayudará a explicar de qué modo influyen las propiedades físicas sobre el movimiento de un electrón en un semiconductor. Podemos representar dos 1. DISPOSICION ANIDADA de los átomos de arsénico (naranja) y de galio (verde) que constituyen el arseniuro de galio, en MÁQUINAS DE CÓMPUTO materiales semiconductores diferentes mediante sendos tubos, recubiertos de obstáculos, vibrantes y estacionarios, e igualmente inclinados respecto a la horizontal. Los obstáculos simbolizan el mecanismo de difusión, mientras que la inclinación proporciona un campo gravitatorio correspondiente al campo eléctrico; unas bolitas que caen por el interior de los tubos representan a los electrones. En este símil la velocidad de conexión es el tiempo que tardan las bolas en alcanzar el extremo inferior de los tubos, mientras que la movilidad de los electrones está representada por la facilidad con que salvan los obs­táculos. También podemos considerar esta cualidad como una consecuencia del tamaño de las bolas: cuanto menores sean, menos chocarán e irán más rápidas. Los electrones de los semiconductores se mueven a través de un conjunto de átomos constituyentes que se disponen en una red cristalina determinada. Como los electrones de conducción se comparten entre todos los átomos presentes, dicha red tiene el carácter electrónico de un simple tubo una microfotografía obtenida por Randall M. Feenstra y Joseph A. Stroscio, de la compañía IBM. 73 respecto al paso de los mismos. Las estructuras formadas por átomos de galio y de arsénico que se pueden observar en la imagen de microscopía electrónica que reproducimos en la figura 1 atraen a los electrones móviles con menor intensidad de lo que lo hacen las de los átomos de silicio. Por esta razón los físicos consideran que la masa efectiva de los electrones resulta menor en el arseniuro de galio que en el silicio. Hay factores adicionales que contribuyen a proporcionar mayor movilidad, de modo que los electrones alcanzan mayores velocidades en el primero; la distancia recorrida entre dos colisiones consecutivas resulta ser también mayor. Se puede evitar por completo la di­fusión haciendo que los recorridos crí­ticos sean más cortos que la distancia media entre las colisiones sucesivas de los electrones. Se aseguraría así que la mayoría de los electrones atrave­sasen la zona crítica realizan­do re­corridos balísticos (véase “Elec­trones ba­l ísticos en semiconductores”, por Mor­d ehai Heiblum y Lester F. Eastman, Investigación y Ciencia, abril de 1987). Sin embargo no se pien­sa que este principio pueda tener aplicación práctica hasta que hayan transcurrido algunos años desde que los transistores de arseniuro de galio ordinarios encuentren su lugar adecuado en el menú tecnológico. La analogía de las esferas y los tubos con las colisiones de los electrones sólo puede aplicarse a las aceleraciones resultantes de la acción de campos eléctricos inferiores a 10.000 volt por centímetro. La aplicación de campos superiores origina efectos físicos adicionales que producen saturación, situación en la que los electrones se hacen realmente más pesados; en tal caso la ventaja del arseniuro de galio sobre el silicio se reduce y puede llegar a invertirse. Los voltajes óptimos de trabajo del arseniuro de galio son de hecho inferiores a los del silicio, circunstancia que dificulta la interconexión de circuitos de uno y otro tipo. La coexistencia de ambos semiconductores impone adoptar voltajes de compromiso. L a movilidad tiene también importancia en las operaciones a alta frecuencia y con bajo nivel de ruido. Puede reducirse el ruido (es decir, las fluctuaciones aleatorias del voltaje que determinan el valor mínimo utilizable de la señal), para frecuencias elevadas, aumentando todo lo posible la movilidad de los electrones, tanto en el propio transistor como en sus conexiones al resto del circuito. La utilización de circuitos de arseniuro de galio de bajo nivel de ruido es muy ventajosa para la detección de señales de televisión y de microondas. 2. ESTE TRANSISTOR BIPOLAR sirve para abrir y cerrar un circuito que se conecte entre su emisor y su colector, dos regiones en las que existen electrones suministrados por donantes (contaminación de tipo n). Estas zonas están separadas por una región controlada, la base, que contiene algunos agujeros (contaminación de tipo p). Cuando a esta base se aplica una corriente, los electrones inyectados por el emisor atraviesan el transistor y llegan hasta el colector, cerrando el circuito. Estos dispositivos se fabrican sobre obleas de silicio utilizando procedimientos fotolitográficos y otros métodos de crecimiento y elaboración. El arseniuro de galio que se utiliza en dispositivos bipolares se deposita formando tres capas diferenciadas; una o varias de estas capas pueden contener cantidades variables de aluminio. 74 El otro motivo principal de la superioridad del arseniuro de galio sobre el silicio estriba en la enorme facilidad con que pueden modificarse las separaciones entre sus bandas electrónicas o niveles de energía. Esta “ingeniería del intervalo entre bandas” puede originar ciertas propiedades optoelectrónicas muy versátiles y permite diseñar transistores más flexibles. Una banda electrónica define el intervalo de energías que posee un electrón y representa una forma ensanchada del estado energético de un electrón en un átomo. En un semiconductor puro la banda de valencia (que contiene a los electrones responsables del enlace químico) está fundamentalmente llena o completa; el nivel de energía mayor inmediatamente siguiente, la banda de conducción, está fundamentalmente vacía. Mediante un proceso de contaminación se crean algunas cargas móviles en las bandas; este proceso consiste en una adición cuidadosa de trazas de impurezas en el semiconductor de base. Las regiones que poseen electrones en la banda de conducción reciben el nombre de semiconductores de tipo n; se preparan contaminando el material básico con átomos que se comportan como donantes de electrones; las regiones de tipo p se forman añadiendo agujeros cargados positivamente (cada uno de estos agujeros consiste, en realidad, en la ausencia de un electrón en la banda de valencia). La diferencia de energías entre la parte superior de la banda de valencia y la parte inferior de la banda de conducción se denomina intervalo o separación entre las bandas. Este intervalo es mayor en el arseniuro de galio que en el silicio, pero su anchura puede aumentarse o reducirse sustituyendo los átomos que lo constituyen por otros diferentes (aleación). Por ejemplo, si el galio se sustituye por aluminio, para dar lugar al arseniuro de aluminio, la anchura del intervalo entre las bandas resulta mucho mayor. Las sustituciones parciales de átomos producen intervalos de bandas cuya anchura guarda proporción directa con la cuantía de aluminio en la aleación. Se pueden crear otras aleaciones útiles sustituyendo algunos átomos de galio por indio, de arsénico por fósforo o recurriendo a ambas sustituciones a la vez. Los espaciados interatómicos de las aleaciones de arseniuro de galio y aluminio se ajustan tan bien a los del arseniuro de galio puro que pueden unirse átomo a átomo ambos materiales sin que aparezcan defectos. Esto permite utilizar capas muy delgadas TEMAS 4 de dos o más aleaciones alternadas para crear heterouniones, es decir, estructuras cuyos intervalos entre bandas varían de una capa a otra. Un ejemplo de esta posibilidad es la su­perred de semiconductor, inventada por Leo Esaki y sus colaboradores en la empresa IBM. Esta estructura singular consiste en un depósito de una serie de capas sucesivas y alternas de arseniuro de galio y aluminio y de ar­seniuro de galio, depositadas sobre un sustrato de este último. Los electrones que se mueven paralelamente a los planos de las capas que constituyen esta especie de “bocadillo” resultarán confinados normalmente en el intervalo de bandas más bajo de las capas de arseniuro de galio. Para que se muevan en sentido perpendicular deben penetrar y atravesar las barreras de los intervalos de bandas del arseniuro de galio y aluminio. Va­riando el número, la anchura y la composición de dichas capas se pueden manipular las propiedades físicas y electrónicas de las heterouniones semiconductoras. E l crecimiento de cristales perfectos constituye un requisito esencial para aprovechar las ventajas que representa la variabilidad del intervalo de bandas del arseniuro de galio. Por desgracia los espaciados atómicos de muchas aleaciones que poseen las propiedades electrónicas adecuadas resultan inapropiados; sus redes cristalinas no se entremezclan, ni tampoco lo hacen con las del arseniuro de galio. Si se procede a laminar dos cristales mal ajustados, algunas filas de átomos saltarán a través de las caras adyacentes, creando defectos que pueden propagarse a lo largo de la capa correspondiente y arruinar su aprovechamiento electrónico. Este efecto limita la lista de sustancias que pueden unirse. Se puede aceptar cierto desajuste entre las redes siempre que una de las capas cristalinas sea muy delgada, pero así se restringen también las posibilidades del diseño. En algunos casos se consiguen modificaciones importantes de la anchura del intervalo entre bandas utilizando un sustrato diferente. Por ejemplo, en los láseres de fosfuro y arseniuro de galio e indio se utilizan sustratos de fosfuro de indio; esta clase de láseres resulta muy indicada en las comu­ nicaciones a grandes distancias me­diante fibras ópticas. A veces se evitan los desajustes directos entre dos capas cristalinas que posean las propiedades electrónicas requeridas separándolas mediante unas superredes amortiguadoras diseMÁQUINAS DE CÓMPUTO 3. LOS TRANSISTORES DE EFECTO DE CAMPO regulan el paso de electrones a través de un canal situado bajo un electrodo: la puerta. Cuando se aplica una carga positiva a ésta, atrae a los electrones hacia la parte superior del sustrato, creando un canal conductor con contaminación de tipo n. Este canal conduce a los electrones desde una región de tipo n, la fuente, hasta otra región de tipo n conocida como sumidero o drenador, cerrando el circuito al que estos terminales están conectados. En la versión de silicio (parte inferior) se utiliza el óxido natural de este elemento como capa aislante entre la puerta y el sustrato. Por contra, el diseño normal con arseniuro de galio tiene ambos conectados (parte superior). ñadas al efecto. Estos materiales amortiguadores están constituidos por varias aleaciones cuyos cristales poseen espaciados atómicos intermedios a los de las capas activas, siendo capaces de absorber de forma gradual las tensiones mecánicas generadas en ellas. Los materiales amortiguadores permiten también aislar los circuitos de cualquier defecto residual que esté presente en el sustrato de arseniuro de galio. La utilización de estas super­ redes ha permitido mejorar bastante las cualidades de ciertos láseres y transistores. Raymond Dingle y sus colabora­ dores, de los Laboratorios Bell, pusieron a punto en 1979 un nuevo diseño para transistores de efecto de campo heterounión, basado en la colocación de un canal de arseniuro de galio bajo una capa de arseniuro de galio y aluminio. Estos autores descubrieron que, cuando un átomo contaminante 75 situado en una capa de arseniuro de galio cede un electrón a la banda de conducción, se convierte en un ion positivo que produce la dispersión de otros electrones. En consecuencia procedieron a separar los átomos donantes de electrones presentes en el arseniuro de galio introduciendo ciertos contaminantes en una capa adyacente de arseniuro de galio y aluminio. Los electrones que proporcionan los átomos contaminantes se mueven hacia la banda de conducción más baja de la capa de arseniuro de galio más próxima y, por tanto, se mueven más deprisa de lo que lo harían si los átomos donantes ionizados permanecieran en el canal, bloqueando su camino. Esta técnica de contaminación modulada no tardó en incorporarse en los transistores de efecto de campo de arseniuro de galio fabricados por las firmas Fujitsu y Thomson-CSF. Gracias a ella se au­men­ta la movilidad de los electrones en un veinte por ciento a temperatura ambiente. Cuando se en­frían a temperaturas de 77 grados Kelvin (es de­cir, 77 grados centígrados por en­cima del cero absoluto), los transistores de este tipo trabajan con una movilidad tres veces mayor que la de los dispositivos contaminados según las técnicas habituales. O tro aspecto material del arseniuro de galio que podría acelerar la velocidad de los circuitos es que sus obleas pueden actuar como semiaislantes. Dichas obleas sirven de sustrato sobre el que se construyen los dispositivos y circuitos. Los sustratos de silicio presentan siempre cierta conductividad eléctrica, debido a que su intervalo entre bandas es menor y a que las cantidades de contaminantes residuales activos (no deseados) es mayor; en consecuencia su utilización introduce cierta capacitancia en los correspondientes circuitos, reduciendo la velocidad con que los electrones los atraviesan. La mayor anchura del intervalo de bandas del arseniuro de galio permite prepararlo en forma semiaislante, bien manteniendo los sustratos completamente libres de contaminantes activos, bien incorporando ciertos contaminantes especiales autocompensantes para cancelar, casi del todo, el efecto de los residuales. Estas ventajas sobre el silicio desaparecen cuando los niveles de integración superan algunos miles de circuitos por pastilla, en cuyo caso es la capacitancia entre las numerosas conexiones, muy poco separadas, la que determina el límite crítico de la velocidad de la señal. 76 Además de la movilidad de los electrones y de la flexibilidad del intervalo entre bandas, la tercera y más importante ventaja del arseniuro de galio sobre el silicio es su capacidad de emitir y detectar radiación en el infrarrojo próximo. La energía potencial de un electrón que se mueva desde la banda de conducción hasta la de valencia en el arseniuro de galio puede emitirse en forma de un cuanto de radiación electromagnética o fotón. En el caso del silicio esta misma reacción suele desarrollarse mediante un proceso no radiante, una colisión por ejemplo, para conservar el momento. Esta diferencia en las propiedades del intervalo entre bandas explica por qué el arseniuro de galio puede realizar funciones optoelectrónicas y el silicio no. U na fuente de radiación de arseniuro de galio consiste en un dio­do en el que existen dos regiones con contaminaciones opuestas; en la región de tipo p existen muchos agujeros (en la banda de valencia) y en la región de tipo n existen muchos electrones (en la banda de conducción). La aplicación de un voltaje a este diodo p/n produce una inyección de agujeros y electrones en la zona que separa las dos regiones, creando un exceso de ambos. La combinación de un electrón y un agujero origina su aniquilación; la energía correspondiente al intervalo de bandas de los electrones se emite en forma de un fotón. Esta recombinación electrón-agujero es de una gran eficiencia (en ciertas condiciones puede convertir la mayor parte de la energía eléctrica en energía luminosa) y puede utilizarse muy fácilmente para producir un componente electrónico familiar: el diodo emisor de luz (conocido por las iniciales de estas palabras en inglés, led). Los led de arseniuro de galio y fósforo o de arseniuro de galio y aluminio se encuentran en la mayoría de los aparatos electrónicos, en forma de lucecitas de color amarillo o rojo, respectivamente, fabricándose anualmente decenas de millones de ellos. Los diodos de láser producen radiación más concentrada. Las caras del cristal que forma estos dispositivos son perfectamente paralelas y se comportan como espejos semitransparentes. La luz que se refleja en ellas atraviesa una y otra vez la región de recombinación, donde estimula la emisión de radiación de la misma longitud de onda y dirección. El haz resultante presenta una gran coherencia. Los láseres de diodo semiconductor se fabricaron por vez primera a partir de uniones p/n de arseniuro de galio en sendos ensayos llevados a cabo de manera independiente por las empresas IBM y General Electric en 1962. Los diseños modernos, basados en el intervalo entre bandas, dependen de estructuras que contienen capas de composiciones diferentes. Por ejemplo, los láseres de arseniuro de galio emiten radiación de longitud de onda situada en el infrarrojo próximo, de­bido a que el intervalo entre bandas del arseniuro de galio corresponde a una energía situada por debajo mismo de los fotones visibles. Si se mezcla el arseniuro de galio con otros elementos (aluminio, indio, fósforo) varía la anchura de dicho intervalo aumentando o disminuyendo, lo cual produce una salida que, según los casos, se sitúa en el infrarrojo más lejano o en la región visible. La capacidad del arseniuro de galio y de sus aleaciones para detectar la luz, invirtiendo la reacción en que se basa el funcionamiento de los led y de los diodos láser, reviste también interés. Los fotodetectores resultantes se pueden ajustar a una determinada longitud de onda por medio de las mismas técnicas basadas en el intervalo entre bandas que se utilizan para ajustar los diodos láser. Por su gran rendimiento, la respuesta de los fotodetec­ tores de arseniuro de galio es mucho más rápida que la de los de silicio. Y presentan otra ventaja adicional: su fácil integración en los circuitos de alta velocidad de arseniuro de galio. L a posibilidad de integración constituye un factor fundamental por razones económicas y funcionales. En primer lugar, como en todos los procesos basados en la miniaturización, la integración abarata los costes unitarios de estos dispositivos, pues con una simple oblea se fabrican un gran número de pastillas y cada pastilla contiene, a su vez, miles de circuitos. En segundo lugar, si se coloca un fotodetector muy cerca del circuito que primero ha de amplificar su señal, se puede diseñar la conexión entre ambos de forma tal que se reduzca al mínimo la captación de señales no deseadas procedentes de los circuitos próximos; este fenómeno, llamado intermodulación, constituye un problema serio en los circuitos que usan detectores no integrados conectados mediante conductores normales. Otra posibilidad más especulativa es la de fabricar pastillas en las que una señal óptica module directamente a otra. Se han propuesto muchos dispositivos de este tipo, pero todavía se está lejos de hacerlos realidad. TEMAS 4 Además de poder producir y detectar luz, el arseniuro de galio posee otras muchas cualidades que pueden tener interés en determinadas aplicaciones. Por ejemplo, su amplio intervalo de temperaturas de trabajo y su gran resistencia a la radiación de alta energía le hacen idóneo para la automoción y la industria militar, respectivamente. No basta con determinar las propiedades del arseniuro de galio ni con desarrollar las formas de utilizarlas; es necesario, además, poder fabricar los productos pertinentes y hacerlo con mucha calidad y bajo coste. El problema de las técnicas de producción, de las que nos vamos a ocupar a continuación, es, en muchos sentidos, el más difícil de todos. Como sucede en el caso del silicio, el arseniuro de galio forma elementos electrónicos de acuerdo con ciertas condiciones impuestas por sus pe­culia­res características físicas y químicas. Estas condiciones se complican por el hecho de que en los circuitos integrados se requieren muchos componentes que no son semiconductores. Cabe ci­tar entre ellos a los conductores metálicos de interconexión, a los aislantes, a las resistencias y condensadores que controlan el flujo de la corriente y a los contaminantes que proporcionan los electrones y los huecos. Uno de los principales inconvenientes del arseniuro de galio y de las alea­ ciones con él relacionadas es la inexistencia de un óxido natural útil, como el que forma el silicio cuando se calienta en el aire. El óxido de silicio forma un recubrimiento electrónico y mecánico que tiene muchas aplicaciones. El óxido de silicio proporciona el aislamiento necesario entre la puerta y el 4. PASTILLA OPTOELECTRONICA de arseniuro de galio: recibe luz infrarroja sobre su fotodetector (detalle) a razón de mil millones de bits por segundo y la convierte en una señal eléctrica débil. El fotodetector y los circuitos de amplificación y procesado electrónico están montados en la misma pastilla. Un conductor cuya longitud resulta demasiado corta para recoger las señales espurias procedentes de los circuitos próximos conecta el detector con el primero de una serie de amplificadores. Un conjunto de circuitos adicionales que contienen miles de transistores distribuyen los datos en paquetes de ocho bits (bytes) y los introducen a continuación en los orde­nadores digitales. Esta pastilla forma parte de un grupo de tres, que pueden recibir y transmitir datos mediante funciones optoelectrónicas; este dispositivo ha sido fabricado en la unidad de investigación del arseniuro de galio de IBM. MÁQUINAS DE CÓMPUTO 77 canal de los transistores de efecto de campo (véase la figura 3). En los circuitos que usan transistores bipolares aporta el aislamiento entre transistores adyacentes. Se emplea también para la fabricación de transistores y microcircuitos, pues crea una capa protectora en la que se pueden practicar ventanas con diversas finalidades: para permitir que actúen los reactivos químicos y graben pautas, para depositar metales y producir láminas conductoras o para añadir contaminantes y activar determinadas regiones del material. En el caso del arseniuro de galio, en cambio, los técnicos tienen que produ­ cir los aislantes y las estructuras de apantallamiento mediante otros me­dios, que, con frecuencia, resultan me­nos adecuados. Un diseño frecuente en los transistores de efecto de campo con­siste en colocar una puerta metálica en contacto directo con el arseniu­ro de galio, lo cual origina un canal con­ trolable gracias a un efecto conocido como formación de una barrera de Schottky (véase la figura 3). Otros en­foques se basan en la utilización de capas cristalinas delgadas de arseniuro de galio y aluminio como barreras aislantes. El arseniuro de galio y aluminio presenta una gran flexibilidad para la contaminación modulada, como hemos explicado anteriormente, pero ni esta técnica ni la de las barreras de Schottky permiten alcanzar los valores de voltajes operativos que proporcionan los aislantes de óxido de silicio. O tra desventaja importante del arseniuro de galio y de sus productos derivados se refiere al carácter compuesto de todos ellos. Mientras que los defectos del silicio puro pueden eliminarse con sólo templarlo, para agitar sus átomos y obligarlos a que se alineen, en el caso del arseniuro de galio este proceso entra en competencia con la vaporización selectiva del arsénico. Los defectos se producen en muchas de las fases de fabricación de los circuitos integrados. Por poner un caso concreto, los contaminantes suelen incorporarse acelerando los iones correspondientes para implantarlos en el semiconductor. En el caso del silicio, el daño que produce este proceso se puede reparar y situar todos los contaminantes incorporados en los lugares adecuados del cristal, calentándolo a temperaturas de unos 1000 grados Celsius durante algunos minutos. (El recubrimiento de óxido de silicio impide que los contaminantes escapen del material durante esta operación.) En cambio el arseniuro de galio con iones implantados no admite 78 tal recocido, ni aunque la temperatura no supere los 800 grados. Las precauciones especiales adoptadas para retener el arsénico y los contaminantes no han logrado más que un éxito parcial: sólo entre el 90 y el 95 por ciento de los contaminantes originalmente implantados resultan activos. Se están ensayando otras técnicas, basadas en ciclos de templado muy breves (que duran segundos) y en capas de recubrimiento especiales (que forman una estructura hermética); mas, por ahora, no existe una solución viable para ejecutar un templado completo del arseniuro de galio. Por cuya razón las propiedades de estos dispositivos tienden a no ser uniformes dentro de una pastilla, lo que, junto con otros factores, impone ciertos límites prácticos sobre el nivel de integración alcanzable. En tanto que un microcircuito de silicio de un centímetro cuadrado puede albergar más de un millón de transistores, las pastillas de arseniuro de galio sólo admiten algunas decenas de miles de componentes, en el mejor de los casos. Puesto que el coste de fabricación de una oblea de arseniuro de galio es igual o mayor que el de una de silicio (cada una de las cuales contiene muchas pastillas), este bajo nivel de integración constituye una seria desventaja. Otra dificultad adicional desde el punto de vista económico es que el tamaño de las obleas de arseniuro de galio que se pueden fabricar en la actualidad es relativamente menor: suelen tener un diámetro de entre siete y diez centímetros, mientras que las de silicio tienen diámetros comprendidos entre doce y veinte centímetros. Las aplicaciones actuales del arseniuro de galio se concentran en los dispositivos que permiten asumir su mayor coste unitario por sus funciones únicas. Se utiliza mucho en las primeras etapas de los receptores que requieren una respuesta rápida y un bajo nivel de ruido, así como en el cam­po de la generación óptica, pues no existe un material sustitutivo. Se están abriendo paso las aplicaciones a los circuitos digitales instalados en los ordenadores, pensándose en usarlo en los microprocesadores futuros. Quizá su aplicación más conocida sea la fabricación de los detectores situados en los focos de las antenas parabólicas. Los satélites de comunicación utilizan microondas con frecuencias de hasta 12 gigahertz, una región espectral en la que la velocidad del arseniuro de galio no tiene rival. El arseniuro de galio no sólo es capaz de convertir estas longitudes de onda en señales electrónicas claras, sino que también puede ampliar las débiles señales eléctricas iniciales sin introducir apenas ruido. Los amplificadores de silicio sólo pueden llevar a cabo esta tarea mediante disposiciones de transistores que introducen el ruido suficiente para ahogar las débiles señales recibidas. Los avances experimentados en el proceso de integración deberían permitir la utilización futura de estos dispositivos en sintonizadores de televisión y otros productos comerciales; la viabilidad económica de esta posibilidad se ha demostrardo por diferentes empresas japonesas y europeas. Se espera que estos sintonizadores proporcionen imágenes más claras en zonas donde la recepción de las señales plantea dificultades. L a aplicación más importante y prometedora del arseniuro de galio pertenece al dominio de la transmisión fotónica de información. La propagación de la luz a través de fibras ópticas puede transportar mucha más información y llevarla mucho más le­jos que lo que permiten las señales eléctricas en los conductores metálicos ordinarios. La interconexión de sistemas digitales y de otro tipo mediante fibras ópticas avanza con gran rapidez. Se utilizan ya estas fibras en comunicaciones transcontinentales y transoceánicas; su uso está llegando también a los sistemas telefónicos y de televisión por cable de nuestros hogares y oficinas. Y a las fibras ópticas se recurre para extender la distancia y velocidad de las conexiones entre ordenadores. Estas conexiones se convertirán paulatinamente en una parte del propio sistema de procesamiento digital. Algunos analistas creen que la importancia de la optoelectrónica para la sociedad del futuro será similar a la que poseen los actuales sistemas de cálculo digital. Los láseres de diodo representan frente a los láseres de gases lo que son los transistores respecto a las válvulas de vacío; la misma analogía se puede hacer extensiva cuando comparamos los led con las bombillas incandescentes. En cada uno de estos casos, los semiconductores son mucho más pequeños, más eficientes y más económicos de fabricar y operar que sus contrapartidas. Las ventajas que presentan no se miden en términos de algunos puntos porcentuales, sino en órdenes de magnitud. Estas diferencias hacen posible aplicaciones tan nuevas como el reproductor de discos compactos. Este producto tan familiar para los consumidores utiliza un láser de arseniuro de galio y aluminio en la lectura de los datos codificados en TEMAS 4 forma de marcas grabadas sobre un disco en rotación. Un láser idéntico, pero de mayor potencia, es el componente esencial de otro dispositivo parecido, la unidad de almacenamiento de datos informáticos por medio de un disco óptico. Los láseres de estado sólido son los candidatos más apropiados para la ingeniería basada en el intervalo entre bandas. Esta técnica garantiza el control preciso de la longitud de onda que emite un láser. Los láseres obtenidos a partir de capas de fosfuro de indio, galio y aluminio depositadas en sustratos de arseniuro de galio emiten luz visible con una longitud de onda situada en la región del rojo. Estos dispo­sitivos han reemplazado a los láseres gaseosos, mucho más complicados, en lectores de los códigos de barras, que se usan para registrar los productos en las cajas de algunos comercios o las piezas componentes en las líneas de montaje de las fábricas. Los láseres de fosfuro y arseniuro de indio y galio hallan generalizada aplicación en las comunicaciones a grandes distancias, porque puede ajustarse su salida a las longitudes de onda infrarrojas de 1,3 o 1,55 micrometros, que son las menos absorbidas por las fibras ópticas. H asta ahora la mayoría de las investigaciones optoelectrónicas se han centrado en mejorar el funcionamiento de dispositivos específicos y no en integrarlos en pastillas. Este planteamiento es consecuencia, en parte, del papel hegemónico desempeñado por las compañías telefónicas, que necesitan disponer de los enlaces ópticos adecuados en aplicaciones en las que el coste unitario es un factor de importancia secundaria, dado que su repercusión se reparte entre muchas conversaciones telefónicas. En consecuencia, láseres, detectores y transistores de los dispositivos comerciales utilizan pastillas separadas. La conexión progresiva de ordenadores mediante fibras ópticas exigirá grandes cantidades de dispositivos optoelectrónicos mucho menos caros. No se los puede fabricar a unos precios unitarios razonables más que si se utilizan técnicas de integración a gran escala. Los enlaces optoelectrónicos acabarán por transmitir datos a razón de mil millones de bits por segundo o más, velocidades que pueden conseguirse, en principio, me­diante transistores de arseniuro de galio bipolares o de efecto de campo. Los modernos transistores de silicio bipolares también podrían cubrir este objetivo. Se prefieren, sin embargo, los dispositiMÁQUINAS DE CÓMPUTO 5. LOS DIODOS DE LASER inyectan los agujeros procedentes de una capa de tipo p de arseniuro de galio y aluminio en una capa activa de arseniuro de galio. Los electrones proceden de una capa de arseniuro de galio y aluminio de tipo n situada debajo. Los agujeros y los electrones se aniquilan entre sí; la diferencia de energía entre la banda de conducción de los electrones y la banda de valencia de los agujeros se libera en forma de un cuanto de luz. Los cuantos que se mueven en una dirección paralela a las caras verticales reflectantes son reenviados a la capa activa, donde estimulan la emisión de otros cuantos cuyas longitud de onda y orientación son iguales que las suyas. vos de arseniuro de galio de efecto de campo porque disipan menos energía y porque en el futuro podrían alcanzar velocidades de operación todavía más elevadas. Amnon Yariv y sus colaboradores del Instituto de Tecnología de Ca­li­ fornia fabricaron en 1979 el primer transistor y láser interconectados utilizando un microcircuito de arseniuro de galio. La empresa Matsushita y los Laboratorios Centrales de Inves­ tigación NEC, en Japón, han desarrollado unos dispositivos similares basados en el fosfuro de indio; en muchos otros laboratorios se están realizando nuevas investigaciones con diferentes compuestos. El reto mayor consiste en superar los problemas que plantea la fabricación de las versiones óptimas de transistores y láseres en una sola pastilla. En los laboratorios americanos y europeos IBM se construyó un trío de microcircuitos con capacidad para transmitir mil millones de bits por se­gundo. De esta velocidad no se perderá nada: la velocidad de las conexiones de transmisión ha de decuplicar la de los ordenadores que conectan, debido a que los datos se transmiten en serie, en tanto que los ordenadores los procesan en bloques de ocho bits, o bytes, (más los dos bits añadidos para comprobar la presencia de errores en la transmisión). Los ordenadores más rápidos producen ya un flujo de datos tal que excede, en mucho, la capacidad de transporte de los conductores de cobre para distancias superiores a los 200 metros (a la que las señales eléctricas poco espaciadas entre sí comienzan a mezclarse). Los sistemas opto­ electrónicos, con su anchura de banda considerablemente mayor, están reem­ plazando a los cables para distancias cada vez más cortas; andando el tiempo, estos mismos sistemas transportarán información en el interior de los propios ordenadores. Este circuito está formado por tres pastillas y por las fibras ópticas de co­n exión. La primera pastilla, un transmisor de arseniuro de galio, serializa los bytes que le llegan a razón de 100 millones por segundo, enviándolos hacia la segunda pastilla, constituida por un conjunto de láseres de arseniuro de galio y aluminio. Uno de sus cuatro láseres envía la señal a una fibra óptica, con una velocidad de mil millones de bits por 79 nes realizadas. Siempre se concede preferencia al silicio, salvo que su funcionamiento sea mucho peor que el del arseniuro de galio. Por otra parte, la mayoría de los fondos dedicados a la investigación de semiconductores todavía van a parar al silicio, que sigue demostrando gran vitalidad. Las ventajas del arseniuro de galio en velocidad, bajo nivel de ruido y optoelectrónica deben ser valoradas en sus justos términos para que se pueda afrontar el reto de producirlo con un coste bajo y vencer así al silicio. L 6. VELOCIDADES MEDIAS DE LOS ELECTRONES del arseniuro de galio. Quintuplican de lejos las del silicio bajo la acción de campos eléctricos cuya intensidad sea inferior a 1000 volt por centímetro. se­gundo. Esta señal llega a la tercera pastilla, un receptor de arseniuro de galio, uno de cuyos cuatro fotodetectores la convierte en un impulso electrónico. Los impulsos alimentan directamente una serie de transistores de arseniuro de galio, que la amplifican (véanse los detalles en la figura 4). Otros circuitos de la pastilla receptora deserializan la señal en bytes. En cada uno de los dos extremos del puente optoelectrónico, las pastillas del transmisor y del receptor, constituidas por arseniuro de galio, conectan este dispositivo con el circuito de silicio, que es el que procesa realmente los bytes como parte de un ordenador. Sin embargo, a medida que las velocidades del procesamiento de datos se incrementen, cabe esperar que el uso del arseniuro de galio se vaya extendiendo también a los circuitos digitales de los diferentes sistemas que están interconectados entre sí. E sa circuitería constituye el corazón de los ordenadores digitales, un campo de extraordinaria importancia en el que el arseniuro de galio ha encontrado pocas aplicaciones hasta la fecha. Las aplicaciones digitales más comunes exigen la utilización de circuitos con niveles de integración más elevados (y, por tanto, con costes por unidad de circuito más bajos) que lo que permite el arseniuro de galio. La ventaja que representa la velocidad del arseniuro de galio sólo se ha explotado en ciertas aplicaciones digitales 80 especiales de redes de ordenadores y superordenadores, es decir, en sistemas en los que interesan más las prestaciones que el coste. Por otra parte, estas aplicaciones especializadas no resultan tan sensibles a los requisitos de miniaturización del silicio, dado que los transistores de silicio más potentes generan mucho calor y su densidad debe limitarse con gran cuidado. En consecuencia, los circuitos deben disponerse sobre una serie de pastillas diferentes, exigencia que crea un nuevo cuello de botella en forma de retrasos en la transmisión entre dichas pastillas. Los especialistas en ingeniería informática intentan reducirlos al mínimo montando lo más cerca posible unas de otras todas las pastillas relacionadas. El silicio seguirá siendo el componente primordial de los ordenadores digitales hasta que se logren mayores niveles de integración y de compatibilidad de empaquetamiento en los productos hechos con arseniuro de galio. También habrá que mejorar las demoras entre las diferentes pastillas, para que las ventajas conseguidas en cada una de ellas no se pierdan al pasar al sistema entero. No todas las desventajas competitivas del arseniuro de galio son de tipo técnico. Aunque la tecnología del arseniuro de galio ha utilizado muchos de los métodos que se desarrollaron, en un principio, para el silicio, tales como la fotolitografía, esta ventaja ha sido compensada por las enormes inversio- os progresos técnicos que pudieran permitir que el arseniuro de galio dominara algún día el campo del cálcu­lo digital pueden ejemplificarse en el sistema de cálculo con instrucciones reducidas (conocido por las siglas risc), una técnica que incrementa las velocidades de cálculo de las pastillas utilizando un número reducido de elementos para llevar a cabo ciertas funciones especializadas. Diversas compañías han proyectado sistemas risc de unas velocidades que sólo permite el arseniuro de galio. Las pastillas de los sistemas risc existentes utilizan transistores de silicio que procesan unos 35 millones de instrucciones por segundo. La tecnología del silicio puede ya aceptar hasta tres veces este valor. Las velocidades superiores a 100 millones de instrucciones por segundo sólo se alcanzan con transistores de arseniuro de galio. Por razones de tipo económico es necesario montar al menos 40.000 transistores en cada pastilla, un nivel de integración que ya ha sido alcanzado por diferentes compañías en la californiana “Quebrada del Galio”, por lo que no debería tardarse mucho en disponer comercialmente de los correspondientes circuitos plenamente comprobados. Quizás en ese momento, cuando los ordenadores, los enlaces entre ordenadores, los televisores y los discos compactos contengan todos ellos arseniuro de galio, podremos decir, al fin, que la técnica del futuro se ha convertido ya en realidad. BIBLIOGRAFIA COMPLEMENTARIA M olecular B eam E pitaxy and H e ­ terostructures. Dirigido por Leroy L. Chang y Klaus Ploog. Kluwer, 1985. Semiconductor Devices, Physics and Technology. S. M. Sze. John Wiley & Sons, Inc., 1985. IEEE GaAs IC [Gallium Arsenide In­ tegrated Circuits] Symposium. IEEE, 6-9 de noviembre de 1988. TEMAS 4 Electrónica de silicio-germanio ultrarrápida Bernard S. Meyerson Estos nuevos dispositivos electrónicos aventajan a los tradicionales de silicio sin requerir métodos de fabricación distintos de los ya normalizados L os microprocesadores realizados en pastillas de silicio se han asentado en la vida moderna hasta tal punto que ya nadie se asombra de que las muñecas hablen, las tarjetas de felicitación canten y otras mil lindezas por el estilo. Pese a su gran difusión, hay voces que llevan años afirmando que la técnica del silicio se acerca a sus límites físicos; no es posible, afirman, alcanzar mayores velocidades sino a costa de achicar las dimensiones hasta extremos que impedirán el funcionamiento de los dispositivos. Si esto es así, para que el progreso continúe habrá que encontrar una alternativa al silicio y, cuando llegue el momento, la industria electrónica se enfrentará a un período de transición durísimo. Pero, ¿será verdad que la era del silicio está llegando a su ocaso? En colaboración con un equipo de investigación y fabricación de IBM, el autor ha explorado modos de conseguir prestaciones superiores a las que ofrece la técnica del silicio, modificando la composición de las pastillas. Las mejoras de velocidad y de versatilidad del pasado se debieron a la miniaturización de los circuitos. En vez de seguir ese camino, nuestro grupo se concentró en el uso de materiales en los que los electrones se desplazan a velocidades mucho mayores, logrando así un funcionamiento más BERNARD S. MEYERSON ha ideado la técnica de deposición química de vapor en vacío ultraelevado, que permitió fabricar los transistores ultrarrápidos de silicio-germanio. Tras doctorarse por la Universidad Metropolitana de Nueva York en 1981, ingresó en el Centro de Investigación Thomas J. Watson de IBM, donde dirige el grupo de materiales electrónicos. 82 rápido. Hemos demostrado que, partiendo de una aleación de silicio y germanio, dos elementos semiconductores harto conocidos, pueden obtenerse transistores de altísima velocidad. Como es bien sabido, el transistor es un sencillo conmutador sobre el que se construye la electrónica moderna. Los dispositivos recientemente desarrollados pueden fabricarse además en las actuales líneas de producción de micropastillas, rentabilizando así las enormes inversiones que tales medios fabriles representan. Espe­r amos, pues, que la técnica del silicio continúe dominando el diseño electrónico y nos atrevemos a predecir que volverá a reclamar para sí funciones que habían sido cedidas a otros materiales más exóticos. En colaboración con un grupo de diseñadores de Analog Devices, IBM puso en el mercado los primeros productos comerciales que incorporaban transistores de silicio-germanio de elevadas prestaciones. En unos pocos años, estos transistores y otros dispositivos de silicio-germanio hallarán probable aplicación en una amplia gama de productos, entre ellos los aparatos de comunicaciones personales y los conversores electrónicos de señales, los cuales extraen datos digitales de la red de cables de fibra óptica. Un factor esencial y determinante de la capacidad de los ordenadores y de otros equipos electrónicos es la velocidad de operación de los componentes; su espectacular aumento en los últimos tiempos se ha logrado merced a la miniaturización. El elemento básico de los circuitos electrónicos modernos es el transistor, cuya actuación se reduce a una sencilla conmutación todo-nada en la que reside el fundamento de los ordenadores digitales. Mirándolo más de cerca se puede entender cómo funciona y por qué al achicar su tamaño se consigue mejorar sus prestaciones. Además se descubre la razón de que ese proceso de reducción no pueda prolongarse indefinidamente. En la electrónica del silicio intervienen dos tipos principales de transistores: el bipolar y el de efecto de campo. En los transistores de efecto de campo, la corriente eléctrica entra por un electrodo (fuente) y sale por otro (drenador). La región del dispositivo atravesada por la corriente recibe el nombre de canal. Otro electrodo del transistor, la puerta, regula el flujo de corriente a través de dicho canal. Compete a la puerta crear un campo eléctrico capaz de llenar o de vaciar de cargas eléctricas el canal, con lo cual inicia o detiene la circulación de corriente, respectivamente. Cuando pasa corriente por el canal, el transistor está activado, y desactivado cuando no pasa. E l transistor de efecto de campo presenta una ventaja significativa: su moderado consumo de energía. Para hacerlo funcionar basta con cargar el electrodo de puerta a cierta tensión crí­tica. Una vez que la puerta adquiere la carga adecuada, no se necesita co­rriente adicional para mantenerlo activado o desactivado. Así, a no ser du­r ante la misma conmutación, el tran­sistor de efecto de campo no consume potencia. Son, por tanto, ideales para aplicaciones en las que el consu­mo de potencia ha de ser bajo, como los ordenadores portátiles, por ejemplo. 1. TRANSISTOR DE NUEVO TIPO, constituido por una mezcla de silicio y aleación de silicio-germanio. Este ingenio demostró hace pocos años una nueva técnica que superaba, de lejos, la velocidad de los dispositivos electrónicos de silicio tradicionales. TEMAS 4 Los ordenadores de grandes prestaciones prefieren los transistores bipolares, que pueden trabajar a mayores velocidades pero consumen bastante más energía. En la clase común de transistor bipolar, el NPN (negativo-positivo-negativo), los electrones van desde la zona del emisor hacia la del colector. El transistor se activa inyectando una pequeña corriente en la zona llamada base, corriente que re­baja una barrera energética inherente al material y que normalmente bloquea el paso de electrones. Cuando esta barrera cae, empieza a circular co­rriente por el transistor, que se conmu­ta entonces al estado activo. La intensidad de esta corriente es proporcional a la de la corriente inyectada en la base, aunque de valor muy superior. La base de un transistor bipolar debe contener una carga eléctrica constante de valor suficiente para mantener elevada la barrera energética, de forma que el transistor permanezca desactivado cuando no se aplica corriente a la base. Se crean estas cargas introduciendo en el silicio átomos de impurezas específicas (dopantes) durante el proceso de fabricación. Dependiendo de la naturaleza de estos átomos, la carga será positiva o negativa. Así el silicio impurificado será de tipo n cuando predominen las cargas negativas y de tipo p cuando sean las positivas las que lo hagan. L a función de un transistor bipolar depende de las propiedades eléctricas de la frontera entre el silicio de ti­pos n y p. Si relaciona dos regio­nes del mismo material semiconductor —si­licio, en la mayoría de los ca­sos— pero de tipos de impureza opuestos, se la denomina homounión. En cambio, se llamará heterounión cuando los materiales sean de diferente naturaleza. Las homouniones son mucho más fáciles de fabricar y predominan en los diseños de circuito actuales. El tamaño de un transistor, ya sea de efecto de campo o bipolar, determina su velocidad de operación. El tiempo que tardan los electrones en atravesar la base de un transistor bipolar constituye un importante fac- tor limitante de la velocidad. Toda reducción del espesor de la base disminuirá el trayecto que han de recorrer los electrones, aumentando así la velocidad a la que el transistor puede activarse y desactivarse. Además, si la base es más fina, podrá achicarse el área superficial del transistor entero, lo que a su vez permitirá un empaquetamiento más denso. Con ello me­jorará el comportamiento de la pastilla, ya que se acortarán las distancias que recorren las señales eléctricas desde un transistor a otro. La reducción de tamaño de los transistores de efecto de campo conduce a similares mejoras de las prestaciones. Estas razones han alentado el desarrollo de transistores cada vez más diminutos, siguiendo el principio de la reducción de escala: potenciar la función de un dispositivo mediante la disminución de sus dimensiones críticas. Aunque este enfoque ha hecho progresar la velocidad y la flexibilidad de la electrónica del silicio durante mu­chos años, la tendencia no puede prose­guir indefinidamente. Y el motivo de tal 2. TRANSISTOR DE EFECTO DE CAMPO (izquierda); trabaja por modulación de la intensidad de campo eléctrico en la puerta. Dependiendo del diseño del transistor, ese campo puede permitir, o detener, el paso de corriente a través del canal, de la fuente al drenador. Cuando pasa corriente, el transistor está activado. El transistor bipolar (derecha) se activa cuando limitación se desprende de la propia naturaleza del transistor bipolar. La reducción de escala conlleva la disminución del grosor y el volumen de la base del transistor; por tanto, la densidad de impurezas habrá de crecer para mantener constante la carga total de la base. En términos sencillos, habrá que apiñar el mismo número total de átomos dopantes en volúmenes cada vez menores de la base. Por desgracia una homounión de silicio con grandes concentraciones de impurezas a uno y otro lado sufre fugas de corriente. Si se continúa achicando la escala del transistor bipolar NPN, la concentración de impurezas en la base terminará por alcanzar un grado tal que seguirá pasando corriente por el transistor aunque se encuentre desactivado; esto le hace completamente inservible. Los diseños de pastillas empiezan a rozar los límites naturales de la reducción de escala. Se buscan soluciones al­ternativas para aumentar la velocidad de los dispositivos. De hecho, la limitación física que impone la escala es un argumento fundamental a favor de otros materiales semiconductores más raros, como el arseniuro de galio. Pero es el caso que se han invertido sumas ingentes en utensilios e instalaciones para la fabricación de dispositivos de silicio; convendría mucho hallar un medio para hacerlo funcionar más aprisa sin tener que abandonarlo. Gran parte de nuestro esfuerzo se ha centrado en desarrollar estas técnicas nuevas del silicio, dando cuerpo a una antigua idea. Mediados los años cincuenta hubo quienes señalaron que las heterouniones ofrecían un camino para aumentar la velocidad de conmutación de un transistor, no por reducción de su tamaño sino por alteración de sus propiedades electrónicas. Los campos eléctricos generados de un modo natural en los dos materiales que forman una heterounión pueden 84 los electrones se desplazan de emisor a colector. Una barrera de energía intrínseca impide tal movimiento, pero cuando se inyecta corriente a la base la barrera cae y los electrones circulan por el transistor. El aquí ilustrado incorpora una capa de silicio-germanio que acelera los electrones y así aumenta la velocidad del dispositivo. confinar las cargas negativas o positivas en sus dos lados. Si la composición del material de la unión varía gradualmente, en esa región de transición progresiva podrá establecerse un campo eléctrico intensificado. Herbert Kroemer propuso luego que se utilizase el campo generado en una heterounión progresiva para hacer que los electrones atravesaran rápidamente la base de un dispositivo bipolar. Al obligarles a moverse con mayor presteza, las heterouniones operarían mucho más aprisa que las homouniones de tamaño comparable. Kroemer imaginó varias parejas posibles de materiales semiconductores que acelerasen el funcionamiento de los transistores; la más prometedora era la formada por silicio a un lado y germanio al otro. La idea parecía acertada, pero el problema práctico de construir una heterounión práctica de silicio-germanio resultó tremendamente difícil. E n los años sesenta se produjo un suceso esperanzador: el desarrollo de la técnica epitaxial, que parecía muy adecuada para la delicada fabricación microelectrónica. El proceso epitaxial consiste en depositar capas de átomos sobre un material cristali­no. El cristal, o sustrato, sirve de plantilla para que las capas de acumulación reciente adopten la misma disposición atómica que el propio cristal. Dado que el silicio y el germanio tienen la misma estructura cristalina, puede depositarse una capa de un material sobre el otro, manteniendo un orden atómico coherente. Sin embargo la separación natural de los átomos de un cristal de germanio es un cuatro por ciento mayor que la de los átomos de otro de silicio. Por sí mismos los átomos de germanio se situarían a su separación normal, pero, al ser colocados sobre un sustrato de silicio mucho más grueso, se quedan enclavados en posiciones forzadas por el silicio subyacente. La capa de átomos de germanio depositada sobre un sustrato grueso de silicio experimenta, pues, una tensión enorme, que va en aumento al acumularse capas suplementarias. Finalmente se forman defectos en el germanio que alivian la tensión. Cuando se produce un defecto, hileras completas de átomos de germanio escapan de la retícula, dejando así separarse más a los restantes átomos de la capa. Para que la estructura al­cance un estado de relajación total, deben abandonar la retícula cuatro de cada cien átomos de germanio que hayan crecido a lo largo de la juntura germanio-silicio. Pero esta exclusión de átomos de germanio originaría billones de defectos en la superficie de una sola pastilla, que son demasiados para que pueda funcionar correctamente. Una forma de mitigar la tensión del cristal consiste en desarrollar sobre el sustrato de silicio una aleación de silicio-germanio, en vez de capas de germanio puro. Esta aleación presenta una separación atómica característica, intermedia entre la del silicio y la del germanio. Se requiere, no obstante, un gran cuidado al preparar la capa de aleación, ya que incluso con una composición mixta de silicio y germanio aparecen defectos si la capa es demasiado gruesa o excesivamente rica en germanio. No había forma de superar el desajuste reticular, o disparidad entre las separaciones atómicas, de los cristales de silicio y germanio. En los primeros años ochenta, la mayoría de los trabajos dedicados a ese objetivo se apoyaron en la técnica denominada epitaxia de haz molecular, por el que la película cristalina se desarrolla (o crece) dentro de una cámara de acero en la que se ha practicado el vacío has­ta una presión interior menor de una billonésima (10–12) de atmósfera. El sustrato de silicio se monta en la cámara y se TEMAS 4 calienta a 1100 oC por lo menos. Esta achicharrante temperatu­ra evapora los contaminantes del silicio y deja una superficie limpia sobre la cual puede formarse la película. Tras esta limpieza, se deja enfriar un tanto la superficie y luego se deposita una capa tampón de silicio puro sobre el sustrato, para enterrar cualquier contaminación residual. Unas cu­betas de silicio y germanio fundidos, que se encuentran en la base del apara­to, proporcionan la fuente de átomos; para formar la película deseada se dirigen haces de tales átomos hacia el sustrato de silicio, sobre el cual inciden y se acumulan en capas cristalinas. Para reducir al mínimo la tensión debida al desajuste reticular, el trabajo se centró en construir capas de aleación silicio-germanio con un contenido de germanio menor del treinta por ciento. Gracias a la epitaxia de haz molecular pudo conseguirse fabricar estas heterouniones, sin apenas defectos, aunque sólo valieron como muestras de laboratorio. E n vista de ello algunos investigadores abandonaron la epitaxia de haz molecular por otra técnica alternativa: la deposición química en fase vapor. En ella se utilizan moléculas de gas que incorporan los átomos deseados, es decir, silicio y germanio en este caso. El flujo de gas los transporta a la superficie del sustrato, donde se agrupan y forman las nuevas capas cristalinas. Esta vieja técnica es, en muchos aspectos, más sencilla que la epitaxia de haz molecular. Su mayor inconveniente son las eleva­ das temperaturas requeridas: 1100 oC para la limpieza inicial y 1000 oC para el crecimiento de las películas. So­metidos a un calor tan intenso, unos materiales ya fatigados, como los de la aleación silicio-germanio, acusan muy pronto defectos. Por otra parte, la adición de impurezas no puede hacerse con precisión a temperaturas muy elevadas. Por encima de los 800 oC los átomos de impurezas se difunden por el silicio o el germanio, apartándose de su posición inicial. La deposición química en fase vapor no permitía obtener heterouniones utilizables entre silicio y germanio mientras exigiera temperaturas tan altas. Había que encontrar un medio para realizar la deposición química en va­por a temperaturas más bajas. No­so­tros nos centramos en dos etapas esenciales del proceso que aparentemente exigían temperaturas altas: la limpie­za de la superficie de silicio antes de crecer la película y el propio desarrollo de una película exenta de defectos. La finalidad primaria de la limpieza es desalojar los óxidos de silicio que se forman cuando el silicio puro entra en contacto con el aire o la humedad. Los óxidos de silicio no tienen estructura cristalina, por lo que perturbarían la epitaxia de no ser eliminados. Además absorben el boro del aire, un material 3. SEPARACION INTERATOMICA de un cristal de germanio (morado) y de silicio (rojo); es ligeramente mayor en aquél. Este desajuste reticular (izquierda) ha hecho fracasar las tan buscadas uniones entre silicio y germanio, muy deseadas por sus propiedades electrónicas. Los átomos de germanio depositados sobre el silicio siguen inicialmente la disposición atómi- MÁQUINAS DE CÓMPUTO utilizado para impurificar el silicio, y lo atrapan en la superficie de éste a concentraciones peligrosamente elevadas. A temperatura ambiente el óxido de silicio crece sobre la superficie hasta un espesor de unas diez ca­pas atómicas; a partir de ahí actúa como una barrera que lo protege de nuevas reacciones con el aire. E s harto conocido que la inmersión de una oblea de silicio en ácido fluorhídrico elimina el revestimiento de óxido, pero el saber tradicional sostenía que los óxidos volvían a formarse instantáneamente en cuanto se exponía nuevamente la oblea al aire. En consecuencia, todos los métodos de epitaxia incluían la exposición del silicio a elevadas temperaturas dentro del horno, aun cuando ya se hubiera eliminado el óxido por medios químicos (ácido fluorhídrico). Algo me hizo sospechar que el saber tradicional se equivocaba. Cuando era alumno de doctorado y practicaba con obleas de silicio, no pude evitar que alguna se me cayera. Observé que, al enjuagarlas en agua, las obleas no se quedaban mojadas, sino que toda el agua se escurría de su superficie. Ahora bien, el óxido de silicio atrae el agua; por tanto, si la oblea no podía mojarse, tal vez ello indicara la ausencia de óxido; en muchos casos esto sucedía al cabo de varias horas de haberlas limpiado en un baño de fluorhídrico. Parecía, pues, que el óxido de silicio tardaba bastante en volver a formarse. ca de éste, pero en cuanto vuelven a su separación natural dan origen a defectos (marcados con X) que crean cortocircuitos y desbaratan la unión. El crecimiento de capas de aleación silicio-germanio libres de defectos sobre sustratos de silicio (derecha) ha permitido obtener cristales híbridos, base de un nuevo tipo de dispositivos electrónicos ultrarrápidos. 85 D entro ya de IBM, me enfrasqué en los primeros trabajos sobre el asunto y descubrí el origen de la idea falsa de la formación instantánea del óxido de silicio. Los investigadores em­p leaban entonces toscas sondas ópticas y creyeron haber detectado óxido de silicio cuando en realidad habían ob­servado la delgada capa de hidrógeno que se forma después de haber lim­pia­do el silicio en ácido fluorhídrico. El uso de sondas modernas, químicamente selectivas, ha confirmado que el silicio puede mantenerse libre de óxido mu­chas horas después del ba­ño en fluorhí­drico. La capa de hidrógeno adheri­da al silicio protege del aire la superficie y retrasa la formación de óxido. Esa capa protectora permite suprimir una etapa preparatoria de la epitaxia a temperaturas altas. La limpieza con ácido fluorhídrico no sólo admite las temperaturas bajas sino que las exige, puesto que un calor de­masiado intenso eliminaría la capa de hidrógeno. El siguiente desafío fue encontrar el medio de desarrollar una película de gran calidad a baja temperatura. Los primeros trabajos en epitaxia del silicio indicaban que el número de defectos de la película depositada aumentaba espectacularmente al descender la temperatura. Las impurezas presentes durante la deposición química en fase vapor —oxígeno y agua— se in­corporan por sí mismas a las películas con facilidad mucho mayor a tempera­turas bajas que a temperaturas altas. Dichas impurezas pueden agruparse en el seno de una capa en crecimiento, produciendo defectos en el material. Para remediar el problema hay que reducir al mínimo la concentración de átomos extraños en la cámara donde se verifica la deposición en vapor. Los experimentos de laboratorio han indicado que el crecimiento de películas sin contaminar a temperaturas inferiores a 700 oC exigiría un vacío rigurosísimo, aunque todavía menos perfecto que el requerido para la epitaxia de haz molecular. ¿Cómo podrían eliminarse los posibles focos de contaminación del interior de un aparato de crecimiento cristalino? En IBM logramos suprimirlos con bombas de vacío especiales y cierres de sellado hermético. Con­se­gui­ mos un vacío ultraelevado dentro de un tubo de vidrio, rodeado por un hor­no que suministra el calor requerido por la epitaxia. Este montaje garantiza que el aparato no aporte impurezas que obstruyan el crecimiento de la película. Una esclusa neumática especial permite cargar la cámara de crecimiento principal sin tener que exponerla a la atmósfera circundante. Esto es importante porque los contaminantes del aire se agarran tenazmente al interior de la cámara y se tarda mucho tiempo en desecarlos y bom­bearlos al exterior. Los gases que portan silicio y germanio y circulan por el aparato du­rante la deposición química pueden también ser fuente de contaminación. Por ello mantenemos muy baja la presión en el reactor, del orden de una millonésima 4. VELOCIDADES DE CONMUTACION de los transistores bipolares de silicio; han aumen­tado con los años (izquierda). La técnica del silicio-germanio acelera esa tendencia y alcanza niveles de prestación que con el silicio se creían irrealizables. Un novedoso sistema de crecimiento cristalino (derecha) ha convertido esta técnica en realidad. 86 de atmósfera, para que la cantidad de material extraño introducido por ese conducto sea mínima. Con razón llamamos a nuestro método técnica de deposición química en vapor al vacío ultraelevado. Gracias a la suma limpieza del ambiente de la cámara obtenida por estos procedimientos, el horno puede trabajar a temperaturas muy inferiores a las utilizadas en la epitaxia habitual. Nuestro grupo de IBM ha descubierto que unas temperaturas de 400 a 500 oC son suficientes para preparar películas de silicio y de aleación siliciogermanio de gran calidad. La posibilidad de fabricar una heterounión a temperaturas moderadas permite crear pastillas refinadas y flexibles. Por ejemplo, puede hacerse crecer la capa de silicio-germanio sobre una oblea de silicio ya configurada en todas las regiones químicas adecuadas a los dispositivos electrónicos que finalmente vaya a llevar la pastilla. Merced a tales patrones químicos im­presos podrá obtenerse una pastilla con una enorme densidad de transistores u otros dispositivos. Las temperaturas que emplea la epitaxia tradicional distorsionarían cualquier patrón preexistente. E n 1988, tras haber desarrollado gran parte del proceso de deposición antes referido, empecé a colaborar con otros especialistas en una ta­rea más ambiciosa: construir así transistores bipolares manejables y de alta velocidad. Comenzamos por utilizar la epitaxia a baja temperatura para construir homouniones de silicio puro. Estos dispositivos funcionaron: nuestra técnica era correcta. Desde 1989 se fabricaron en IBM los primeros transistores bipolares NPN que materializaban el concepto de Kroemer: la heterounión progresiva entre silicio y silicio-germanio. Aunque la aleación tenía menos del cuatro por ciento de germanio, dichos transistores superaban ya las posibilidades atribuidas a la tecnología del silicio. Su campo eléctrico inherente (unos 30.000 volt por centímetro a través de la base) aceleraba los electrones hasta el punto de que el tiempo invertido en atravesar la base se reducía a la mitad del requerido en los transistores de silicio sin alear. Una medida normal del comportamiento de un transistor bipolar viene dada por la dependencia que muestra su ganancia (relación de la corriente conmutada por el transistor a la corriente que se necesita para activarlo) con respecto a la frecuencia de conmutación. En una aplicación típica TEMAS 4 5. TECNICA DE CRECIMIENTO CRISTALINO ideada por el autor. Evita las devastadoras, por elevadas, temperaturas de los métodos anteriores. Las bombas de vacío, válvulas especiales y juntas herméticas impiden la entrada de contaminantes en el horno, en de un ordenador, el transistor bipolar podría tener una ganancia en torno de 100. A mayores frecuencias de conmutación, la ganancia va cayendo progresivamente. Cuando la ganancia cae a uno, el transistor pierde su razón de ser, porque entrega una corriente igual a la corriente que se le introduce para activarlo, y entonces funciona como un sencillo hilo conductor. La velocidad del transistor puede calibrarse por la rapidez con que puede conmutarse a uno y otro estado, antes de que su ganancia caiga a uno. Las primeras heterouniones progresivas que construimos en 1989 conmutaban a 75 gigahertz (miles de millones de ciclos por segundo), casi el doble de la velocidad de los dispositivos de silicio más rápidos comparables. Posteriores trabajos en IBM han hecho avanzar las heterouniones hasta velocidades de 110 a 117 gigahertz, un nivel que se consideraba imposible de alcanzar con silicio. En pruebas de revisión mis colegas y yo hemos incorporado esos dispositivos en circuitos completos que funcionaron a velocidades hasta en­tonces nunca conseguidas; la prueba era decisiva, pues los transistores muy veloces suelen serlo mucho menos en condiciones prácticas, cuando forman parte de circuitos reales. IBM y Analog Devices comercializan ya circuitos de este tipo. Uno de ellos es un conversor digital-analógico, pieza clave de la electrónica de consumo. Este conversor de silicio-germanio transforma datos numéricos en corrientes electrónicas a la velocidad récord de mil millones de conversiones MÁQUINAS DE CÓMPUTO el cual se deposita la aleación de silicio-germanio sobre las obleas de silicio. El proceso de deposición se produce en un vacío casi absoluto, con mínimas concentraciones de átomos extraños que puedan alterar la operación electrónica correcta. por segundo. Con ello iguala la velocidad de los más rápidos conversores fabricados con uniones de arseniuro de galio, pero consumiendo solamente una pequeña parte de la potencia que éstos requieren. L a aparición de circuitos integrados comerciales de silicio-germanio marca un hito en la búsqueda de medios para mejorar las prestaciones que no se basen en la miniaturización. En Analog Devices se barajaban otras aplicaciones del silicio-germanio; por ejemplo, teléfonos inalámbricos digitales capaces de manejar un flujo de datos de inusitada rapidez. Es conocido el papel esencial de los conversores digital-analógicos en la traducción de datos digitales recibidos por fibra óptica en señales analógicas destinadas al teléfono o la televisión; cuanto antes se disponga de unos conversores muy rápidos, antes llegarán al hogar y a la empresa las redes digitales de datos. También serán indispensables en equipos portátiles de comunicación, de uso cada vez más difundido. La tecnología del silicio-germanio está todavía en pañales. Para aprovechar la velocidad de los nuevos dispositivos han de modificarse multitud de diseños de circuito existentes. Hasta ahora IBM es la única compañía que ha demostrado tener capacidad para integrar en circuitos un número apreciable de transistores bipolares de alta prestación basados en heterounión. Nuestro grupo ha demostrado que los materiales de silicio-germanio pueden mejorar también el comportamiento de los transistores de efecto de campo, pero no se han integrado esos dispositivos en circuitos más amplios. An­dando el tiempo, la técnica deberá abrir paso a la combinación de múltiples funciones (transmisión, conversión de señales, recepción) en una sola pastilla. De esa manera, podrían hacerse realidad muchas fantasías como los televisores interactivos en forma de reloj de pulsera. Leybold-A.G. comenzó a fabricar ha­ce unos años una versión comercial de nuestro aparato de deposición química en vapor al vacío ultraelevado. Una vez que ya se tiene un equipo estándar con el que trabajar, los ingenieros pueden concentrarse en el desarrollo de circuitos cada vez más complejos y en buscar caminos para ampliar la gama de dispositivos de heterounión silicio-germanio susceptibles de combinarse en una sola pastilla. BIBLIOGRAFIA COMPLEMENTARIA P hysics of S emiconductor D evices . S. M. Sze. Wiley Interscience, 1981. E volution of the MOS T ransistor : From Conception to VLSI. Chih-Tang Sah en Proceedings of the IEEE, volumen 76, número 10, páginas 1280-1326; octubre de 1988. UHV/CVD Growth of Silicon and Silicon-Germanium Alloys: Chemistry, Physics, and Device Applications. Bernard S. Meyerson en Proceedings of the IEEE, vol. 80, n.o 10, págs. 1592-1608; octubre de 1992. 87 Silicio encantado Elizabeth Corcoran L as pastillas de silicio que emiten luz en respuesta a un estímulo eléctrico (y no óptico) podrían, en teoría, sellar el matrimonio de la óptica con la electrónica y crear una familia de nuevas generaciones de conmutadores relámpago y otros componentes para telecomunicaciones y ordenadores. No suenan todavía las campanas nupciales, pero se percibe con toda nitidez la llegada del silicio poroso. El silicio emisor de luz salió a la palestra en el congreso de la Sociedad de Investigación de Materiales (MRS) de 1991. Leigh T. Canham y sus colegas, de la Oficina de Investigación de la Defensa en Great Malvern, Inglaterra, sostuvieron allí que las obleas de silicio, reducidas a estructuras afiladas de unas decenas de angstroms de anchura mediante un baño de ácido fluorhídrico y excitadas por la luz, emitían luminiscencia en cierta gama de colores. La comunicación planteó muchas más preguntas que respuestas aportó. Los británicos afirmaron también haber creado obleas capaces de emitir electroluminiscencia (emisoras de luz si se excitaban mediante electricidad), pero suministraron pocas pruebas. Y no pasaron de la especulación cuando se les solicitó la razón de que el silicio fuera capaz de dar luz. El debate ganó fuerza con los meses. En una reunión de la MRS posterior al congreso, el Instituto de Tecnología del Estado Sólido de Munich y la Universidad de Agricultura y Tecnología de Tokio presentaron pruebas de electroluminiscencia. Por su parte, las empresas IBM y Spire expusieron la fabricación de diodos de silicio que actuaban como diodos emisores de luz. Pero no es fácil fabricar esos dispositivos: hay que crear emparedados de capas cargadas positiva y negativamente de silicio y silicio poroso y después superponer un contacto eléctrico sin dañar el material. ENTRE LOS SEMICONDUCTORES insolitos de emisión de luz hemos de citar el germanio, esculpido en forma de “alambres cuánticos” por investigadores del Instituto del Triángulo de Investigación. 88 Extrapolando de su trabajo en células fotovoltaicas, los expertos de Spire añadieron una capa cargada negativamente de óxido de indio y zinc (ITO) encima del silicio poroso. El ITO es transparente a la luz visible; por tanto, aplicaron una tensión y percibieron una luz anaranjada que salía de la parte superior del dispositivo. Los expertos de IBM construyeron un diodo más tradicional que emitía luz desde el borde. Rodearon el silicio poroso de capas de silicio convencional cargadas negativa y positivamente, y después grabaron el material. A efectos prácticos, no basta con que el silicio poroso transforme la electricidad en luz; debe hacerlo de manera rentable. Pero nadie quiere pronunciarse sobre los rendimientos que haya logrado. El material de Namavar, por ejemplo, necesita unos 10 volts para producir luz “visible”. Eso dice mientras confía rebajar el voltaje preciso a dos volts mejorando los contactos. Trabajo experimental aparte, no existe una explicación racional del comportamiento insólito del silicio poroso. De acuerdo con la hipótesis que capitanea Canham, el silicio poroso estaría formado por “cables cuánticos”, estructuras que confinan los movimientos de los electrones a una dimensión, con lo que favorecen la recombinación de electrones y cargas positivas. Esas recombinaciones producirían la luz. Por contra, los físicos del Instituto Max Planck de Investigación del Estado Sólido de Stuttgart atribuyen la fotoluminiscencia al siloxeno, compuesto de silicio, oxígeno e hidrógeno. El siloxeno se caracteriza por las propiedades que asociamos hoy al silicio poroso. Se acaba de demostrar que la superposición de siloxeno sobre silicio cristalino (con una capa intermedia de disiliciuro de calcio) emitía también luminiscencia; y se supone que ese material se dejaría manipular mucho mejor que el quebradizo silicio poroso. El grupo de Rama Venkatasubramanian, del Instituto del Triángulo de Investigación, en Carolina del Norte, decidió abordar la cuestión desde otro frente. “Si el efecto era válido en el silicio, pensaron, debería poder reproducirse en otros semiconductores.” Para someter a prueba esa condición, recurrieron a la fotolitografía, técnica de alta precisión que se emplea para grabar en germanio cables cuánticos. En la Reunión Internacional de Dispositivos Electrónicos, de diciembre de 1991, el grupo del Triángulo hizo público que, excitado con luz, el germanio emitía una luminiscencia rojiza. Pero ni siquiera esos resultados apuntan concluyentemente a un efecto cuántico; queda todavía allí flúor que podría causar la luminiscencia. Tampoco acaba de entenderse la paradoja de que esas técnicas de grabado no hayan producido silicio emisor de luz y sí lo ha hecho el tratamiento con ácido fluorhídrico, menos controlado. Venkatasubramanian ve la explicación en las diferencias entre las estructuras electrónicas (o intervalo de banda) del silicio y el germanio. Confía, sin embargo, en que, si consigue que el germanio emita luminiscencia con electricidad, dé con el método para lograr idéntico resultado con el silicio. Por último, sabido es que el silicio ópticamente excitado emite una gama amplia de colores; la gama del silicio eléctricamente excitado es todavía menor. Canham ha apreciado colores anaranjados y amarillos en sus experimentos de electroluminiscencia, pero no verde. TEMAS 4 Futuro de la industria de los semiconductores G. Dan Hutcheson y Jerry D. Hutcheson Tal vez estén contados los días de desarrollo vertiginoso, pero puede que el resultado sea una mayor variedad L a capacidad de almacenar y proce ­sar información de mil maneras ha sido esencial para el progreso de la humanidad. Desde las re­motas incisiones en arcilla de las tablillas sumerias hasta la imprenta de Gu­tenberg, el sistema decimal de Dewey y los semiconductores, el almacenamiento de la información ha constitui­do el catalizador de sistemas legales, políticos y sociales de complejidad creciente. También la ciencia moderna está estrechamente vinculada al proce­samiento de la información, con el cual mantiene cierta simbiosis. Los avances científicos han permitido almacenar, extraer y procesar cada vez más información, gracias a cuyo bagaje se han producido nuevos progresos. La fuerza motriz de este empeño decisivo, la que abrió una nueva era en los últimos decenios, fue la electró­ ni­ca de semiconductores. Los circuitos integrados originaron no sólo orde­ nado­res personales que han transformado el mundo empresarial, sino también sistemas de control para el mejor funcionamiento de las máquinas y sistemas de ayuda médica que salvan vidas humanas. De paso han hecho brotar industrias que cifran sus ingresos en billones de pesetas y dan trabajo a millones de personas. Estas y otras G. DAN HUTCHESON y JERRY D. HUTCHESON han consagrado su vida profesional al progreso de la fabricación de semiconductores. Jerry, físico de formación, trabajó desde 1959 en RCA, Motorola y otras empresas. En 1976 fundó la compañía consultora VLSI Research, Inc. Su interés se centra en las interacciones de la técnica y la economía en la fabricación de semiconductores. Su hijo Dan es economista. En 1981 desarrolló el primer modelo de simulación basado en costos del proceso de fabricación para orientar a las empresas en la elección del equipo necesario. 90 muchas ventajas derivan, en buena parte, de la capacidad de integrar cada vez más transistores en una pastilla, a unos costes en continuo descenso. Esa capacidad, que no tiene precedentes en ningún otro sector industrial, se halla tan arraigada en el de los semiconductores que se toma como una auténtica ley. No obstante, de vez en cuando se expresan temores de que los obstáculos técnicos y económicos lleguen pronto a frenar la evolución. Son muchas las veces que los expertos han vaticinado el inminente fin del espectáculo, pero la creatividad y el ingenio de otros colegas han echado por tierra sus predicciones. En este momento, cuando el coste de construir una nueva planta de semiconductores roza el billón de pesetas y la densidad de transistores se aproxima a los límites teóricos impuestos por las técnicas utilizadas, muchos se preguntan qué va a hacer esta industria cuando finalmente tropiece con barreras de veras insalvables. En 1964, a los seis años de la invención del circuito integrado, Gordon Moore observó que el número de transistores que podían integrarse en una pastilla se duplicaba a un ritmo anual. Moore, uno de los fundadores de Intel Corporation en 1968, predijo con acierto que esa tasa se mantendría en el futuro inmediato, lo que ha venido a llamarse ley de Moore y ha tenido importantes consecuencias. Dado que la densidad doble no implicaba mayor inversión, el coste por transistor se reducía a la mitad en cada tanda de duplicación. Al multiplicar por dos los transistores, una pastilla de memoria puede almacenar el doble de datos. Con mayores niveles de integración se puede aunar un mayor número de funciones en la pastilla; una disposición espacial comprimida de los componentes, de los transistores por ejemplo, facilita una interacción más célere. Los usuarios han podido así obtener por el mismo dinero una potencia informática acrecentada, lo que ha estimulado tanto las ventas de microcircuitos como la demanda de potencias de procesamiento crecientes. Para asombro de muchos expertos, incluso del propio Moore, la integración continuó creciendo a un ritmo sorprendente. Cierto es que, al final de los setenta, se había desacelerado el paso; el número de transistores se duplicaba cada dieciocho meses. Pero desde entonces el ritmo se ha mantenido y hoy en día existen en el mercado circuitos integrados con más de seis millones de transistores y componentes electrónicos de 0,35 micrometros de dimensión transversal. Se espera que se vendan pronto pastillas con diez o más millones de transistores y de 0,25 e incluso de 0,16 micrometros. No vaya a creerse que ha sido fácil llegar hasta los microcircuitos actuales; los fabricantes han tenido que superar, en una carrera erizada de obstáculos, notables limitaciones en sus equipos y procesos de producción. Ninguno de estos problemas resultó ser la temida barrera final cuya superación exigiera costes tan elevados como para detener o por lo menos frenar el avance de la técnica y, por tanto, el desarrollo de este sector industrial. Los sucesivos impedimentos, empero, han sido cada vez más imponentes por razones ligadas a las técnicas en que se funda la fabricación de semiconductores. Se construye un microcircuito crean­do e interconectando transistores so­bre una lámina de silicio para formar sistemas electrónicos complejos. El proceso de fabricación consta de una serie de etapas, o capas de máscara, en las que se depositan sobre el silicio pelícu­las de diversos materiales —algunos de ellos fotosensibles— y se exponen luego a la luz. Tras la deposición y el tratamiento litográfico, se procesan dichas capas para “grabar” TEMAS 4 1. MAQUETA DE CIRCUITOS. Registra el diseño de una pastilla. Las distintas capas de la pastilla se muestran en colores diferentes. La imagen ilustra parte de los planos del futuro microprocesador Power PC 620 de Motorola. los patrones que, en alineación exacta y combinados con los de las capas sucesivas, producen los transistores y sus conexiones. Suelen obtenerse 200 o más pastillas a la vez sobre un delgado disco u oblea de silicio. En el primer juego de capas de máscara, se depositan películas aislantes de óxido para formar los transistores. A continuación se extiende sobre esas películas un revestimiento fotosensible. Mediante una máquina posicionadora por pasos, similar a una am­pliadora fotográfica, se expone ese polímero fotosensible. La máquina posicionadora emplea un retículo o máscara para proyectar un patrón sobre el polímero fotosensible. Una vez expuesto, el polímero se revela, perfilándose así los espacios —ventanas de contacto— donde se interconectan las diferentes capas conductoras. Un agente grabador ataca entonces la película de óxido al objeto de que puedan establecerse los contactos eléctricos con los transistores. Se elimina el polímero fotosensible. Más juegos de capas de máscara, con etapas de deposición, litografía y ataque muy similares, crean las películas conductoras de metal o polisilicio necesarias para enlazar los transistores. La fabricación de una pas­tilla requiere unas 19 capas en total. L a física subyacente a estos procesos fabriles induce a imaginar posibles obstáculos que se opondrían a un progreso continuo. En primer lu­gar, el relacionado con el límite de resolución de Rayleigh, así llamado en honor del premio Nobel John William Strutt, tercer barón de Rayleigh. En virtud de ese límite, el tamaño de las características más pequeñas que puede distinguir un sistema óptico de abertura circular es proporcional a la longitud de onda de la fuente luminosa dividida por el diámetro de la abertura del objetivo. En otras palabras, cuanto más corta sea la longitud de onda y mayor la abertura, más fina será la resolución. Dicho límite constituye una ley fundamental de este sector industrial, puesto que sirve para determinar el tamaño mínimo de los transistores materializables en una pastilla. En la litografía de los circuitos integrados la fuente de luz al uso es la lámpara de mercurio. Sus rayas espectrales más útiles para estos fines se producen a MÁQUINAS DE CÓMPUTO los 436 y 365 nanómetros, las llamadas rayas g e i del mercurio. La primera de ellas es visible para el ojo humano y la última apenas sobrepasa la visibilidad en el ultravioleta. Las aberturas numéricas varían desde un extremo bajo cercano a 0,28 micrometros para lentes industriales corrientes hasta un valor de unos 0,65 para las de herramientas litográficas de pun­t a. Considerando estos valores jun­to con otros aspectos derivados de las demandas de la fabricación en masa, se obtiene una resolución límite en torno a 0,54 micrometros para lentes de raya g y de 0,48 para las de raya i. Hasta mediados de los ochenta se aceptó como límite práctico el funcionamiento en la raya g. Pero uno tras otro se fueron allanando los obstáculos que impedían el funcionamiento en la raya i. Ocurrió de una manera que ilustra las complejas relaciones existentes entre economía y técnica en esta industria. No sólo se salvaron las barreras de orden técnico, sino que resultó que algunas otras no eran sino simples consecuencias del nivel de riesgo tolerado por la empresa. Esta historia tiene mucho que ver con la actual situación del sector, próxima a los límites prácticos del funcionamiento en la raya i. Una de las dificultades para el funcionamiento en la raya i estribaba en que casi todos los vidrios de las lentes son opacos a esas frecuencias, lo que obligaba a utilizar el cuarzo. Aunque las lentes de cuarzo eran realizables, se aducía que sería difícil comprobar la alineación de configuraciones que no son visibles. Además sólo un se­tenta por ciento de la radiación en raya i atraviesa el cuarzo; el resto calienta la 91 1 OBLEA DE SILICIO PREPARADA POLIMERO FOTOSENSIBLE LUZ PROYECTADA CAPA DE DIOXIDO DE SILICIO CAPA DE NITRURO DE SILICIO SUSTRATO DE SILICIO RETICULO (O MASCARA) 2 REPETICION DE UN CICLO SIMILAR PARA FORMAR UNIONES METALICAS ENTRE TRANSISTORES 6 OBJETIVO PROYECCION REPETIDA DE PATRONES SOBRE LA OBLEA CONECTOR METALICO 5 NUEVO POLIMERO FOTOSENSIBLE SOBRE LA OBLEA. SE REPITEN LOS PASOS 2 A 4 DOPADO POR BOMBARDEO IONICO DE LAS ZONAS ATACADAS 3 ELIMINACION DEL POLIMERO FOTOSENSIBLE EXPUESTO 4 REGION DOPADA ATAQUE POR GASES DE LAS ZONAS NO PROTEGIDAS POR POLIMERO FOTOSENSIBLE 2. LAS PASTILLAS SE FABRICAN en ciclos de etapas repetidas hasta veinte veces. De una oblea de silicio con recubrimiento fotosensible se obtienen muchas pastillas a la vez (1). En cada ciclo se proyecta repetidamente un patrón distinto en la oblea (2), formándose una pastilla en cada posición de la imagen. El lente, con la posible distorsión consiguiente de la imagen. Y no acababan ahí los problemas. El límite de Rayleigh fija también el intervalo dentro del cual se mantiene enfocado el patrón proyectado por la lente. La restricción de la profundidad de enfoque, llamada profundidad de campo, va en contra de los límites de resolución; a mejor resolución, menor profundidad de campo. La profundidad de campo de las lentes aludidas es de unos 0,52 micrometros en las mejores lentes de raya g y de 0,50 en las de raya i. Profundidades tan exiguas exigen que la superficie de la oblea sea extremadamente plana, mucho más de lo 92 recubrimiento fotosensible se elimina (3); se atacan con gases las zonas expuestas a la luz (4). Dichas zonas se bombardean con iones (“dopado”), creando transistores (5). Estos se conectan luego al añadir capas de metal y de aislante en sucesivos ciclos (6). que hace pocos años podía conseguirse a lo largo de la diagonal de una pastilla grande con el mejor equipo disponible. Para superar tales inconvenientes se idearon soluciones nuevas; por ejemplo, métodos de acabado que aseguraban superficies perfectamente planas. Mediante ajustes finos de los bordes de los patrones del retículo se pudo desplazar de fase la radiación de raya i entrante. Se lograba así una de­finición más nítida de los bordes y, por tanto, dimensiones menores, con lo que se soslayaba el límite de Rayleigh. Uno de los últimos retoques consistió en aceptar un valor más bajo de la constante de proporcionalidad, que guarda rela- ción con el grado de contraste de la imagen proyectada sobre la oblea durante la litografía. Para el funcionamiento en raya i los fabricantes se armaron de coraje y aceptaron una constante de proporcionalidad inferior a la que hasta entonces se había considerado práctica. Esto im­plicaba unos márgenes más reducidos durante la fabricación y exigía controles más rígidos sobre los procesos de litografía, deposición y ataque para que el número de pastillas aceptables por oblea (el rendimiento) se mantuviese elevado. Gracias a tales innovaciones, hoy es pura rutina manejar dimensiones de 0,35 micrometros en raya i. TEMAS 4 o que realmente se discutía en este último caso era la pérdida de contraste que el fabricante estaba dispuesto a tolerar. Con un contraste perfecto, la imagen creada en el polímero fotosensible es nítida. Lo mismo que tantas otras limitaciones del sector, la relación de contraste parecía una barrera técnica cuando en realidad entrañaba una decisión arriesgada. Se comprobó que con una menor relación de contraste no disminuían los rendimientos, siempre que en otras partes del proceso se aplicasen controles más estrictos. Es difícil predecir cuándo se agota­rá, si es que ello ocurre, esta vena de mejoras creativas. No obstante, antes de topar con auténticas barreras técni­cas se dejará sentir la repercusión económica de esa aproximación a las mismas. Sabido es que los costes implicados en la consecución de niveles más elevados de prestaciones de la pastilla crecen con gran rapidez conforme nos acercamos a los límites de determinada técnica de fabricación, sobrepasados luego. Los costes en aumento podrían arrastrar los precios hasta más allá de lo que los compradores es­t arían dispuestos a tolerar, provocan­do el estancamiento del mercado antes de tropezar con las barreras técnicas. Pero cuando por fin se asienta una nueva técnica de fabricación, los costes de las pastillas comienzan a descender. En ese momento la industria ha pasado de una curva coste-prestaciones asociada a la técnica antigua a otra curva propia del nuevo proceso. En efecto, el salto de una técnica a otra hace que la curva de costes descienda y aleja más los límites técnicos. Cuando tal cosa sucede se pueden conseguir niveles de prestaciones más altos sin elevar los costes, lo cual mueve a los compradores a sustituir sus viejos equipos. Lo sabe muy bien la industria electrónica, donde los productos suelen quedarse anticuados antes de su total desgaste. Los principios hasta aquí expuestos se aplican a toda clase de pastillas, pero las de memoria son las que cubren un mayor volumen de negocio y, por varios conceptos, son las más representativas. En veinticinco años el precio de un megabyte de memoria de semiconductores ha descendido desde 70 millones a menos de 5000 pe­setas. Pero en el mismo período el costo de construir una fábrica para producir las pastillas se ha elevado desde menos de 500 millones hasta los 150.000 millones de pesetas, con lo que sólo unas pocas firmas muy importan­tes pueden abordar esta actividad. La MÁQUINAS DE CÓMPUTO imparable ascensión de estos costes, léctrica; por consiguiente, las DRAM y sobre todo disparada por los gastos otras pastillas similares requieren que implica superar barreras técnicas materiales con una constante dielécca­da vez más formidables, obli­ga de trica elevada. nue­vo a centrar la aten­ción en los límia búsqueda de nuevas fuentes de tes de la in­dustria de los semiconducluz para litografía es asimismo tores. No es probable que su­fra un parón a impresionante. La mayor finura de corto pla­zo. Pero nos acercamos a barre- re­solución exige longitudes de onda ras tan elevadas que el superarlas pro- más cortas. Pero la luz de mercurio al bablemente exigirá cambios mucho más uso emite muy poca energía en longidrásticos que en ocasiones anteriores. tudes de onda inferiores a los 365 Un breve análisis de los obstáculos per- nanómetros de raya i. Los láseres excímeros descienden hasta unos 193 mitirá comprender las razones. En su mayor parte provienen de las nanómetros, pero por debajo de esa estructuras de película delga­da que longitud de onda generan muy poca componen el circuito integrado o de las energía. En los últimos años se ha fuentes de luz necesarias para formar aplicado la litografía por láser excílas finísimas pistas conductoras, o de mero para fabricar pastillas de aplicala propia an­chura de dichas pistas. En ción especial, de grandes prestaciones, ciertos casos se relacionan con la cons- en pequeños lotes. Para longitudes de tante dieléctrica de la película ais- onda aún más cortas las fuentes de lante. La constante dieléctrica nos rayos X constituyen el último recurso. indica la capacidad que posee una pelí- Sin em­bar­go, los resultados producidos cula aislante para evitar corrientes de por 20 años de investigación sobre la fuga entre las pistas conductoras, litografía con rayos X sólo han sido sumamente próximas, de la pastilla. modestos y no existen en el mercado Cuantos más transistores se integren pastillas fabricadas por tal procedien la pastilla, más densamente agru- miento. Al aparecer obstáculos técnicos crepadas estarán estas pistas, con lo que cen también las barreras económicas, aumentará la diafonía entre ellas. Para evitarlo podría reducirse el usualmente manifestadas en elevaciovalor de la constante dieléctrica, lo que nes de coste de los equipos, sobre todo haría más impermeable a la diafonía el aislante. Pero RELACION PRECIO A PRESTACIONES esto, a su vez, origina una doble búsqueda: por un lado, CURVAS DE COSTE DE FABRICACION de materiales nuevos de más baja constante dieléctrica y, por otro, de nuevas estructuras peliculares capaces de SALTO TECNICO reducir todavía más la constante dieléctrica total. Se está investigando la posibilidad de sembrar la película aislante con diminutos huecos para aprovechar la bajíLIMITE SUPERIOR DE PRECIOS sima constante dieléctrica del aire o del vacío. En otros lugares de la pastilla se necesitan materiales con la propiedad opuesta: una elevada constante dieléctrica. La mayoría de los E1 E2 T1 T2 circuitos integrados requieBarreras Barreras económicas técnicas ren condensadores. En una memoria dinámica de acceso PRESTACIONES DEL PRODUCTO aleatorio (DRAM) cada bit se FUENTE: VLSI Research, Inc. almacena en un condensador, dispositivo capaz de rete- 3. UNA CURVA DE COSTES caracteriza un sistema de ner la carga eléctrica. (Un fabricación determinado. En las barreras técnicas T1 condensador cargado repre- y T2 una pequeñísima mejora de prestaciones requiere un enorme aumento de coste. Pero mucho antes se senta el 1 binario; uno des- tropieza con las barreras económicas, E y E , en la 2 cargado, el 0.) Lo normal es intersección de las curvas con la línea que1 representa que la capacitancia disponi- los precios máximos tolerados por los usuarios. Los ble en la pastilla se quede saltos técnicos hacen descender la curva a la posición corta. La capacitancia es pro- de color más oscuro. Entonces mejoran las prestacioporcional a la constante die- nes y las barreras pasan a ser E2 y T2. L PRECIO L 93 ¿Cuánto rinde el dinero? D muchos— que en absoluto son linea­ les. Desde un punto de vista econó­ mico, el carácter no lineal distingue a la industria de los semiconductores de cualquier otra gran industria; no sólo eso: también hace inadecuados todos los demás modelos. Las inversiones en equipos e inves­ tigación que periódicamente necesita este sector son bastante grandes y crecen exponencialmente. Además, como en toda empresa, las inversio­ nes en estos conceptos y otros análo­ gos deben generar un beneficio saneado. Pero hoy día las firmas de semiconductores carecen de medios para determinar con precisión qué parte de su rendimien­to financiero procede de sus inversio­ 1971-75 1976-84 1985-94 nes en equi­p o, lo que les plantea un grave pro­ blema. Des­de hace años venimos trabajando en métodos descriptivos del sector que tengan en cuenta los elementos no lineales, con miras a 4 modificar el modelo 1973 ROI. 3 En el modelo clásico 1974 se acude a inversiones 1976 de capital adicionales 2 cuando la capacidad real 1993 1987 de un fabricante no alcanza la capacidad 1979 1994 1 prevista (entendida ésta 1981 como la capacidad que 1971 1986 la empresa cree nece­sa­ 0 ria para satisfacer la 0 demanda en un futuro INVERSION CRECIENTE inmediato). Estas dife­ RELACION DE INVERSION rencias suelen deberse EN PLANTA Y EQUIPO A I+D al envejecimiento del FUENTES: Research, Inc. la relación entre beLA CARTA VLSI DE FASE muestra equipo y a la pérdida de neficios e inversiones en nuevas técnicas a lo largo personal experto. En el de distintas épocas de Intel. Uniendo los puntos sector de los semicon­ señalados se trazan bucles que representan ciclos ductores no sólo hay que de alrededor de seis años (en diferentes colores). En anticiparse constante­ cada ciclo se pasa de un período de escasa rentabimente a los aumentos de lidad con fuertes inversiones a otro de muy buenos capacidad, sino que tam­ rendimientos en efectivo a partir de inversiones bién se deben prever y mucho menores. Las flechas verdes señalan el año planificar los grandes de cada ciclo en que Intel obtuvo mayores ganancias y gastó menos en equipo. avances en la propia téc­ nica de fabricación. Para dar cuenta de este efecto de frenado cimiento y de avance técnico relati­ técnico, empezamos por considerar la vamente pequeños. Los autores no relación del efectivo generado en cual­ tienen noticia de que el modelo se quier año determinado con las inver­ haya comportado bien en el sector de siones en nuevas técnicas del año los semiconductores, en el que hay anterior. En este contexto entendemos numerosos índices de variación por nuevas técnicas los nuevos equi­ —prestaciones del producto y coste pos de fabricación y la investigación y del equipo de fabricación, entre otros desarrollo. El efectivo generado RENTABILIDAD CRECIENTE 94 RELACION DE NUEVO BENEFICIO GENERADO A INVERSION EN EQUIPO E I+D urante sesenta años la mayoría de las empresas se sirvieron del mismo modelo para registrar los ren­ dimientos financieros de sus inversio­ nes en equipos, investigación, gestión de mercados y todos los demás con­ ceptos. Desarrollado por Donal­d­son Brown de Du Pont en el umbral de la primera guerra mundial, la primera empresa en aplicarlo fue Ge­n e­ral Motors en su esfuerzo por so­bre­pasar a Ford Motor Company como líder del mercado de automóviles. Desde su adopción universal, el modelo en cuestión, llamado de ren­ dimiento de la inversión, o ROI (return on investment), ha mantenido su vali­ dez en industrias con índices de cre­ durante el año es el beneficio bruto resultado de las operaciones, inclu­ yendo el dinero destinado a la reinver­ sión en investigación y desarrollo. Esta relación nos indica el incre­ mento de beneficios por incremento de inversión con un año de desfase. Constituye un exponente real del grado de rentabilidad que alcanza una compañía gracias a sus inversiones en técnicas cada vez más costosas. El ROI, por el contrario, mide los benefi­ cios incrementales durante el año pro­ cedentes de todas las inversiones, no solamente de las del año anterior. Hasta aquí no hemos hecho más que incluir en las nuevas técnicas el equipo de fabricación incorporado y la investigación y desarrollo. Pero el efecto del frenado técnico se hace más acentuado cuando se separan estas dos categorías y se dilucidan los flujos y reflujos entre ellas. Una manera de conseguirlo es calcular año tras año la razón entre estas dos inversio­ nes y después representarla en fun­ ción de la relación antes mencionada entre efectivo generado en el año y las inversiones en nuevas técnicas del año anterior, como ilustra el adjunto diagrama o carta de fase para la com­ pañía Intel. Conectando los puntos marcados en el diagrama se trazan bucles correspondientes a ciclos de unos seis años. En cada uno de ellos, Intel pasa desde un período de operaciones no rentables causadas por fuertes inver­ siones de capital hasta otro período en el que se consiguen grandes bene­ ficios derivados de inversiones de capital mucho más ligeras. En el grá­ fico se ve que Intel entra ahora en otro período de fuerte inversión de capital. Otras empresas de semiconductores (y asimiladas) recorren ciclos pareci­ dos, si bien varían de una a otra los períodos de rentabilidad y de fuertes inversiones. La parte inferior de cada bucle es más baja que la del bucle precedente. Esto quizá sea la información más interesante que ofrece la ilustración: significa que los beneficios de Intel, con relación a los gastos que los han generado, descienden en cada ciclo sucesivo. Al mostrar el ciclo completo entre las inversiones en técnica y su rentabilidad, la carta de fase es un poderoso instrumento para observar y gestionar los ciclos de inversión peculiares de esta singular y dinámica industria. —G.D.H. y J.D.H TEMAS 4 MÁQUINAS DE CÓMPUTO 109 AMBITO TEMPORAL DE LOS SISTEMAS LITOGRAFICOS 256M ALINEADORES POR CONTACTO ALINEADORES POR PROXIMIDAD 108 64M ALINEADORES POR PROYECCION PRIMERAS POSICIONADORAS DE RAYA G NUMERO DE TRANSISTORES POR PASTILLA de litografía. Las mejoras del equipo litográfico adquieren especial importancia porque determinan las dimensiones mínimas que pueden materializarse en una pastilla. Aun­que esta posible dimensión mínima se haya ido achicando un 14 por ciento anual desde los inicios del gremio, el precio del equipo ha subido cada año un 28 por ciento. Al principio el coste se decuplicaba con cada nueva generación de equipo litográfico. De entonces acá se ha logrado reducir un aumento tan fuerte a una simple duplicación de precios entre una generación y otra de alinea­ dores de posición. Otros tipos de equipos utilizados en la fabricación de semiconductores han conocido un comportamiento similar. Esta es la razón de que los costes generales de la creación de fábricas de semiconductores hayan crecido a la mitad del ritmo predicho por Moore, duplicándose cada tres años. Intel se gasta el equivalente de más de 140.000 millones de pesetas en cada nueva planta que abre en EE.UU.; Samsung y Siemens construyen factorías que costarán cerca de 180.000 millones y Motorola proyecta una planta que podría llegar a los 300.000 millones. Aunque pueden construirse fábricas más pequeñas por menos dinero, su rendimiento es menor. Estos enormes costes de las fábricas confirman que nos aproximamos a barreras técnicas imponentes. Sin embargo, nos parece infundado el temor de que sean insalvables y fuercen a un parón del sector. Lo que sí puede suceder es que los precios de los semiconductores aumenten y se desacelere el ritmo de cambio. Ello además tendría algún precedente. Entre 1985 y 1988 el coste por bit de memoria creció un 279 por ciento sin consecuencias catastróficas; antes bien, 1988 fue uno de los mejores años en la industria de semiconductores. Cuando el coste por bit inicie una su­b ida incesante, probablemente sobrevendrá una transformación industrial que altere los modelos de empresa. En la práctica, toda industria que perdure algunos decenios habrá pa­sado por tales transformaciones. Pese a su carácter singular, la industria de los semiconductores se rige también por los principios económicos de la oferta y la demanda. Podemos, pues, acudir a la historia de sectores más antiguos, como la aviación, los ferrocarriles y la automoción, para buscar episodios ilustrativos de lo que cabe esperar. Como en los semiconductores, los comienzos de la industria aeronáutica 16M POSICIONADORAS AVANZADAS DE RAYA G 107 80786 POWER PC 620 PRIMERAS POSICIONADORAS DE RAYA I 4M POSICIONADORAS AVANZADAS DE RAYA I POWER PC 601 PRIMERAS POSICIONADORAS DEL UV PROFUNDO PENTIUM PRO POWER PC 604 PENTIUM 68040 1M 106 80486 256K 68030 80386 68020 64K 105 80286 68000 16K 104 8086 4K 8080 6800 1K MICROPROCESADOR INTEL MICROPROCESADOR MOTOROLA CAPACIDAD DE MEMORIA (DRAM) EN BITS 4004 103 1970 ’72 ’74 ’76 ’78 ’80 ’82 ’84 ’86 ’88 ’90 AÑO DE DISPONIBILIDAD ’92 ’94 ’96 ’98 2000 FUENTE: VLSI Research, Inc.; Integrated Circuit Engineering Corporation 4. LAS DENSIDADES DE TRANSISTORES en los circuitos integrados han crecido exponencialmente, como indica la gráfica logarítmica. Para sostener tal ritmo se han utilizado en la fabricación sucesivos sistemas litográficos que proyectan en las obleas los patrones de circuitos. La mayor regularidad y simplicidad del diseño han conseguido elevar las densidades de las pastillas de memoria. fueron muy rápidos. En menos de cuarenta años se pasó del monoplano de los hermanos Wright al Clipper de Pan Am y a las Flying Fortress y Super­for­ tress. También el sector atendió primeramente a los mercados militares antes de dedicarse a la aviación comercial. La in­dustria aeronáutica sostuvo su crecimiento disminuyendo los costes por pasajero y kilómetro recorrido, a la par que reducía los tiempos de vuelo. Los dos objetivos son equiparables a los tenaces esfuerzos por aumentar la densidad de transistores en una pastilla y mejorar así las prestaciones, reduciendo además los costes. La aviación progresó du­r ante de­cenios concentrando su investiga- ción y desarrollo en aumentar la capaci­dad de pasajeros y la velocidad. Final­mente se llegó a un máximo de capacidad con el Boeing 747 y a un tope de ve­locidad con el Concorde. El 747 tuvo un gran éxito, pero sus numerosas plazas sólo se llenaban en las rutas más largas. El Concorde, por su par­te, vio limitada su utilización por la contaminación acústica que creaba. Pero ambos representaron un límite, en el sentido de que la técnica no permitía en condiciones realistas obtener velocidades y capacidades mayores. Pese a ello la aviación no cayó en barrena, sino que entró en una segunda fase en la cual se diseñaron aviones más pequeños y diversos, construidos para 95 mercados específicos. El foco de la investigación y desarrollo ya no se centraba en la velocidad y la capacidad, sino en un fun­ cio­na­miento eficaz y silencioso y en la comodidad del pasajero. miento y la diversidad de productos, de modo similar a lo que empieza a verse en la fabricación de microcircuitos. Las empresas aplican ahora la técnica a potenciar las líneas de productos más que a reducir los costes de fabricación. Hay que ubo en los ferrocarriles tendestacar que estas industrias dencias similares. Desde el han prosperado pese a la subida siglo pasado hasta bien entrade los costes. dos los setenta la potencia de Puede no faltar mucho para tracción de las locomotoras fue que la industria de los semiconaumentando continuamente ductores toque techo. El ritmo con el fin de reducir los costes de la integración de transistores del transporte de mercancías. declinará y los costes de fabricaLa inversión de capital en las ción empezarán a disparar­se. locomotoras era cuantiosa, Pero como sugiere la experienpero la potencia de tracción cia de la aviación, el ferrocarril crecía más deprisa que los cosy el automóvil, los semiconductes. Sin embargo se llegó a un tores pueden prosperar aunque punto en que los altos costes de encuentren nuevas barreras desarrollo forzaron a la unión económicas y técnicas, en gran 5. El CIRCUITO INTEGRADO, o dado, del microprocede fabricantes y usuarios. La medida infranqueables. En una sador Power PC 620 de Motorola contiene cerca de Union Pacific Railroad, el industria más madura, el desiete millones de transistores. Se encapsula en cerámica. Se destina a estaciones de trabajo de ordenador y mayor ferrocarril de su época, sarrollo provendrá de productos servidores de ficheros. se asoció con la División de refinados con una diversificaElectromoción de General ción mayor. Motors para crear el EMD DD-40, un del color que se quisiera, siempre que El almacenamiento de la informamonstruo que resultó ser demasiado fuera negro. ción, y las funciones sociales que de él Las tendencias en la fabricación de dependen, continuarán su avance. En grande e inflexible para todo lo que no fuese transportar grandes cargas a automóviles se orientaron a ofrecer realidad, moderar el ritmo del protravés de los Estados Unidos. Tras su más facilidades, prestaciones y mode- greso en los semiconductores podría fracaso, la industria ferroviaria volvió los. Alfred E. Sloan, de General Mo­tors, acarrear inesperadas ventajas, como a emplear máquinas más pequeñas se dio cuenta de que el rendimiento ya la de dar tiempo a los programas y que trabajasen por separado con car- no aumentaba con el tamaño de la ar­quitecturas informáticas para que gas pequeñas y fueran capaces de aco- fábrica y que las grandes plantas eran asimilen los grandes saltos en prestaplarse para el transporte de otras buenas para producir grandes series ciones de los microcircuitos. También del mismo producto. Por tan­to, dis- en la industria de los semiconductores mayores. La situación actual de la industria de gregó la empresa en divisiones con la veteranía puede ser un grado. semiconductores no difiere mucho de la mercados claramente definidos y fábrireseñada a propósito de las em­presas cas especializadas que las respal­dasen. ferroviarias antes del EMD DD-40. Los clientes prefirieron la mayor varieCuesta tanto el desarrollo de nuevas dad de di­seños resultante y General BIBLIOGRAFIA COMPLEMENTARIA factorías para las futuras ge­ne­raciones Mo­tors empezó muy pronto a ganar Is Semiconductor Manufacturing Equide pastillas de memoria que las empre- mercado a costa de Ford. pment Still Affordable? Jerry D. Hutsas han empezado a aliarse en diferencheson y D. Dan Hutcheson en Procee­ l desarrollo de los microcircuitos dings of the 1993 International Symposium tes grupos, cada uno de los cuales ataon Semiconductor Manufacturing. Instisigue pasos semejantes. Intel cará a su manera el tremen­do problema tute of Electrical and Electronics Engide la fabricación económica de pastillas diversificó en más de 30 variedades su neers, septiembre de 1993. oferta del microprocesador 486, miende elevadísima densidad. SIA 1994 National Technology RoadDe la fabricación de automóviles tras que a principios de los ochenta map for Semiconductors. Semiconducpue­den también extraerse lecciones. sólo ofrecía tres versiones del 8086 y tor Industry Association, 1994. En los años veinte Henry Ford fue nada más que dos del 8088. Las pastiLitography and the Future of Moore’s construyendo factorías cada vez más llas de memoria dinámica siguen esa Law. Gordon E. Moore en SPIE Procee­ dings on Electron-Beam, X-Ray, EUV, eficientes, hasta culminar en la planta pauta diversificadora. Toshiba, por and Ion Beam Lithographies for Manu­ gigantesca de Rouge, donde empezó a ejemplo, posee actualmente quince facturing, vol. 2437; febrero de 1995. fa­bricarse el modelo A en 1928. Par­ veces más configuraciones DRAM de Hacia el “Cero coma uno”. Gary Stix en tía­se allí del propio mineral de hierro cuatro megabit que las de 64 kilobit Investigación y Ciencia, n.o 223, págs. para producir casi todas las piezas del que tenía en 1984. 70-75, abril de 1995. En su fase inicial todas las induscoche. Pero el sector automovilístico Affordability Concerns in Advanced había cambiado ya y el esfuerzo de trias señaladas, desde las ferroviarias Semiconductor Manufacturing: The Nature of Industrial Linkage. Donald Ford por reducir los costes de fabrica- a las de semiconductores, se han esforA. Hicks y Steven Brown en Proceedings ción mediante la construcción de fac- zado por mejorar prestaciones y reduof the 1995 International Symposium on torías mayores y de mejor rendimiento cir costos. Las tres industrias del Semiconductor Manufacturing. Institute hubo que pagarlo sacrificando la diver- transporte, considerablemente más of Electrical and Electronics Engineers, sidad de productos. Como decía el maduras, han pasado a una segunda septiembre de 1995. chiste, podía comprarse un coche Ford fase en la que se persigue el refina- H E 96 TEMAS 4 Pastillas de silicio-germanio Gary Stix L os fabricantes electrónicos nunca han sentido simpatía por el arseniuro de galio, material que da mayores ve­locidades que la vieja materia prima de la industria, el silicio. Pero por mucho que valoren la celeridad, los fabricantes de pastillas se resisten a abandonar inversiones de miles de millones de pesetas en factorías de semiconductores de silicio para emprender un proceso de fabricación completamente diferente. La llegada al mercado de una aleación de silicio y germanio significa que quizá no tengan que hacerlo. Investigadores de IBM y Analog Devices han hecho saber que de su colaboración ha surgido el primer dispositivo comercial hecho de tal aleación. «Marcará el camino del silicio durante los próximos cinco, diez o quince años», dice Bernard S. Meyerson, del Centro de Investigación Thomas S. Watson de IBM. Meyerson y sus colaboradores describen un transistor bipolar cuya base está constituida por la aleación de silicio y germanio. La base conecta y desconecta esos conmutadores en miniatura. El objeto del dispositivo es convertir una señal digital en su equivalente analógica al ritmo de mil millones de ciclos por segundo (un gigahertz). El convertidor digital-analógico de 12 bits opera más rápidamente que cualquier convertidor de silicio construido hasta la fecha. Consume menos y su velocidad es comparable a la de los más rápidos convertidores de señal basados en el arseniuro de galio. A diferencia del arseniuro de galio, los dispositivos de silicio y germanio se pueden fabricar mediante los mismos procesos que los circuitos integrados habituales. Dada la larga experiencia de los fabricantes de pastillas con el silicio, la electrónica del silicio-germanio puede alcanzar velocidades más altas sin costar más que los circuitos de silicio bipolares corrientes. Cada convertidor de silicio-germanio fabricado por IBM contiene 3000 transistores y otros 2000 elementos (condensadores, resistencias). Este número es pequeño comparado con el millón largo de transistores que puede llegar a contener una pastilla digital, pero para un circuito analógico es un alto nivel de integración. IBM ha tratado de aprovechar que los electrones se mueven más deprisa dentro de la base gracias al elevado campo eléctrico de la aleación. Causa ese campo el aumento gradual de la cantidad de germanio a lo ancho de la base, que crea una diferencia de potencial eléctrico, una especie de pendiente por la cual se aceleran los electrones. El futuro del germanio parece prometedor. IBM informó el pasado ve­ra­no que las máximas frecuencias de los transistores sueltos de germanio-silicio iban de 110 a 117 gigahertz. Son más de dos veces superiores a las alcanzables con un transistor de silicio y pueden compararse favorablemente con las de muchas pastillas de arseniuro de galio. Analog Devices está considerando introducir la aleación silicio-germanio en la parte electrónica de un teléfono digital sin cable que funciona a frecuencias nada menos que de tres gigahertz (la velocidad tasada de los circuitos que usan transistores es siempre mucho menor que la de funcionamiento libre de un transistor suelto). La circuitería para transmitir y recibir radioseñales podría reducirse, de una amalgama de transistores y condensadores separados, a una sola pastilla. Los investigadores de IBM hablan también de integrar los transistores bipolares de germanio-silicio en una pastilla portadora de una tecnología de semiconductor de metal-óxido (CMOS) complementaria, es decir, los baratos dispositivos lógicos y de memoria que constituyen la base de la mayor parte de la electrónica de los ordenadores personales y equipos de comunicaciones. Los componentes CMOS servirían como microprocesadores y memoria; los circuitos bipolares, como procesadores de alta velocidad de señales de radio que fuesen, por Bernard S. Meyerson, investigador de IBM, inspecciona una máquina de ultraalto ejemplo, de un teléfono manual vacío para la deposición química de vapor, técnica que él mismo ideó para depositar a una estación base de telecomucapas atómicas de aleación de silicio-germanio sobre pastillas de silicio. nicaciones. 98 TEMAS 4 FUTURO El ordenador del siglo xxi Mark Weiser Programas y dispositivos físicos especiales, conectados entre sí mediante cables, ondas de radio o infrarrojos, abundarán tanto que su presencia pasará inadvertida L as técnicas que calan más hondo son las que se pierden de vista; su imbricación en la vida diaria es tan íntima que terminan por pasar inadvertidas. Pensemos en la escritura, quizá la primera técnica de la información. La posibilidad de representar el lenguaje hablado mediante símbolos para su almacenamiento prolongado liberó a la información de las limitaciones de la memoria humana. Hoy en día se la encuentra por doquier en los países industrializados. No son sólo libros, revistas o periódicos los que transmiten información escrita; también lo hacen las señales de tráfico, los carteles de los comercios, las vallas publicitarias e incluso los graffiti. La constante presencia de estos productos de la “tecnología literaria” en el trasfondo no requiere ningún esfuerzo de atención; la información que transmiten puede usarse de un solo vistazo. Es difícil imaginar la vida moderna de otro modo. Las técnicas de la información basadas en el silicio, en cambio, están lejos de haberse incorporado al entorno. El hecho de que se hayan vendido decenas de millones de ordenadores personales no ha sido suficiente para sacarlos de su propio mundo, al que sólo se accede MARK WEISER dirige el laboratorio de ciencias del cómputo en el Centro de Investigación de Xerox en Palo Alto (PARC). Trabaja sobre la nueva revolución del mundo de los ordenadores, posterior a las estaciones de trabajo, cono­ cida como computación ubicua o virtualidad incorporada. Doctor por la Universidad de Michigan en 1979, antes de comprometerse con PARC enseñó informática en la Universidad de Maryland. Disfruta escribiendo programas. Ha investigado la aplicación de nuevas teorías sobre la recuperación automática de memoria en los ordenadores, lo que en el gremio se conoce como “recogida de basura”. 100 utilizando una jerga complicada y carente de relación con las tareas para las que se los utiliza. Algo así como si, para escribir, tuviéramos que saber además fabricar tinta o cocer barro. El aura de misterio que envuelve a los ordenadores personales no es sólo un problema de relación, o interfaz, con el usuario. La propia idea de que el ordenador sea “personal” es ya errónea. Las mismas ensoñaciones sobre ordenadores portátiles, agendas y otros accesorios habituales constituyen una etapa transitoria hacia la consecución del verdadero potencial de las técnicas informáticas. Ninguna de estas máquinas puede convertir la computación en parte integral e imperceptible de nuestras vidas. Lo que nosotros estamos intentando, pues, es concebir un nuevo modo de pensar sobre los ordenadores, que tenga en cuenta el mundo humano y permita que las máquinas se difuminen en su trasfondo. E s la psicología humana, y no la tecnología, la que requiere tal desaparición. Cuando aprendemos algo hasta dominarlo, dejamos de prestarle atención; al mirar una señal de tráfico, absorbemos su información sin darnos cuenta de que estamos leyendo. Her­ bert A. Simon, economista, ex­per­to en ordenadores y premio Nobel, llama a este fenómeno “compilación”; el filóso­fo Michael Polanyi, “dimensión tá­ci­ta”; los también filósofos Hans Georg Ga­damer y Martin Heidegger, “horizonte” y “lo a la mano”, respectivamen­te; el psicólogo J. J. Gibson, “invariantes visuales”, y John Seely Brown, colega mío en el Centro de Inves­tigación de Xerox en Palo Alto (PARC), “periferia”. Lo que todos ellos quieren decir en el fondo es que sólo cuando las cosas sufren este tipo de desaparición podemos usarlas sin pensar en ellas y concentrarnos en otras metas. Pensar en integrar los ordenadores de forma imperceptible con el mundo exterior es algo que va contra ciertas corrientes actuales. En tal contexto, para que el ordenador sea “ubicuo” no basta con que se le pueda llevar a la playa, a la selva o a un aeropuerto. El ordenador de bolsillo más potente, que tuviese acceso a un sistema de información universal, seguiría centrando nuestra atención sobre una caja individual. Si continuamos con la analogía de la escritura, llevar un superordenador portátil es como no tener más que un libro muy importante. Ni el hecho de poder configurarlo a nuestro gusto, ni siquiera el de que refleje millones de otros libros, dan una idea adecuada de las verdaderas posibilidades de la alfabetización. En la misma línea de razonamiento, que los ordenadores ubicuos puedan incorporar sonido e imagen a los gráficos y textos, no los equipara con “ordenadores multimedia”, ya que éstos, en su forma actual, siguen haciendo de la pantalla un centro de atención tiránico, en vez de permitir su integración con el entorno. Puede que lo más diametralmente opuesto a nuestras ideas sea el concepto de realidad virtual, que pretende crear un mundo dentro del ordenador. El usuario se coloca unas gafas especiales que proyectan una escena artificial sobre sus ojos; quizá también guantes e incluso ciertas prendas que captan sus movimientos y gestos de modo que pueda moverse dentro de ese mundo y manipular sus objetos virtuales. Aunque su propósito sea el de abrirnos la exploración de reinos inaccesibles —el interior de las células, la superficie de planetas lejanos, la trama de información de las bases de datos—, la realidad virtual es sólo un mapa, no es el territorio. No incluye las mesas, las oficinas, la otra gente que no lleve los anteojos o la vestimenta apropiada, el tiempo, los árboles, los paseos, las posibilidades de encuentro ni, en general, la infinita riqueza del universo. La realidad virTEMAS 4 1. LA COMPUTACION UBICUA empieza a aparecer en forma de pizarras activas, que reemplazan a las tradicionales, y otros dispositivos. En el Centro de Investigación de Xerox en Palo Alto, los técnicos se reúnen a trabajar en torno a una de MÁQUINAS DE CÓMPUTO ellas. El esfuerzo de construir e integrar todas estas herramientas les permite aclarar su idea de la computación ubicua. Estas pizarras pueden amoldar al usuario la información que presentan. 101 2. REDES CABLEADAS E INALAMBRICAS enlazan los ordenadores y permiten compartir programas. El conjunto aquí representado incluye terminales corrientes, servidores de ficheros, máquinas de bolsillo (llamadas marcas) y otras de ta- tual utiliza un enorme aparato para simular el mundo, pero no potencia, de la forma más discreta posible, el mundo ya existente. Es más, la contraposición entre las nociones de realidad virtual y de computación ubicua e invisible es tan grande que algunos de nosotros usamos el término “virtualidad incorporada” para referirnos al proceso de sacar a los ordenadores de sus carcasas electrónicas. La “virtualidad” de los datos informáticos —las mil diferentes formas en que pueden alterarse, procesarse y analizarse— se lleva al mundo físico. ¿Cómo se difuminan las técnicas en el entorno? El caso de los motores eléctricos puede servirnos de ejemplo instructivo. A comienzos de siglo, un taller o fábrica típicos poseían un solo motor que impulsaba docenas o quizá cientos de máquinas distintas a través de un sistema de ejes y poleas. La aparición de motores eléctricos pequeños, baratos y eficaces, hizo posible, en un primer paso, que cada herramienta tuviese su propia fuente de fuerza motriz y, más tarde, que una sola máquina contase con muchos motores. Un vistazo al manual de uso y mantenimiento de, por ejemplo, un automó­ vil hace aparecer unos 22 motores y 25 relés, con los que se arranca el motor, 102 maño folio, denominadas tabletas. Las redes del futuro habrán de trabajar con cientos de estos dispositivos alojados en una misma sala, así como con otros que podrán cambiar de ubicación. se limpian los parabrisas, se abren y cierran puertas, etc. Si el conduc­tor prestase especial atención, podría darse cuenta del momento en que activa cada uno de estos motores, aunque no obtendría gran ventaja de ello. L a mayoría de los ordenadores que participen en lo que hemos llamado “virtualidad incorporada” serán real, y no sólo metafóricamente, invisibles. Esto ya sucede con los procesadores incorporados en los mandos de luminosidad, termostatos, equipos de música y hornos, que pueblan y automatizan el mundo doméstico. Estas máquinas, junto con otras, estarán interconectadas en un sistema ubicuo. Mis colegas y yo nos hemos centrado en aquellos dispositivos que transmiten y presentan la información de forma más directa. Y hemos visto que hay dos cuestiones básicas: la ubicación y el tamaño. Pocas cosas resultan tan fundamentales a la percepción humana como la disposición física, por lo que los ordenadores ubicuos deberán saber dónde están (mientras que los actuales no tienen ni idea de dónde se encuentran ni de lo que les rodea). Basta con que un ordenador sepa en qué habitación se halla para que pue­da adaptar su comportamiento, sin que esto requiera ni una pizca de inteligencia artificial. Los ordenadores ubicuos serán de distintos tamaños, según la tarea específica a que se destinen. Nosotros hemos construido los que llamamos “marcas”, “tabletas” y “pizarras” (tabs, pads y boards, respectivamente). Las marcas son máquinas de unos cuantos centímetros, que podrían equipararse a etiquetas adhesivas activas; las ta­bletas, de algunos decímetros, tienen una función parecida a una hoja de papel (a un libro o una revista); y, por último, las pizarras tienen el tamaño y funciones usuales de un encerado o tablón de anuncios. ¿Cuántas superficies comparables se encuentran en una habitación normal? Para saberlo, mire a su alrededor; en el primer grupo deberá incluir los avisos de las paredes, los títulos del lomo de los libros, los rótulos de mandos, termostatos y relojes, sin olvidar las anticuadas notas en trocitos de papel. Depende de la habitación, pero puede que encuentre más de 100 marcas, de 10 a 20 tabletas y una o dos pizarras. Esto nos proporciona una idea del despliegue de máquinas necesario para nuestros propósitos de virtualidad incorporada: cientos de ordenadores por habitación. Puede que sintamos cierto desasosiego inicial al oír hablar de cientos de ordenadores en una estancia, parecido al que produjeron en su día los cientos TEMAS 4 de voltios en los cables eléctricos de las paredes. Pero, como en este último caso, los ordenadores acabarán por resultar imperceptibles. La gente se limitará a utilizarlos de manera inconsciente para realizar las tareas cotidianas. Las marcas son los componentes mínimos de la virtualidad incorporada. Su interconexión aumentará la utilidad de los ordenadores actuales de su misma escala, las calculadoras y agendas de bolsillo, al tiempo que ejecutarán funciones que ningún ordenador realiza hoy en día. Por ejemplo, en PARC y en laboratorios de investigación de otros lugares del mundo ha empezado a trabajarse con insignias activas, pequeños ordenadores pinzables del tamaño de las fichas de identificación de un empleado, desarrollados inicialmente en el laboratorio de investigación de Olivetti en Cam­brid­ge. Estas tarjetas se dan a conocer a los receptores distribuidos por un edificio, lo que permite seguir la pista de las personas u objetos que los portan. En nuestra instalación experimental, las puertas se abren solamente ante las personas adecuadas, las habitaciones les dan la bienvenida por su nombre, las llamadas telefónicas se reciben automáticamente allí donde se encuentre su destinatario, los recepcionistas saben dónde está cada cual, los terminales de ordenador se amoldan a las preferencias del usuario y las agendas se actualizan solas. El caso de la agenda automática revela las diversas ventajas que puede proporcionar algo tan simple como saber dónde se encuentra cada uno: una reunión, por ejemplo, consiste en que varias personas pasan cierto tiempo en una misma habitación, mientras que su temática tendrá que ver muy probablemente con los ficheros que se ha hecho apare­ cer en la pantalla allí existente. No se requiere ninguna revolución en inteligencia artificial; basta con ordenadores imbricados en la vida cotidiana. Mi colega Roy Want ha diseñado una marca que incorpora una pequeña pantalla, gracias a la que puede servir a la vez como insignia activa, calendario y agenda. También puede funcionar como extensión de las pantallas de ordenadores: en lugar de concentrar la ventana de un programa en un pequeño icono de pantalla, el usuario podrá traspasarla a la presentación de una marca, quedando así más libre la pantalla principal y pudiendo disponerse los trabajos informáticos alrededor de los terminales al modo en que ahora se distribuyen los documentos de papel sobre los escritorios. Llevar un asunto a otro despacho para comentarlo es MÁQUINAS DE CÓMPUTO cosa para la que basta con recoger las marcas que lo forman; los programas y ficheros asociados pueden reclamarse desde cualquier terminal. E l tamaño siguiente es la tableta, algo así como un híbrido entre un folio y los actuales ordenadores que caben en el regazo o en la palma de la mano. Robert Krivacic, de PARC, ha construido un prototipo de tableta que utiliza dos microprocesadores, una pantalla como las de las estaciones de trabajo habituales, una pluma multibotón y una red de comunicación por radio que tiene canales suficientes para que puedan funcionar cientos de dispositivos por persona y habitación. Las tabletas difieren de los ordenadores portátiles al uso en un aspecto crucial. Mientras estos últimos van de un lado a otro con sus propietarios, una tableta que deba llevarse consigo es un fracaso. Las tabletas se han concebido como ordenadores mostrencos, equiparables al papel en blanco disponible en las mesas de reunión; carecen de identidad y relevancia y se las encuentra y usa allí donde se necesite. También pueden concebirse las tabletas como una especie de antídoto contra las “ventanas”. Las ventanas se inventaron en PARC, y Apple las popularizó con el Macintosh; su propósito era permitir la convivencia simultánea de varias actividades diferentes en el pequeño espacio que ofrece la pantalla de un ordenador. En los últimos veinte años, las pantallas no han crecido de modo apreciable. Se dice que los sistemas de ventanas son un trasunto de los escritorios; pero, ¿quién La insignia activa E ste precursor de los ordenadores mínimos contiene un microprocesador y un emisor de infrarrojos. La insignia actúa radiando la identidad de su portador, de modo que puede abrir puertas automáticamente, traspasar llamadas telefónicas o amoldar la información presentada en una pantalla a la persona que la consulta. Pertenece al grupo de pequeños ordenadores llamados marcas. 103 usaría nunca una mesa de 25 cm de largo por 18 de fondo? Por el contrario, las tabletas utilizan un escritorio real. Extienda usted muchas tabletas electrónicas sobre su mesa de trabajo, igual que lo hace con sus papeles. Tenga a la vista varias tareas y utilice las tabletas como recordatorio. Y no se limite a la mesa; colóquelas en cajones, estanterías, mesas auxiliares. Disponga frente a sí las diversas partes de los asuntos de la jornada de la forma más adecuada a cada uno y a su comodidad, sin verse constreñido por un vidrio fosforescente. Puede que algún día las tabletas se vuelvan tan delgadas y ligeras como las actuales hojas de papel, pero entretanto pueden desempeñar las funciones de los folios mucho mejor que las pantallas de los ordenadores. Las presentaciones mayores todavía, nuestras pizarras, sirven para multitud de propósitos: en el hogar, como monitores de vídeo y tablones de anuncios; en la oficina, como tablones de anuncios, encerados o expositores. También podrían usarse como estantería electrónica a la que acudir para cargar textos en una tableta o en una marca. A pesar de todo, la posibilidad de coger un libro y colocarlo cómodamente en nuestro regazo sigue siendo uno de los principales atractivos del pa­pel. Objeciones similares pueden plantearse a la utilización de una pizarra como mesa de trabajo. Tendremos que acostumbrarnos a ver tabletas y mar­cas depositadas sobre la mesa como accesorios de la pantalla de ordenador antes de que pueda pretenderse extender más la virtualidad incorporada. E n varios laboratorios de investigación de la empresa Xerox se utilizan prototipos de pizarras, construidos por Richard Bruce y Scott Elrod de PARC. Miden aproximadamente 100 por 150 cm y presentan 1024 por 768 píxeles en blanco y negro. Para manejarlas se utilizan trozos de “tiza” electrónica inalámbrica, que funcionan unas veces por contacto con la superficie de la pizarra y otras a cierta distancia. Varios investigadores se han prestado a hacer de conejillos de Indias y celebran reuniones electrónicamente asistidas con sus colegas o ensayan otras formas de colaboración en torno a una pizarra activa. Hay 3. USO DE LAS TABLETAS para ampliar la pantalla normal de un ordenador. Estos prototipos están conectados al ordenador 104 quienes prueban con ellas mejoras de los dispositivos físicos de presentación, nuevas tizas electrónicas o programas interactivos. Existen razones, evidentes algunas y otras más sutiles, para que la programación que gobierna una gran pantalla colectiva y su tiza electrónica se distinga de la empleada en una estación de trabajo. La alternancia entre el uso de la tiza y el teclado puede requerir varios pasos, lo que la aleja cualitativamente de la habitual coexistencia entre teclado y ratón. Tam­bién hay que tener en cuenta la altura del usuario: porque no todo el mundo llegará a la parte superior de la pizarra, las barras de opciones deberán aparecer en la inferior. Hemos construido los suficientes de estos ingenios como para permitir su uso despreocupado: se han colocado en salas de reuniones y zonas comunes y no se requieren autorizaciones o avisos previos para utilizarlos. Su construcción y manejo hace que los investigadores empiecen a vivir y a com­prender un mundo en el que la interacción informal con los ordenadores realza cualquier espacio. Las pizarras activas mediante cables, ya que hasta ahora tan sólo se han construido unos cuantos modelos inalámbricos. TEMAS 4 no sólo pueden compartirse dentro de una misma habitación, sino también desde varias al tiempo. Experimentos dirigidos por Paul Dou­rish, de Euro PARC, y Sara Bly y Frank Halasz, de PARC, han permitido a grupos situados en lugares muy alejados reunirse en torno a pizarras que presentaban todas la misma imagen y elaborar planos y dibujos conjuntamente. Se ha llegado a compartir pizarras a ambos lados del Atlántico. Las pizarras sirven de tablón de anuncios. Ante la avalancha de información escrita que nos rodea, Marvin Theimer y David Nichols, de PARC, han diseñado y construido un sistema prototipo que adapta su información pública a la persona que la está leyendo. Para conseguirlo, lo único que tiene que hacer el usuario es llevar puesta su correspondiente insignia activa y mirar. Los prototipos de marcas, tabletas y pizarras son sólo el comienzo de lo que será la computación ubicua. Las verdaderas posibilidades de la idea no residen en ninguno de estos dispositivos, sino más bien en su interacción. Los cientos de procesadores y visualizadores no son una interfaz con el usuario comparable a ratones y ventanas, sino un ámbito cómodo y eficaz donde hacer las cosas. Más novedosa y útil será la capacidad de las marcas para animar objetos hasta ahora inertes, ya que podrían ayudar a localizar, mediante pitidos, papeles, libros o cualquier otro objeto descabalado. Los archivadores se abrirían solos y mostrarían la carpeta deseada sin necesidad de búsqueda. Su utilización en los catálogos de las bibliotecas podría crear mapas activos que guiasen al usuario hasta el libro solicitado, aunque no se halle en su correspondiente estante porque el último lector descuidado lo olvidó sobre una mesa. E n conferencias e informes públicos no habrá que conjeturar el ta­maño que deba tener el texto de las transparencias proyectadas, el volumen de la voz amplificada o el nivel de luz ambiental, ya que serán los deseos de los asistentes quienes los determinen. Algunas salas de reuniones electrónicas de grandes compañías disponen ya de programas para el recuento instantáneo de votos y la comprobación de mayorías; las marcas pueden contribuir a difundirlo. La técnica requerida para la ubicuidad de los recursos informáticos consta de tres partes básicas: ordenadores baratos y de bajo consumo con visualizadores parejos; programas de ejecución ubicua y una red que lo unifique MÁQUINAS DE CÓMPUTO 4. UN TRANSCEPTOR DE RADIO sirve de enlace entre las tabletas y demás dispositivos móviles y la red cableada. Esta unidad, pensada para su instalación en el techo, tiene antenas en sus brazos cruzados; dos diodos emisores de luz indican su estado. todo. Las tendencias que se perciben hoy en día hacen pensar que el primer requisito será fácil de lograr. Los visualizadores planos con una resolución de 640 × 480 puntos ya resultan habituales; es el tamaño estándar de los ordenadores personales y también puede aceptarse para pantallas de televisión. La creciente popularidad de los ordenadores portátiles y de bolsillo abaratará los precios de los visualizadores, a la vez que aumentarán su calidad y resolución. Hacia finales de siglo se dispondrá de pantallas de gran contraste, reso­lución de 1000 × 800 puntos, grosor in­ferior al centímetro y peso de unos 100 gramos. Una pequeña batería será suficiente para conseguir varios días de uso ininterrumpido. Los visualizadores mayores son harina de otro costal. Para que la pantalla de un ordenador interactivo pueda desempeñar las funciones de una pizarra debe poderse contemplar de cerca y de lejos. La visión cercana requiere que la densidad de los elementos de la imagen no sea inferior a la de una pantalla corriente de ordenador, que tiene unos 30 por centímetro. Conservar esta relación en un área de más de un metro cuadrado supone la presentación de decenas de millones de píxeles. La mayor pantalla fabricada hasta la fecha no va más allá de un cuarto de tal magnitud. Alimentar a estos visualizadores grandes exigirá microprocesadores avanzados. La velocidad de las unidades de proceso alcanzó el millón de instrucciones por segundo en 1986 y sigue duplicándose anualmente. Algunos especialistas piensan que el crecimiento exponencial de la velocidad bruta de estos circuitos puede llegar a detenerse algún día no lejano, aunque otras características de funcionamiento, como el consumo y las funciones auxiliares, no cesarán de mejorar. Cabe, pues, que la pantalla plana de 100 gramos sea gobernada por un microprocesador capaz de ejecutar mil millones de operaciones por segundo, que disponga de 16 megabytes de memoria incorporada y de interfaces para sonido, vídeo y red. El consumo medio del procesador sólo sería una pequeña fracción de la potencia requerida por la pantalla. Dispositivos adicionales de almacenamiento aumentarán la capacidad de la memoria principal. De acuerdo con el estado actual de la técnica, las predicciones más conservadoras permiten suponer que discos duros extraíbles (o pastillas de memoria no volátil), del tamaño de una caja de cerillas, puedan almacenar hasta 60 megabytes. Serán normales discos mayores, dispuestos para contener varios gigabytes, e incluso dispositivos en los que quepan terabytes —más o menos toda la información de la biblioteca del Congreso estadounidense— no constituirán ninguna rareza. Tam­poco se requerirá que tan enormes almacenes contengan sólo información útil. Por el contrario, la abundancia de espacio permitirá enfoques muy diferentes de los actuales sobre su gestión; así por ejemplo, una capacidad de un terabyte hará prácticamente innecesario borrar los ficheros antiguos. P rocesadores y visualizadores deberían ofrecernos un uso ubicuo de los recursos informáticos dentro de pocos años, pero la previsible evolución de los programas y de la tecno­ logía de redes resulta más problemática. Todo lo que han conseguido las actuales realizaciones de computación distribuida ha sido hacer que servidores de ficheros, impresoras y otros dispositivos parezcan estar conectados directamente al ordenador de cada usuario, sin que esta perspectiva haga nada por aprovechar las oportunidades que ofrecen los ordenadores diseminados por el espacio, ni la información resultante de saber dónde está un elemento. Han de producirse modificaciones drásticas de los sistemas operativos de los ordenadores y de los programas de presentación organizados por medio 105 5. COMPONENTES CLAVE de la computación ubicua son las tabletas y marcas que se están desarrollando en PARC. La tableta es del tamaño de un folio; las fotogra­fías superiores ofrecen su aspecto exterior e interior. Tiene dos microprocesadores, una memoria de acceso aleatorio de cuatro millones de bytes, un enlace de radio rápido, una interfaz de gran resolución para lápiz electrónico y una pantalla monocroma de 1024 por 768 píxeles. Utiliza una programación de ventanas estándar, por lo que puede comunicarse con la mayoría de estaciones de trabajo. La marca (a la izquierda) es mucho más pequeña, 7 por 8 cm, y tiene tres botones de control, un lápiz electrónico, un emisor de sonido y un enlace de infrarrojos para comunicarse a través de una sala. El autor opina que las habitaciones y oficinas del futuro contendrán cientos de estos pequeños ordenadores. de acuerdo con las cambiantes necesidades de la computación ubicua. de ventanas. El diseño de los sistemas operativos corrientes, digamos DOS y Unix, suele dar por su­puesto que la configuración física y lógica del ordenador no sufrirá cambios importantes mientras esté funcionando; aunque esto sea razonable en el caso de los ordenadores personales y de las grandes unidades centrales al uso, carece de sentido en el marco de la computación ubicua. Marcas, tabletas y hasta pizarras pueden entrar y salir de cualquier habitación en cualquier momento y será imposible desconectar todos los computadores de una estancia para instalar un nuevo programa en uno de ellos, entre otras cosas porque puede que sea imposible localizarlos a todos. Una posible solución serían los sistemas operativos de “micronúcleo”, como los desarrollados por Rick Rashid, de la Universidad Carnegie Mellon, o A. S. Tanenbaum, de la Universidad Vrije de Amsterdam. Estos sistemas experimentales presentan un mínimo andamiaje de programación fija; los módulos adicionales que realizan funciones específicas se añaden o eliminan con facilidad. Si los futuros sistemas operativos siguiesen este principio, su tamaño aumentaría o se reduciría automáticamente 106 L os actuales sistemas de presentación basados en ventanas tampoco se adaptan a ellas, ya que suelen dar por sentado que toda la información correspondiente a una aplicación concreta aparecerá en la pantalla de un solo ordenador. Por ejemplo, los sistemas X Windows y Windows atienden a varias pantallas, pero no funcionan bien con aplicaciones que arranquen en una para pasar luego a otra, por no hablar de las que quieran cambiar de ordenador o de habitación. Las soluciones a este problema están en mantillas. Ningún sistema actual funcionaría bien si hubiera de trabajar con toda la variedad de es­tructuras de entrada y salida que exi­g e la virtualidad incorporada. Hacer que tabletas, marcas y pizarras cooperen armoniosamente requerirá cambios en los tipos de protocolos usados por los programas de aplicación y por las presentaciones en pantalla para comunicarse. Exigencias adicionales se le plantean a la red que ha de conectar má­quinas y programas ubicuos. Las veloci­d ades de transmisión de las re­des, tanto cableadas como inalámbricas, crecen rápidamente. Ya puede accederse a redes cableadas que mueven gigabits por segundo; son caras, pero se irán abaratando con el tiempo. Estas redes veloces raramente dedicarán todo su ancho de banda a un solo haz de datos; facilitarán, por contra, un gran número de transmisiones simultáneas a menor velocidad. Pe­q ueños sistemas inalámbricos, basados en los principios de la telefonía digital celular, ofrecen ahora velocidades de transmisión entre 2 y 10 megabit por segundo y un alcance de algunos cientos de metros. En el futuro el mercado ofrecerá redes inalámbricas de pequeña potencia capaces de transmitir 250.000 bits por segundo a cada estación. Pero el problema de vincular de modo flexible y sencillo los sistemas con y sin cables sigue sin encontrar solución. Aunque se han desarrollado algunos métodos ad hoc, los ingenieros habrán de elaborar nuevos protocolos de comunicaciones que admitan explícitamente el concepto de máquinas que se mueven en el espacio físico. Es más, el número de canales previstos en la mayoría de los esquemas de redes inalámbricas es todavía muy reducido, mientras que el alcance excesivo (de 50 a 100 metros) restringe mucho el número total de dispositivos móviles permisibles. En suma, tales sistemas no tienen ninguna posibilidad de asimilar cientos de máquinas en cada habitación. Hay redes para cubrir una sala que utilizan radiación TEMAS 4 infrarroja o las más recientes técnicas electromagnéticas; ofrecen suficientes canales para la computación ubicua, pero de momento sólo funcionan de puertas adentro. La tecnología actual requeriría que cualquier dispositivo móvil incorporase conexiones a tres redes diferentes: una inalámbrica de corto alcance; otra, también inalámbrica, de largo alcance; y una tercera, con cable, de gran velocidad. Todavía está por in­ven­ tarse un modo de conexión que atien­da, él solo, las tres funciones. N i la explicación de los principios de la computación ubicua ni la enumeración de las técnicas que implica pueden darnos una idea de lo que sería vivir en un mundo lleno de artilugios invisibles. Si tratásemos de extrapolar a partir de los rudimentarios fragmentos de virtualidad incorporada de que hoy disponemos, sería algo así como intentar predecir la publicación de Cinco horas con Mario justo después de haber garabateado la primera tableta de arcilla. Hagámoslo, sin embargo; puede que el esfuerzo merezca la pena: Sole abre los ojos y puede oler el aroma del café. Hace pocos minutos que su despertador, alertado por sus intranquilos movimientos previos a la vigilia, le había preguntado en voz baja: “¿café?”, y ella había murmurado “sí”. “Sí” y “no” son las palabras que el despertador reconoce. Sole echa una mirada a las ventanas que tiene cerca. A través de una de ellas ve la luz del sol y una valla; otras le muestran los rastros electrónicos dejados por el ir y venir de sus vecinos esta mañana. Las normas re­lativas a la intimidad personal, así como razones prácticas de coste, excluyen una representación completa en vídeo, pero los marcadores de tiempo y las trazas electrónicas sobre el mapa del vecindario hacen que Sole se sienta cómoda en su calle. Un vistazo a las ventanas de las ha­bitaciones de los niños le permite saber que hace entre 15 y 20 minutos que se han levantado y que están ya en la cocina. Al darse cuenta de que ella también está despierta, empiezan a hacer más ruido. Durante el desayuno Sole lee los periódicos. Como la mayoría de la gente, los prefiere en su versión de papel. Encuentra un párrafo interesante en la sección de negocios. Saca el bolígrafo y lo pasa por el nombre del periódico, la fecha, la sección y el número de página; y acaba rodeando la información con un círculo. El bolíMÁQUINAS DE CÓMPUTO grafo envía un mensaje al periódico, quien deriva la información a la oficina de Sole. Le llega un envío electrónico de la compañía que fabricó el mecanismo de apertura de la puerta del garaje. Había perdido el manual y les pidió ayuda. Le envían uno nuevo junto con algo inesperado: la forma de encontrar el anterior. Según la nota, si introduce cierto código en el mando automático, el manual se encontrará a sí mismo. En efecto, una vez dentro del garaje, un pitido la conduce hasta el punto en que el viejo manual manchado de aceite cayó detrás de unas cajas. Desde luego, allí está también la pequeña marca que el fabricante adosó a la cubierta en un intento de evitarse reclamaciones como la suya. De camino al trabajo, echa una ojea­da al previsor para saber cómo está el tráfico. Se percata de que le espera un embotellamiento y también del rótulo de una nueva cafetería en una calle lateral. Decide tomar la próxima salida y saborear una taza de café al tiempo que evita la retención. Llegada a su destino, el propio previsor le ayuda a encontrar rápidamente un sitio donde estacionar. A medida que avanza por el edificio, las máquinas de su oficina se van preparando para su llegada, pero no completan la secuencia de operaciones hasta que pisa el despacho. Por el camino, se para junto a las oficinas de cuatro o cinco colegas para intercambiar saludos y noticias. Sole mira sus ventanas. Las predicciones meteorológicas son de un día gris, con el 75 por ciento de humedad y un 45 por ciento de probabilidad de chaparrones esta tarde. La oficina principal, situada en el otro extremo del continente, ha tenido una mañana tranquila; lo habitual es que, a estas horas, el indicador de actividades señale al menos una reunión urgente e imprevista. Toma en sus manos una marca y la apunta hacia su amigo Juan, del grupo de diseño. Participan en un trabajo conjunto y han estado compartiendo una oficina virtual durante algunas semanas. La colaboración puede adoptar diferentes formas, pero, en este caso, la realizan mediante el acceso indistinto a los respectivos detectores de localización y al contenido de sus pantallas. Ella prefiere tener a la vista una versión en miniatura de todas las marcas y tabletas de Juan gracias a una pequeña colección tridimensional de marcas dispuesta en el rincón de su mesa. Los detalles son indiscernibles, pero se siente más implicada en su actividad al notar que los visualizado- res cambian; si le interesa, en cualquier momento puede ampliar lo que desee. Una marca libre emite un pitido y muestra la palabra “Juan”. Sole la coge y apunta con ella hacia la pizarra. Juan quiere comentar con ella un documento, que aparece en la pizarra mientras suena la voz de Juan: —He estado luchando con el tercer párrafo toda la mañana, pero sigue sin gustarme. ¿Te importaría leerlo? Reclinada en su silla, Sole lee el párrafo en cuestión y quiere destacar una palabra. Utiliza de nuevo la marca “Juan” para activar una tableta accesible y traza una curva alrededor de la palabra con su lápiz, mientras dice: —Creo que es este término: ubicuo. No es muy corriente y hace que todo suene demasiado serio. ¿No podríamos cambiar la frase? —Lo intentaré. Por cierto, Sole, ¿has tenido noticias de María Rey? —No. ¿Quién es? —Haz memoria. Estuvo en la reunión de la semana pasada. Me dijo que in­tentaría ponerse en contacto contigo. Sole no consigue acordarse de Ma­ría, pero tiene un vago recuerdo de la reunión. Inicia una búsqueda entre las reuniones que tuvieron lugar en las dos últimas semanas con más de seis personas que ella no conociera de al­guna reunión anterior, y encuentra la adecuada. Aparecen los nombres de los asistentes y, entre ellos, el de María. Como suele hacerse en las reuniones, María proporcionó a los restantes asistentes un pequeño esbozo biográfico de sí misma, que le ofrece a Sole una base para enviarle una nota y ver de qué se trata. Es de agradecer que esta información continúe disponible, no como la de otros compañeros que sólo puede consultarse durante la propia reunión... Esta escenificación apunta algunas de las formas en que los ordenadores podrían incorporarse a la vida cotidiana de modo imperceptible, pero también deja entrever algunas cuestiones litigiosas generadas por la virtualidad incorporada. Quizá la fundamental sea la de la intimidad: cientos de ordenadores en cada habitación, capaces de reconocer la presencia de seres humanos en sus proximidades y conectados unos a otros por sistemas de gran velocidad, pueden hacernos pensar que lo que hoy consideramos totalitarismo no es sino un juego de niños. Del mismo modo que puede programarse una estación de trabajo de una red local para que intercepte men107 COLABORADORES DE ESTE NUMERO Traducción: Eduard Farré: El astrolabio; José Romo: Galileo y el primer instrumento mecánico de cálculo; Luis Bou: La computadora mecánica de Charles Babbage, El computador del Dr. Atanasoff, Representación visual de biomoléculas, Microprocesadores del año 2020, Ordenadores de base proteínica y Computación mecánicocuántica; Amando García: Pantallas planas, La retina de silicio y Semiconductores de arseniuro de galio; Sonia Porta: El ordenador del siglo xxi; M. Puigcerver: Reventando el polvo, Cuestión de peso, Silicio encantado, Pastillas de silicio-germanio y Ordenador óptico. Página Fuente 7-8 9 George V. Kelvin Real Academia de la Historia de Madrid (arriba), Museo Naval de Madrid (abajo) George V. Kelvin Ben Rose Ilil Arbel Ben Rose Ilil Arbel Doron D. Swade (David Exton/Science Museum Photostudio) Johnny Johnson Doron D. Swade (David Exton/Science Museum Photostudio) Tom Molesworth Allan R. Mackintosh George Retseck John S. Foster, Jane Frommer y Jacquelin K. Spong, IBM Thomas J. Watson Research Center (izquierda), Michael Goodman (derecha) Photonics (arriba, izda.), Planar Systems (arriba, dcha.), Michael Goodman (abajo) Michael Goodman Laurie Grace Arthur J. Olson y David S. Goodsell Richard E. Dickerson (izquierda), Teresa Larsen (centro), Arthur J. Olson y David S. Goodsell (derecha) Arthur J. Olson Arthur J. Olson (arriba, izda.), Elizabeth D. Getzoff y John A. Tainer, Scripps Clinic (arriba, centro), Michael Pique, Scripps Clinic y David S. Goodsell (arriba derecha), Arthur J. Olson y David S. Goodsell (abajo, izda. y centro), Arthur J. Olson y I. Siara Mian, Scripps Clinic (abajo, derecha) Jessie Simmons Andrew Christie Jessie Simmons Andrew Christie, Jessie Simmons (inserción fotográfica) Jessie Simmons Randall M. Feenstra y Joseph A. Stroscio, IBM George V. Kelvin IBM George V. Kelvin Edward Bell Cortesía de IBM Corporation Ian Worpole IBM (izquierda), Johnny Johnson (derecha) Ian Worpole Scot Hill Jared Schneidman Design Lisa Burnett Lisa Braiman Scot Hill Matthew Mulbry Ian Worpole Ian Worpole, Matthew Mulbry (foto recuadro) Matthew Mulbry Charles O’rear Henryk Temkin AT&T Bell Laboratories Barrie Rokeach (fotografía); Rick Gross y Deshan Govender (inserto); Tomo Narashima (dibujo) Tomo Narashima (arriba); Michael Goodman (abajo) Michael Goodman Boris Starosta Michael Goodman Geoffrey Wheeler (izquierda); Inst. Nacional de Pesos y Medidas (derecha) 10-16 19-20 21 22-23 24-25 28-31 32 33 35 36 37-40 44-45 46 47 50 52-53 54-55 56 57 63 64 65-66 67 68 73 74-75 77 79 80 83 84-85 86 87 91 92 93 94-95 96 101 102 103 104-106 110-112 113 114-115 116-117 118-119 120-121 122-124 125 108 sajes destinados a otros, bastaría con que hubiera una sola marca alcahueta en una sala para registrar todo lo que en ella ocurriera. Incluso las actuales insignias y agendas activas, tan convenientes para su dueño, pueden convertirse en armas peligrosas en manos inadecuadas. Aparte de los jefes o subordinados de la empresa, otros entes mercantiles o funcionarios públicos que se excedan en sus atribuciones podrían hacer uso inapropiado de la misma información que hace útiles los ordenadores invisibles. Por fortuna, ya existen métodos criptográficos que permiten asegurar los mensajes que se envían de un ordenador ubicuo a otro y proteger la información privada contenida en las redes. Si se cuenta con ellas desde el comienzo del diseño, estas técnicas garantizan que los datos privados no se harán públicos. Una versión bien realizada de la computación ubicua podría proporcionar una protección a la intimidad aún mejor que la actual. La virtualidad incorporada, al relegar los ordenadores al trasfondo, hará resaltar la individualidad de quienes se encuentran en los extremos del entramado informático, lo que podría contrarrestar las malsanas fuerzas centrípetas inducidas por los ordenadores personales en la vida y el trabajo cotidianos. Y a en la actualidad, la gente se mete en una oficina sin ventanas, pone en marcha su ordenador y puede que no vea a los compañeros de trabajo en todo el día. La realidad virtual hace que el mundo exterior y todos sus habitantes dejen de existir. Los computadores ubicuos, por el contrario, residen en el mundo humano y no imponen barreras a las relaciones humanas. Es más, la sencillez de las conexiones que ofrecen entre distintos lugares y momentos puede ayudar a aproximar las comunidades humanas. Nosotros creemos que lo que designamos como computación ubicua se irá convirtiendo en la forma predominante de acceso al ordenador en los próximos veinte años. No se trata de nada radicalmente nuevo, como no lo eran los ordenadores personales, pero modificará nuestras ideas sobre lo que es posible, ya que todo resultará más rápido y más fácil al exigir menos tensión y contorsiones mentales. La llamada edición electrónica, por ejemplo, no difiere mucho de la composición ayudada por ordenador, que se re­m on­t a a mediados de los años sesenta; es la distinta facilidad de uso lo que las singulariza tanto. Cuando casi todos los objetos contengan un ordenador o se les pueda adherir una marca, obtener información será muy sencillo. “¿Quién ha hecho este vestido? ¿Hay en la tienda? ¿De qué diseñador era el traje aquél que me gustó la semana pasada?” Un entorno de ordenadores puede saber cuál es el traje que uno estuvo mirando tanto rato la semana pasada, ya que dispone de las ubicaciones de ambos, y puede encontrar el nombre del diseñador aunque entonces no se solicitase tal información. Desde el punto de vista sociológico, el ordenador ubicuo podría significar el declive del adicto a los ordenadores, del mismo modo que, tras el furor suscitado por los receptores de galena en los decenios segundo y tercero de este siglo entre quienes querían participar en la nueva alta tecnología de la radio, la disponibilidad general de aparatos de calidad acabó con el arte de pinchar galenas. Por otro lado, puede que la virtualidad incorporada lleve el ordenador hasta los presidentes de empresas y países, quizá por vez primera. El acceso a los ordenadores se extenderá a todos los grupos sociales. Tal vez lo más importante sea que la computación ubicua ayudaría a superar el problema de la sobrecarga de información. Un paseo por el bosque nos ofrece más información que cualquier sistema informático, a pesar de lo cual la caminata nos parece relajante y los ordenadores frustrantes. Las máquinas que consigan ajustarse al entorno humano en lugar de obligar a las personas a entrar en el mundo de la computación harán que su uso resulte tan agradable como un paseo entre los pinos. BIBLIOGRAFIA COMPLEMENTARIA The Tacit Dimension. Michael Polanyi. Doubleday & Company, 1966. Toward Portable Ideas. Mark Stefik y John Seely Brown en Technological Support for Work Group Collaboration. Dirigido por Margrethe H. Olson. Lawrence Erlbaum Associates, 1989. Recent Developments in Operating Systems. Volumen monográfico de Computer (IEEE Computer Society) vol. 23, n.o 5; mayo de 1990. Activity-Based Information Retrieval: Technology in Support of Human Memory. Mik Lamming y William Newman. Disponible como Rank Xerox EuroPARC Technical Report 91-03; febrero de 1991. LCDs and Beyond. Nick Baran en Byte vol. 16, n.o 2, págs. 229-236; 1991. A Talk with Intel. Kenneth M. Sheldon en Byte, vol. 16, n.o 4, págs. 131-140; abril de 1991. TEMAS 4 Microprocesadores del año 2020 David A. Patterson Dentro de un cuarto de siglo, la potencia de cualquier ordenador igualará a la de todos los existentes hoy en el Valle del Silicio A diferencia de otras muchas técnicas que se esfumaron al poco de haber ilusionado nuestra imaginación, la informática ha transformado nuestra sociedad. La loco­ motora de esta revolución en marcha es el microprocesador. Estas lami­ nillas de silicio han originado un sinfín de inventos, como los ordenadores por­ tátiles y los aparatos de telefax, y han aportado “inteligencia” a los auto­ móviles modernos y a los relojes de pulsera. Es increíble que su rendimiento haya mejorado 25.000 veces desde su invención, hace sólo un cuarto de siglo. Dos fueron los inventos que prendieron la mecha de la revolución informática. Consistió el primero en la noción de programa almacenado. Todos los sistemas de cómputo construidos desde los años cuarenta se han adhe- rido a este modelo, que prescribe un procesador para triturar números y una memoria para el almacenaje de datos y de programas. La ventaja de tal sistema estriba en que, por la facilidad con que pueden intercambiarse los programas almacenados, un mismo equipo material realiza tareas diversas. Sin esa versatilidad, los ordenadores no se hubieran generalizado. Además, en los últimos años de ese decenio, se inventó el transistor. Estos conmutadores de silicio eran muchísimo menores que las válvulas termoiónicas utilizadas en los primeros circuitos, por lo que permitieron la creación de dispositivos electrónicos mucho más rápidos. Hubieron de transcurrir más de diez años antes de que los transistores y los programas almacenados se aunaran en la misma máquina. Y hubo que esperar hasta 1971 para que se produjera la conjunción más importante, representada en el microprocesador Intel 4004. Este procesador fue el primero de los construidos en una sola laminilla de silicio. Por su diminuto tamaño, se dio en llamarlo microprocesador. El método que desde entonces han seguido los fabricantes para la producción en masa de microprocesadores se parece mucho al de hornear una pizza: la masa —de silicio— empieza siendo fina y redonda. Se depositan sobre ella ciertos aderezos químicos y se lleva el montaje a un horno. El calor transforma los aderezos en transistores, conductores y aislantes. No es de sorprender que el proceso, repetido quizá veinte veces, sea más exigente que la cochura de una pizza. Una mera partícula de polvo puede deteriorar los DAVID A. PATTERSON es titular de la cátedra E. H. y M. E. Pardee de la Universidad de California. minúsculos transistores. Incluso las vibraciones producidas por un camión al pasar pueden desalinear los ingredientes, echando a perder el producto final. Pero suponiendo que nada de esto ocurra, la oblea resultante se di­vide en piezas individuales, las laminillas o pastillas. Aunque todavía se sigue utilizando esta vieja receta, con el transcurso del tiempo la línea de producción ha ido fabricando microcircuitos cada vez más veloces y más baratos, eructando obleas cada vez mayores y transistores cada vez más pequeños. Esta tendencia pone de relieve un importante principio de la economía de los microprocesadores: cuantos más microcircuitos por oblea, menor su costo. Los microcircuitos grandes son más veloces que los pequeños porque pueden albergar mayor número de transistores. El reciente procesador P6 de Intel, sea por caso, contiene cinco millones y medio de transistores y es mucho mayor que el Intel 4004, que alojaba 2300. Pero, cuanto mayor es el microcircuito, mayor es también la probabilidad de que tenga defectos. D esde hace muy poco los microprocesadores han adquirido mayor potencia merced a un cambio de enfoque en su diseño. Los ingenieros de microcircuitos adoptan ahora un método cuantitativo para establecer la organización de los ordenadores. El desarrollo de los equipos va precedido de cuidadosos experimentos y se utilizan procedimientos de evaluación muy finos para juzgar sus éxitos. Los fabricantes fueron adoptando concertadamente esta metodología de diseño durante los años ochenta; gracias a ello la tasa de perfeccionamiento de la técnica de microprocesadores se ha elevado desde el 35 por ciento anual de hace sólo un decenio a cosa de un 55 por ciento al año, o sea, casi un 4 por ciento cada mes. Los procesadores triplican ahora la celeridad pronosticada a comienzos de los ochenta; es como si nuestro deseo nos hubiera sido conce- 1. LAS OBLEAS DE SILICIO actuales (fondo de la imagen) son mucho mayores que las que albergaron el primer microprocesador, el Intel 4004 (en primer plano). Una de las razones que permiten hacerlas mayores es que el proceso de manufactura es más limpio (recuadro). MÁQUINAS DE CÓMPUTO dido y dispusiéramos de máquinas venidas del año 2000. Además de las mejoras conseguidas en las líneas de producción y en las técnicas de tratamiento del silicio, los microprocesadores también se han beneficiado de cambios en los sistemas de diseño, avances que, en un futuro cercano, desembocarán en nuevos progresos. Una de las técnicas clave es el procesamiento concurrente por etapas (conocido en la jerga por pipelining, o “canalización”). Quienquiera que haya tenido que hacer la colada ha utilizado de forma intuitiva esta táctica. En un proceso no concurrente se procede como sigue: se llena la lavadora con una carga de ropa sucia; terminado el lavado, la colada húmeda se lleva a la secadora y cuando la secadora acaba, se plancha la ropa. Terminada esta tarea, se empieza otra vez. De esta forma, si para dejar lista una carga se necesita una hora, para veinte cargas harán falta veinte horas. E l proceso de canalización es mucho más rápido. En cuanto la primera carga se encuentra en la secadora, se introduce en la lavadora una segunda, y así en lo sucesivo. Todas las fases del proceso se desarrollan concurrentemente. Resulta paradójico que se tarde lo mismo en lavar por uno y otro método un solo calcetín sucio. Pero la canalización es más rápida, en el sentido de que son más las cargas terminadas por hora. Suponiendo que cada fase requiera el mismo tiempo, el tiempo ahorrado por este método es proporcional al número de etapas en que se descomponga la tarea. En el ejemplo de la colada, el lavado concurrente consta de cuatro fases, por lo que sería casi cuatro veces más rápido que la colada doméstica habitual. El proceso concurrente se encarga de que los microprocesadores sean mucho más veloces. Por así decirlo, los proyectistas de microcircuitos “bombean” por conductos distintos las instrucciones de bajo nivel enviadas al equipo físico. Los primeros microprocesadores de esta técnica utilizaban una división en cinco etapas. (El número de etapas ejecutadas por segundo está dado por la “velocidad de reloj”. Un ordenador personal provisto de un reloj de 100 megahertz ejecuta, pues, 100 millones de etapas por segundo.) Dado que la aceleración por canalización es igual al número de etapas, los microprocesadores han adoptado sistemas de ocho o más etapas. Un microprocesador fabricado en 1995 se vale de este recurso para alcanzar una velocidad de reloj de 300 megahertz. Conforme avanzan las 2. LAS SALAS BLANCAS, en las que se construyen las obleas, están diseñadas para reducir al mínimo la manipulación por seres humanos y protegerlas de las partículas que flotan en el aire. máquinas hacia el siglo venidero, son de esperar mayores números de etapas y velocidades de reloj más elevadas. Buscando la forma de fabricar microcircuitos más rápidos, los ingenieros han empezado a incluir más circuitería, para ejecutar más tareas en cada fase del proceso por etapas. Este método ha recibido el apodo de procesamiento “superescalar”. Una lavadora superescalar, por ejemplo, utilizaría máquinas industriales, capaces de lavar, digamos, triple carga de una vez. Los microprocesadores superescalares modernos tratan de realizar de tres a seis instrucciones en cada etapa. Por tanto un microprocesador superescalar de cuatro vías, con reloj de 250 megahertz, puede ejecutar 1000 millones de instrucciones por segundo. Un microprocesador del si­glo xxi podría lanzar docenas de instrucciones en cada etapa. A unque factibles, las mejoras en circuitos de proceso resultarán inútiles si no van a la par con ganancias similares en los elementos de memoria. Desde que a mediados de los años setenta quedaron disponibles las pastillas de memoria de acceso aleatorio (RAM), la capacidad de éstas ha venido cuadriplicándose cada tres años. Pero la velocidad de las memo- 111 Los límites de la litografía A unque los microprocesadores continuarán mejorando con rapidez, no es seguro que tal progreso mantenga un paso constante. No está claro cómo construir transistores más pequeños y más rápidos. Los métodos fotolitográficos en uso están encontrando limitaciones serias. Si no se con­ sigue resolver este problema, el progreso que venimos disfrutando desde hace decenios se detendrá chirriando. En fotolitografía se utiliza luz para transferir las configuraciones circuita­ les desde una plantilla de cuarzo, llamada máscara, a la superficie de una laminilla de silicio. La técnica actual permite trazar en esta lámina elemen­ tos cuya anchura no baje de unas 0,35 micras. Si esta anchura pudiera acortarse a la mitad, los transistores podrían ser cuatro veces más peque­ ños, pues se trata de dispo­ sitivos esencialmente bidi­ mensionales. Pero parece imposible construir elemen­ tos tan diminutos mediante la luz: las ondas luminosas son demasiado anchas. Muchas compañías han investigado la posibilidad de emplear rayos X, hasta la fecha sin éxito. No faltan propuestas de otros tipos; por ejemplo, uti­ lizar los haces de electrones con los que se crean las REDUCCION DE LAS MASCARAS y su proyecmáscaras de cuarzo em­plea­ ción sobre obleas para fabricar circuitos. das para configurar las obleas de silicio. El fino chorro de partículas cargadas podría ir trazando directamente sobre la lami­ nilla, una por una, las líneas de un diagrama circuital. Aunque se trata de una solución factible, resulta lentísima y, en consecuencia, muy costosa. Además de los obstáculos de índole técnica, el perfeccionamiento de los microprocesadores está amenazado también por el costo de las plantas de manufactura. Estos complejos cuestan hoy mil veces más que hace treinta años. Tanto los compradores como los vendedores de equipos para semi­ conductores se atienen a la regla de que la reducción a la mitad del tamaño del elemento mínimo provoca la duplicación del precio. Como es obvio, aunque se descubran métodos innovadores, los ingresos generados por la venta de láminas menores habrán de duplicarse para asegurar la continuada inversión en nuevas líneas. Esta regla solamente podrá cumplirse creando más laminillas o encareciéndolas. (D.A.P.) rias no ha podido mantener este ritmo. Y el vacío entre la velocidad máxima de los procesadores y la velocidad máxima de las memorias se está ensanchando. Un recurso habitual consiste en instalar un tampón o antememoria (cache memory) en el propio procesador. La antememoria alberga aquellos segmentos de programa que se emplean con mayor frecuencia, lo cual evita en muchas ocasiones que el procesador haya de recurrir a la memoria externa. Algunos microprocesadores dedican ya tantos transistores a la antememoria como al procesador. Los microprocesadores del futuro asignarán todavía más recursos a antememoria, para 112 mejor salvar la diferencia de velocidades. El santo grial de la informática se esconde en el “procesamiento en paralelo”, que proporciona todos los beneficios de un solo procesador rápido haciendo funcionar simultáneamente muchos procesadores de bajo costo. En nuestro símil, podríamos ir a una lavandería y utilizar a la vez 20 lavadoras y 20 secadoras para hacer simultáneamente 20 cargas de colada. Como es obvio, el proceso en paralelo constituye una solución poco económica para cargas pequeñas. Y la construcción de un programa capaz de utilizar 20 procesadores a la vez es mucho más difícil que la distribución de colada entre 20 lavadoras, puesto que tales programas tienen que especificar qué instrucciones han de ejecutarse en cada momento por cada uno de los procesadores. El procesamiento superescalar guarda semejanzas con el procesamiento en paralelo y es más popular, porque el propio equipo determina automáticamente las instrucciones lanzables al mismo tiempo. Pero carece de su potencial de proceso. Si la confección de los programas necesarios no resultara tan difícil, los procesadores en paralelo podrían adquirir toda la potencia que uno pudiera permitirse. La cruda realidad es que el proceso en paralelo sólo resulta práctico para unos cuantos tipos de programa. R epasando viejos artículos me he topado con fantásticas predicciones sobre los ordenadores de 1995. No pocos afirmaban que la electrónica cedería el paso a los dispositivos ópticos; otros, que los ordenadores serían de materiales biológicos; que se abandonaría la noción de programa almacenado. Tales visiones demuestran cuán imposible resulta prever qué inventos cuajarán y revolucionarán el sector informático. En mi carrera profesional he visto el asentamiento de sólo tres nuevas técnicas: los microprocesadores, las memorias de acceso aleatorio y las fibras ópticas. Decenios después de su puesta de largo, su influjo no se ha debilitado. No cabe duda de que en los próximos 25 años se producirán algunos inventos que modificarán la informática. Mi conjetura es, sin embargo, que la noción de programa almacenado es demasiado elegante para que pueda prescindirse de ella fácilmente. Estoy convencido de que los ordenadores futuros serán muy similares a las máquinas del pasado, aun cuando se construyan con materiales muy distintos. No creo que el microprocesador del año 2020 deje boquiabiertas a las personas de nuestro tiempo, aunque los microcircuitos más rápidos puedan ser mucho mayores que la primera oblea de silicio y pese a que los más económicos puedan ser mucho más diminutos que el Intel 4004 original. Las técnicas de canalización, de antememoria y la organización superescalar continuarán desempeñando papeles principales en el progreso de la técnica de microprocesadores y, si las esperanzas se materializan, a ellas se sumará el procesamiento en paralelo. Lo que va a resultar pasmoso es que habrá microprocesadores en todo, desde los interruptores de la luz hasta los pedazos de papel. TEMAS 4 ¿Y después del año 2020? L os diseños microelectrónicos actuales, que tienen en sus entrañas una formidable capacidad innovadora, domi­ narán buena parte del siglo xxi. Esto no impide que muchos laboratorios exploren técnicas novedosas, aplicables tal vez al diseño de nuevas generaciones de ordenadores y de dispositivos microelectrónicos. En ciertos casos dichas técnicas permitirían que los diseños de microcircuitos alcanzasen una miniaturización imposible de obtener por técnicas parecidas a las litográficas al uso. Entre las líneas de investigación acometidas destacan: Puntos cuánticos. Los puntos cuánticos son disposicio­ nes moleculares que permiten atrapar electrones individua­ les y registrar sus movimientos. En teoría, estos dispositivos pueden servir de registros binarios en los que la presencia o ausencia de un electrón sirve para representar el 0 o el 1 de un bit de datos. Una variante de este esquema consiste en que, al incidir luz láser sobre átomos, podría hacerlos saltar de su estado electrónico fundamental a un estado excitado, cambiando así el valor del bit. Pero al hacer tan extremadamente pequeños los transistores y los conduc­ tores, ocurre que los efectos cuánticos comienzan a per­ turbar su función. Los componentes lógicos mantienen con menor fiabilidad sus valores 0 y 1, porque resulta difícil especificar las ubicaciones de electrones individuales. Sin embargo, podría sacarse partido de esta propiedad: Seth Lloyd y otros están estudiando la posibilidad de desarrollar técnicas cuánticas de computación que capitalicen el com­ portamiento no-clásico de los dispositivos. Computación molecular. En lugar de construir compo­ nentes de silicio, algunos investigadores están tratando de desarrollar sistemas de almacenamiento de datos con moléculas biológicas. Robert L. Birge estudia el potencial computacional de moléculas relacionadas con la bacterio­ Los microprocesadores y las memorias se fabrican actualmente en líneas de manufactura distintas, pero no es obligado que sea así. Quizás en un futuro cercano ambos queden asociados en una misma micropastilla, igual que el microprocesador casó los diversos componentes de un procesador en una sola pieza. Para reducir el vano entre los rendimientos de los procesadores y de las memorias, para aprovecharse del procesamiento en paralelo, para amortizar los costos de manufac­tura y, sencillamente, para sacar partido pleno del fenomenal número de transistores que caben en una laminilla, pronostico que, en el año 2020, el microprocesador de gama alta constituirá por sí solo un ordenador completo. Podríamos llamarlo IRAM (“memoria inteligente de acceso aleatorio”), pues la mayoría de los transistores de este microcircuito estarán dedicados a memoria. Mientras que los microprocesadores actuales han de recurrir a centenares de líneas de conexión con las memorias externas, los IRAM MÁQUINAS DE CÓMPUTO rodopsina, un pigmento que altera su configuración en respuesta a la luz. Una ventaja de tal molécula es que podría emplearse en un computador óptico, en el cual chorros de fotones desempeñarían el papel de los electrones. Otra consiste en que muchas de estas moléculas podrían sinte­ tizarse por microorganismos. Según ciertas estimaciones, las biomoléculas fotóni­ c a m e n t e a c t i va d a s podrían quedar concate­ nadas en un sistema de memoria tridimensional cuya capacidad llegaría a ser 300 veces mayor que los CD-ROM actua­ les. Puertas lógicas na­­ no­mecánicas. En estos sistemas, para realizar opera­ciones lógicas se pro­cedería a desplazar UN PUNTO CUANTICO (violefísicamente diminutos ta) atrapa electrones en este haces o filamentos de un semiconductor. átomo de espesor. Puertas lógicas re­­ versi­bles. Conforme aumen­ta la densidad de componentes de los microcircuitos, más difícil se torna la disipación del calor generado en los cómputos. Se está valorando la posi­ bilidad de reponer las capacitancias a su estado original cuando acaba un cálculo. Dado que las puertas lógicas reversibles recapturarían parte de la energía consumida, en ellas se disiparía menos calor. ne­cesitarán sólo las conexiones a una red informática y a una toma de co­rriente. Los dispositivos de en­tra­da/ salida estarán enlazados a ellos a través de redes. Si necesitan más memoria, obtendrán al mismo tiempo mayor capacidad de proceso, y viceversa; esta organización mantendrá equilibrada la capacidad de memoria y la velocidad del procesador. Los IRAM serían también módulos ideales para el proceso en paralelo. Puesto que serán tan pocas las conexiones externas que requieran, estos procesadores podrían ser además pequeñísimos. Es muy posible que veamos “picoprocesadores” baratos y menores que el antiguo 4004 de Intel. Si el proceso en paralelo tiene éxito, este mar de transistores podría utilizarse también para constituir múltiples procesadores sobre una sola laminilla, proporcionándonos un micromultiprocesador. Los microprocesadores actuales son casi cien mil veces más veloces que sus troglodíticos antepasados de los años La Redacción cincuenta y cuestan mil veces menos; estos extraordinarios hechos explican el enorme papel que la informática desempeña ahora en nuestro mundo. Mirando hacia el futuro, es bastante posible que también en el próximo siglo el rendimiento de los microprocesadores siga duplicándose cada año y medio. BIBLIOGRAFIA COMPLEMENTARIA Microprocessors: From Desktops to Supercomputers. F. Baskett y J. L. Hennesy. Science, vol. 261, págs. 864-871; 1993. Computer Organization and Design: The Hardware/Software Interface. J. L. Hennesy y D. A. Patterson. Morgan Kaufmann Publishers, 1995. Computing Perspectives. M. V. Wilkes. Morgan Kaufmann Publishers, 1995. Siga la referencia en la World Wide Web http://cra.org:80/research.impact/ y mire bajo el epígrafe “RISC” para saber más sobre el rápido aumento del rendimiento de los procesadores. 113 Ordenadores de base proteínica Robert R. Birge Ciertos dispositivos fabricados a partir de moléculas biológicas prometen tamaño más reducido y almacenaje de datos más rápido. Pueden servir para ordenadores de procesamiento en paralelo y redes neuronales E l superordenador más avanzado del mundo no necesita ningún microcircuito semiconductor. El cerebro humano está formado por moléculas orgánicas que, combinadas, tejen una red sumamente complicada y perfecta, capaz de calcular, percibir, manipular, repararse a sí misma, pen­ sar y sentir. Es cierto que los ordena­ dores digitales pueden efectuar cálculos con una velocidad y precisión mucho mayores que las personas, pero en los otros cinco campos, hasta los organismos elementales aventajan a los ordenadores. Quizá nunca lleguen a crearse máquinas que posean todas las facultades del cerebro. Aun así, muchos opinamos que se puede sacar ROBERT R. BIRGE, experto en dispo­ sitivos electrónicos de base proteínica y en ordenadores híbridos, enseña quími­ ca en la Universidad de Syracusa. 114 partido de ciertas propiedades especia­ les de las moléculas biológicas —en es­pecial de las proteínas— para la construcción de componentes informá­ ticos que sean más pequeños, potentes y veloces que cualesquiera dispositivos electrónicos que hasta ahora se hayan paseado por los tableros de diseño. La cuestión del tamaño es acuciante. Desde los años sesenta este sector industrial se ha visto compelido a reducir cada vez más los componentes de los microcircuitos semiconductores, para fabricar memorias mayores y procesadores más potentes. Tales microcircuitos consisten, en esencia, en matrices de conmutadores, puertas lógicas normalmente, que van to­man­do uno de dos estados (0 y 1) en respuesta a cambios en la corriente eléctrica que pasa a su través. (Lo típico es repre­ sentar toda la información mediante tales dígitos binarios, o bits.) De pro­ seguir la tendencia hacia la miniatu­ rización, el tamaño de una puerta lógica será, antes de 40 años, el de una molécula. Pero existe un grave obstáculo. Cada vez que se duplica la miniaturización, el costo de fabricación del microcir­ cuito se multiplica por cinco. Puede llegar el punto en que la búsqueda de dispositivos electrónicos cada vez menores se vea limitada más por con­ sideraciones económicas que por con­ sideraciones físicas. Por otra parte, es posible que al utilizar moléculas bioló­ gicas con carácter de componentes activos de la circuitería de los ordena­ dores aparezcan opciones técnicas menos caras. Las moléculas pueden actuar de conmutadores lógicos porque sus áto­ mos son móviles y cambian de posición de forma predictible. Si logramos diri­ gir ese movimiento atómico y generar sistemáticamente en cada molécula al menos dos estados, podremos valernos de cada uno para representar, ora 0, ora 1. Tales conmutadores ofrecen TEMAS 4 reducciones del tamaño de los equipos porque son intrínsecamente pequeños: una milésima del tamaño de los tran­ sistores de semiconductor utilizados hoy como puertas (cuyo diámetro ron­da la micra, o sea, una millonésima de me­tro). De hecho, un ordenador biomo­ le­c ular podría, en teoría, ser la quincua­gésima parte de un ordenador ac­tual de semiconductores que contu­ viera similar número de elementos lógicos. La reducción del tamaño de las puertas desemboca en dispositivos más veloces; los ordenadores de base proteí­nica podrían, en teoría, operar a velocidades mil veces mayores que los ordenadores modernos. Nadie propone todavía un ordena­ dor puramente molecular. Es mucho más probable, al menos en un futuro cercano, que se utilice una tecnología híbrida, que combine moléculas y semiconductores. Tal proceder debería proporcionar ordenadores cincuenta veces menores que los actuales y cen­ tuplicar su velocidad. Las moléculas biológicas también resultan atractivas porque pueden diseñarse átomo a átomo, confiriendo así a los ingenieros el control necesario para crear puertas que funcionen de acuerdo con los requerimientos de una aplicación. Los ordenadores bioelectró­ nicos facilitarían además la búsqueda de prototipos más adaptables. Se está reforzando la versatilidad de los dis­ positivos electrónicos con equipos de nueva configuración o, como se dice en la jerga, de nueva arquitectura. Se han introducido arquitecturas de procesamiento en paralelo, que permi­ ten la manipulación simultánea de múltiples sistemas de datos. Para ampliar la capacidad de las memorias se están ideando elementos que alma­ cenen datos en tres dimensiones, en lugar de las dos habituales. Y se han construido redes neuronales que reme­ dan la facultad de aprendizaje por aso­ ciación que posee el cerebro, facultad que es necesaria para lograr avances de importancia hacia la inteligencia arti­ ficial. La capacidad de ciertas proteínas para cambiar sus propiedades en res­ puesta a la luz debería simplificar los equipos físicos necesarios para llevar a la práctica dichas arquitecturas. A unque todavía no existen en el mercado componentes informáti­ cos formados, en todo o en parte, por proteínas, los continuados esfuerzos de la investigación se están abriendo paso hacia esa meta. Parece razonable pronosticar que la técnica híbrida, que conjuga microcircuitos semiconducto­ res y moléculas biológicas, pasará bas­ tante pronto del dominio de la fantasía científica a las aplicaciones comercia­ les. Las pantallas de cristal líquido ofrecen un espléndido ejemplo de sis­ tema híbrido que ha triunfado. Casi todos los ordenadores portátiles de nuestros días se basan en pantallas de cristal líquido, que combinan dispo­ sitivos semiconductores con moléculas orgánicas para controlar la intensidad de la imagen en la pantalla. Son varias las moléculas biológicas que se están estudiando con vistas a su utilización en componentes infor­ máticos, pero ha sido una proteína bacteriana, la bacteriorrodopsina, la que ha suscitado mayor interés. A lo largo de los diez últimos años, mi labo­ ratorio, y otros de Norteamérica, Europa y Japón, han construido proto­ tipos de dispositivos de procesamiento en paralelo, elementos de almacena­ miento volumétrico y redes neuronales que se basan en esta proteína. El interés por la bacteriorrodopsina se remonta a los años setenta, cuando Walther Stoeckenius y Dieter Oester­ helt descubrieron que exhibía insólitas propiedades al ser expuesta a la luz. La bacteriorrodopsina, que se en­cuen­ tra en la membrana de Halo­bacterium salinarium, permite el crecimiento de la bacteria cuando la concentración de oxígeno es insuficiente para mantener al microorganismo. Al incidir la luz sobre ella, la proteína modifica su estructura y transporta un protón a través de la membrana, aportando así energía para alimentar el metabolismo celular. Los científicos soviéticos reconocie­ ron y abordaron las posibilidades que la bacteriorrodopsina ofrece en compu­ tación. Al poco de su descubrimiento, 1. LAS AGUAS SALOBRES del californiano lago de Owens (izquierda) presentan un matiz azulado, causado por bacterias (inserto) que contienen bacteriorrodopsina. Esta proteína, aquí representada por una cinta (centro), porta un cromóforo (estructura esquelética de esferas y enlaces lineales) que absorbe la luz. Cuando este seg­ mento se excita por la luz, su estructura cambia (derecha) alterando la configuración del resto de la proteína. Puesto que la bacteriorrodopsina responde a la luz adop­ tando estados diferentes y fácilmente detectables, puede servir para puertas lógicas, o conmutadores, en ordenadores ópticos de base proteínica. MÁQUINAS DE CÓMPUTO 115 2. FOTOCICLO de la bacteriorrodopsina: se­ cuencia de cambios estructurales inducidos por la luz. El fotociclo permite el almacenamiento de datos en la memoria. La luz verde transforma el estado inicial de reposo, conocido por bR, convir­ tiéndolo en el intermedio K. A continuación, K se relaja, formando primero M y luego O. Al expo­ner a la luz roja el intermedio O, se produce una rea­ cción de ramificación. La estructura O pasa al estado P, que rápidamente se relaja al Q, forma que permanece estable. Sin embargo, la luz azul devolverá Q al estado bR. Se les pueden asignar los valores binarios 0 y 1 a dos estados cuales­ quiera de larga duración, lo que permite alma­ cenar información mediante series de molé­culas de bacteriorrodopsina en uno u otro estado. dos los detalles de su logro más impre­ sionante: un procesador para radares militares. E Yuri A. Ovchinnikov organizó un equi­p o de expertos procedentes de cinco insti­t uciones soviéticas, que habría de trabajar en bioelectrónica, integrados en el “proyecto Rodopsina”. Ovchin­nikov consiguió que los altos mandos militares le escucharan y les convenció de que, al explorar la bio­ electrónica, la ciencia soviética se ade­ lantaría a la tecnología informática del Oeste. Son muchos los aspectos de este ambicioso proyecto que permanecen bajo secreto militar. Sabemos de cierto que el ejército rojo hizo películas de microfilmación, llamadas biocromo, a partir de bacteriorrodopsina. Informes extraoficiales de antiguos científicos soviéticos hoy residentes en los Es­tados Unidos indican que se construyeron también procesadores ópticos de datos con técnicas proteínicas. Siguen veda­ 3. LA ESCRITURA DE INFORMACION en cubos de bacteriorro­ dopsina (violeta) y la lectura de tal información se consiguen mediante haces de láser. El proceso de escritura comienza disparando haces de láser de color verde a través de un plano 116 mpecé a interesarme por la bacteriorrodopsina en los años setenta, mientras estudiaba las bases bioquí­ micas de la visión en la Universidad de California en Riverside. Mi trabajo se había centrado en una proteína afín, la rodopsina, presente en la retina de los mamíferos. Tanto la rodopsina como la bacteriorrodopsina son pro­teí­ nas complejas que contienen un com­ ponente que absorbe la luz, que recibe el nombre de cromóforo. El cromóforo absorbe energía de la luz, desencade­ nando una serie de movimientos inter­ nos que modifican la estructura de la proteína que lo contiene. Dichas modi­ ficaciones alteran las características ópticas y eléctricas de la proteína. Por ejemplo, en el interior del ojo humano, cuando la rodopsina absorbe luz, su cambio de estructura libera energía, que sirve de señal eléctrica para el transporte de información visual has­ta el cerebro. Al principio, me interesaba cómo se del cubo (1); este paso inicia el fotociclo de la proteína. A con­ tinuación se disparan láseres rojos (2) sobre el conjunto de moléculas de dicho plano (verde) que han de convertirse al es­ tado binario 1; las moléculas restantes representan el estado 0. TEMAS 4 producían en la rodopsina tales cam­ bios activados por la luz. Pero muy pronto dirigí la mirada hacia la bacte­ riorrodopsina. Había decidido aplicar mi conocimiento de sus propiedades al diseño de memorias y procesadores de ordenador que se basaran en esa pro­ teína. Albert F. Laurence me conven­ ció de las posibilidades de la bioelec­ trónica. Se incorporó durante un año a mi laboratorio para explorar la uti­ lización de materiales biológicos en memorias ópticas. Nos centramos en la bacteriorrodop­ sina, y no en la rodopsina, porque la pri­mera posee mayor estabilidad y me­jo­res propiedades ópticas. Podía, ade­más, prepararse en grandes canti­ dades. Los componentes de los ordena­ dores han de poder soportar cambios de su am­biente sin estropearse. En con­ diciones naturales la bacterio­rro­dop­ si­na opera en las marismas, cuyas tem­ peraturas pueden superar los 65 gra­dos y donde la molécula queda expuesta muchas veces a la luz intensa. Las aplicaciones estudiadas con miras a obtener procesadores de orde­ nador y las memorias sobre las que éstos operan se apoyan en el fotociclo, serie de cambios estructurales que experimenta la bacteriorrodopsina en respuesta a la luz. (En estado de re­poso la molécula se denomina bR; cada estado intermedio de la serie se iden­ tifica mediante una letra del alfabeto.) Los distintos intermedios —abrevia­ tura de estados intermedios— pueden utilizarse para la representación de bits de datos. Los intermedios absorben luz en dis­ tintas regiones del espectro. Podemos, en consecuencia, leer los datos ilumi­ nando las moléculas con haces de láser y observando qué longitudes de onda no pasan hasta el detector. Puesto que podemos alterar la estructura de la bacteriorrodopsina con un láser y de­terminar después, con otro láser, qué estados intermedios se han formado, disponemos de la base necesaria para grabar la memoria y después leerla. L a mayoría de los dispositivos se basan en el estado de reposo y en un intermedio de la bacteriorrodopsina. Uno de los estados se designa 0, y el otro, 1; la conmutación entre estados se controla mediante un haz de láser. Muchos de los primeros dispositivos de memoria basados en la bacteriorrodop­ sina sólo podían operar a la tempera­ tura, bajísima, del nitrógeno líquido, a la cual resultaba controlable la transi­ ción entre la estructura bR inicial y un estado K intermedio. Dichos dispositi­ vos eran rápidos en comparación con los conmutadores de semiconductores (la transición de bR a K se produce en pocas billonésimas de segundo —pico­ segundos— frente a las milmillonési­ mas —nanosegundos— que requieren los dispositivos ordinarios de semicon­ ductores). Pero la necesidad de tan bajas temperaturas impedía que fue­ ran de aplicación general. Hoy la mayoría de los dispositivos basados en bacteriorrodopsina funcio­ nan a la temperatura ambiente o cer­ cana a ella, condición en la cual es es­table otro estado intermedio, llama­do M. Aunque casi todos los dispositivos de memoria basados en la bacterio­ rodopsina incorporan el conmu­tador bR a M, puede que para sistemas de cóm­ puto de base proteínica resulten más útiles en la práctica otras estructuras. Las moléculas diana forman el estado P (3), relajándose en la estructura Q (4). La lectura desde la memoria de base proteíni­ ca comienza activando el plano con luz verde (5). Se disparan láseres rojos de baja intensidad. Las moléculas en el estado bR MÁQUINAS DE CÓMPUTO De los estados intermedios que se producen tras la exposición inicial de la bacteriorrodopsina a la luz, algunos pasan a adoptar estructuras insólitas cuando absorben energía procedente de un segundo haz de láser, en un proceso de arquitectura secuencial monofotónica. Se producen, por ejem­ plo, reacciones de ramificación de este tipo a partir del intermedio O, formán­ dose P y Q. Estas estructuras las gene­ ran dos pulsos consecutivos de luz láser, primero verde y después roja. Aunque el estado P es bastante efí­ mero, se re­laja a una forma conocida por Q, que es estable durante períodos largos, in­c lu­s o de algunos años. A causa de su prolongada estabilidad, el estado Q es de gran relevancia en la búsqueda de me­morias no volátiles de alta densidad. Los estados intermedios P y Q, que se forman en el proceso secuencial monofotónico, revisten particular uti­ lidad para el procesamiento en para­ lelo. Al objeto de escribir datos en pa­ralelo, nuestro método incorpora otra innovación: el almacenamiento tridimensional de datos. Un cubo de bacteriorrodopsina está rodeado por dos matrices de haces de láseres, dis­ puestas perpendicularmente. Una de las matrices de láser, de elementos sintonizados todos en luz verde, la lla­ mada matriz de paginación, activa el fotociclo de la proteína en la sección transversal cuadrada que se seleccione en el interior del cubo (una “página”). Transcurridas algunas milésimas de segundo, cuando el número de estados intermedios O está próximo al má­ximo, se dispara la otra matriz de láseres, rojos esta vez. Esta segunda matriz está progra­ mada de forma que sólo ilumine la absorben la luz roja, mientras que las moléculas en el estado P o Q dejan pasar los bajos niveles luminosos. La configuración resultante de luz y oscuridad puede recogerse en un detector situado frente a la matriz de láser rojo (6). 117 4. LOS ORDENADORES del futuro podrían ser equipos híbri­ dos, consistentes en tarjetas dotadas de proteínas (púrpura) y región del cuadrado activado en el que se habrán de escribir bits de datos, conmutando a la estructura P las mo­lé­ culas que hay en ellas. Segui­da­mente, el intermedio P relaja su estructura, formando el estado Q, muy estable. Si asignamos la estructura bR al estado binario 0 y tanto la P como la Q al estado binario 1, el proceso es análogo a la conmutación binaria que tiene lu­gar en las memorias de semiconduc­ tores o magnéticas. Dado que la matriz de láser puede activar moléculas en diversos lugares, cualquiera que sea su posición en la página iluminada elegida, es posible escribir simultánea­ mente —o sea, en paralelo— múltiples localizaciones de datos, a las que se denomina direcciones. N uestro sistema para la lectura de lo almacenado en la memoria —sea durante el procesamiento o du­r ante la extracción de un resul­ tado— se basa en la absorción selec­ tiva de luz roja por el estado interme­ dio O. Para leer en paralelo múltiples bits de datos, se empieza igual que en el proceso de escritura. Primero, se dispara un haz verde de paginación contra el cuadrado de proteína que ha de leerse, iniciando el fotociclo normal de las moléculas en el estado bR. Al cabo de dos milisegundos la matriz entera de láser se activa a una inten­ sidad muy baja de luz roja. Las molé­ culas que se encuentran en el estado binario 1 (estados intermedios P y Q) no absorben los haces, ni cambian de estado. Pero las moléculas que partían del estado binario original 0 (bR) sí absor­ ben los haces (aunque sin modificación de su estructura), porque han realiza­do el ciclo al estado intermedio O, que absorbe la luz roja. Un detector crea una imagen de la luz que atraviesa el cubo de memoria y registra las ubica­ ciones de las estructuras O y de las P o Q; en términos de código binario, el detector lee ceros y unos. El proceso tarda unos 10 milisegundos en lle­ 118 de semiconductores. Las que vemos aquí, no construidas aún, podrían proporcionar memoria asociativa (a) y memoria volu­ varse a cabo, lo que significa una tasa de 10 megabytes por segundo y página de memoria. Además de facilitar el proceso en paralelo, los cubos tridimensionales de bacteriorrodopsina proporcionan mu­cho más espacio de memoria que las memorias ópticas bidimensionales. Cierto sistema de memoria no biológi­ca incorpora una delgada película de material magnético que se graba me­d iante un haz láser y se borra me­dian­te un campo magnético. Estas memorias son bidimensionales, por­ que los datos se almacenan sobre la superficie del disco. Tales memorias bidimensionales tienen una capacidad de almacenamiento limitada a unos 100 millones de bits por centímetro cuadrado. En contraste las memorias ópticas tridimensionales pueden en teoría alcanzar densidades de almacena­ miento de hasta un billón (1012) de bits por centímetro cúbico. En la práctica las limitaciones ópticas y de los dispositivos rebajan las densidades posibles para las memorias volumétricas. Pero parecen realizables capacidades de almacena­ miento 300 veces superiores a las de los dispositivos bidimensionales. A corto plazo el principal impacto de la bioelec­ trónica sobre los equipos informáticos corresponderá, en mi opinión, al campo de la memoria volumétrica. La velocidad constituye también un importante beneficio de las memorias volumétricas. La combinación de al­m acenamiento tridimensional y arquitecturas en paralelo potencia la velocidad de tales memorias, de igual manera que el proceso paralelo del cerebro humano compensa holgada­ mente los procesos neuronales, lentos, y permite que el cerebro sea una má­quina pensante de reflejos veloces y capaz de tomar decisiones con agi­ lidad. Todo el proceso de escritura descrito antes se desarrolla en unos 10 milisegundos. Si iluminamos un cuadrado que mida 1024 por 1024 bits en el interior del cubo de proteína, po­d emos grabar en la memoria 1.048.576 bits de datos, o sea, unos 105 kilobytes en un ciclo de 10 milisegun­ dos. Tales valores equivalen a una velocidad global de escritura de 10 millones de ca­racteres por segundo, comparables a memorias de semicon­ ductor lentas. Sin embargo, cada dis­ positivo de me­moria puede acceder a más de un cubo de datos y la velocidad de la memoria es proporcional al número de cubos que operen en para­ lelo. En consecuen­cia, una memoria de ocho cubos operaría mucho más rápi­ damente, a unos 80 millones de carac­ teres por segundo. P ara garantizar la exactitud de la lectura y la escritura, los cubos de memoria han de tener una composi­ ción uniforme; si en una región hay demasiadas moléculas, o excesiva­ mente pocas, la información almace­ nada en ella sufrirá distorsión. La manufactura de los cubos en baja gra­ vedad puede producir la homogenei­ dad necesaria para los dispositivos de memoria. En otro orden de cosas las moléculas biológicas ofrecen esperan­ zas de servir de componentes para las memorias asociativas necesarias para redes neuronales y, en definitiva, para la inteligencia artificial. Las memorias asociativas difieren bastante en su modo de operar de las memorias que predominan en los sis­ temas informáticos actuales. Las de aquel tipo toman un conjunto de datos, con frecuencia en forma de una ima­ gen, y exploran en su totalidad el banco de memoria hasta encontrar un con­ junto de datos concordante. En algu­ nos casos, si no encuentra una concor­ dancia exacta, el ordenador presenta la más parecida, efectuando una suerte de conjetura razonable de posible res­ puesta. Dado que el cerebro humano funciona en modalidad neuronal, aso­ ciativa, muchos creen que, para conse­ guir inteligencia artificial, serán nece­ sarias memorias asociativas de gran capacidad. TEMAS 4 métrica: unos 32 gigabytes de memoria permanente (b) y ocho gigabytes de memoria removible (c). Combinadas con una uni­ Mi laboratorio ha desarrollado un dispositivo de memoria asociativa que se basa en las propiedades holográfi­ cas de las películas delgadas de bacte­ riorrodopsina. Los hologramas permi­ ten el almacenamiento de imágenes múltiples en el mismo segmento de memoria, lo que posibilita el análisis simultáneo de vastos conjuntos de datos. El sistema de memoria está ba­sado en el clásico diseño de Eung G. Paek y Demetri Psaltis. Hemos ha­l lado que la bacteriorrodopsina ofrece ventajas bien caracterizadas frente a los cristales fotorrefractivos utilizados para fabricar estas memo­ rias. Dado que la proteína es más sen­ sible a la luz que los cristales inorgá­ nicos, pueden emplearse niveles de iluminación más bajos. En consecuen­ cia, para escribir y leer en la memoria hace falta menos energía, mejorando la velocidad de estos procesos. Además la bacteriorro­dopsina puede grabarse y leerse mu­chas veces más que los cristales, los cuales, tras repetidos ciclos de lectura-escritura, acusan fenómenos de fatiga. A l tiempo que continúan los estudios de la bacteriorrodopsina, muchos laboratorios están explorando el valor de formas modificadas de la proteína para dispositivos informáti­ cos. Concretamente se están investi­ gando versiones de la proteína obteni­ das por ingeniería genética, en las cuales un aminoácido reemplaza a otro con el fin de reforzar las propiedades necesarias para una determinada apli­ cación. Por ejemplo, por eliminación en la proteína de un aminoácido interno es posible prolongar la pervi­ vencia del estado M en el fotociclo, como han demostrado Norbert Hampp y Christoph Bräuchle en colaboración con Oesterhelt. Evidentemente la meta última son los ordenadores biomoleculares. Pero la mayoría de los expertos consideran que el primer paso en el desarrollo de ordenadores de base proteínica habrá MÁQUINAS DE CÓMPUTO dad central de procesamiento de semiconductor (d), estas tar­ jetas forman un ordenador completo de grandes capacidades. de ser la generación de sistemas híbri­ dos que conjuguen las mejores caracte­ rísticas de las arquitecturas molecular y de semiconductores. En par­ticular la técnica híbrida, compuesta en parte por memoria de alta densidad y base proteínica, puede contribuir a resolver el pertinaz problema de la capacidad de la memoria. A lo largo de los últimos diez años la velocidad de los procesadores de orde­ nador se ha multiplicado casi por mil, mientras que las capacidades de los dispositivos de almacenamiento ex­terno sólo aumentaron en un factor de 50. Por otra parte, la transferencia de datos en el seno del ordenador sigue constitu­ yendo el principal cuello de botella que limita el rendimiento. El procesamiento en paralelo y las interconexiones mediante señales luminosas, acelera­ dos ambos merced a ordena­dores híbri­ dos que saquen partido de la eficaz conmutación de las moléculas biológi­ cas, permiten el almacenamiento, la transferencia y la manipulación de ingentes cantidades de datos. Con el propósito de explorar el valor de los ordenadores híbridos mi labora­ torio está diseñando uno que contiene cuatro tipos de unidades de memoria o de procesadores, denominados tarje­ tas. La tarjeta de la unidad central de procesamiento de este ordenador uti­ lizará las técnicas tradicionales de se­miconductores. Dos tarjetas conten­ drán memoria volumétrica de base proteínica, con una capacidad total en torno a 40 gigabytes. Una de estas tarjetas será una memoria de acceso alea­t orio, permanente, sin partes móviles; la otra ofrecerá un almacena­ miento de datos a largo plazo, más económica y removible. La cuarta tar­ jeta contendrá una memoria asocia­ tiva basada en películas de bacterio­ rrodopsina. El ordenador híbrido que imagina­ mos sería sumamente versátil. Apro­ vechando las combinaciones de memo­ ria descritas, el ordenador debería poder manejar grandes bancos de datos, efectuar simulaciones comple­ jas o servir de plataforma excepcional para investigaciones de inteligencia artificial. Provista de cerca de un tera­ byte (1012 bytes) de memoria en cubos de bacteriorrodopsina esta má­quina podría manejar grandes bases de datos. La combinación de procesa­ miento por memoria asociativa con memoria volumétrica haría que la con­ sulta de bases de datos fuera varios órdenes de magnitud más rápida de lo que es posible en la actualidad. Dado que este modelo híbrido puede operar como ordenador híbrido asociativo y neuronal, capaz de aprender y anali­ zar datos de forma similar a como lo hace el cerebro humano, no cabe sub­ estimar la posible importancia de los computadores híbridos en inteligencia artificial. A unque mi grupo y otros han tenido notable éxito en el desarrollo de memorias volumétricas y procesadores aso­cia­­tivos, se requiere ahondar más an­tes de que pueda construirse un or­de­ nador híbrido operativo. En el ca­mi­no conducente al desarrollo de un di­seño potente y de precio razonable, puede que otras arquitecturas reemplacen muchos de los componentes físicos que hemos descrito. Confiamos, sin em­bar­go, en que antes de ocho años habrá com­ putadores híbridos de algún tipo. BIBLIOGRAFIA COMPLEMENTARIA Bacteriorhodopsin: A Biological Material for Information Processing. Dieter Oesterhelt, Christoph Bräuchle y Norbert Hampp en Quarterly Reviews of Biophysics, vol. 24, n.o 4, págs. 425-478; noviembre de 1991. Protein-Based Optical Computing and Memories. Robert R. Birge en Computer, vol. 25, n.o 11, páginas 56-67; noviembre de 1992. Protein-Based Three-Dimensional Memory . Robert R. Birge en American Scientist, vol. 82, n.o 4, páginas 348-355; julio-agosto de 1994. 119 Computación mecánico-cuántica Seth Lloyd Si algún día llegan a construirse, los ordenadores mecánico-cuánticos lograrán lo que ningún ordenador en uso puede hacer D urante el último medio siglo, los ordenadores han ido duplican­ do su velocidad cada dos años, al tiempo que el tamaño de sus componentes se reducía a la mitad. Los circuitos actuales contienen transistores y líneas de conducción cuya anchura es sólo una centésima parte de la de un cabello humano. Las máquinas de nuestros días son millones de veces más potentes que sus rudimentarias antepasadas a causa de tan explosivo progreso. Pero las explosiones acaban disipándose y las técnicas de integración de microcircuitos están empezando a tropezar con sus límites. Mediante técnicas litográficas avan­ zadas podrían producirse elementos cien veces menores que los hoy disponibles. Pero a tal escala, en la que la materia se presenta como una muchedumbre de átomos disgregados, los circuitos integrados apenas consiguen funcionar. Al reducir la escala diez veces más, los átomos manifiestan ya su identidad individual y basta un solo defecto para provocar una catástrofe. Por consiguiente, si se pretende que los ordenadores del futuro mengüen de tamaño, preciso habrá de ser que la técnica en uso se reemplace o suplemente con otras nuevas. Hace ya bastantes años que Rolf Landauer y Charles H. Bennett empezaron a investigar la física de los circuitos de procesamiento de información y plantearse hacia dónde podría conducirnos la miniaturización: ¿cuál sería el tamaño mínimo de los componentes circuitales? ¿Cuánta energía es preciso utilizar en el curso de una computación? Por ser dispositivos mecánicos, el funcionamiento básico de los ordenadores está descrito por la física. La naturaleza de las cosas impone que, al hacerse muy pequeños los compo1. LOS ATOMOS DE HIDROGENO podrían servir para almacenar bits de información en una computadora cuántica. Un átomo en estado fundamental, cuyo electrón se encuentra en el nivel energético más bajo posible (azul), puede representar un 0; el mismo electrón en estado excitado, con su electrón en un nivel energético superior (verde), puede representar un 1. El bit del átomo, 0 o 1, puede “virarse” (invertirse hacia el valor opuesto) mediante un pulso de luz láser (amarillo). Si los fotones del pulso tienen la energía exacta que diferencia los estados fundamental y excitado del átomo, el electrón saltará de uno a otro. 120 TEMAS 4 nentes de los circuitos de cómputo, su descripción debe dejarse en manos de la mecánica cuántica. A comienzos de los años ochenta Paul Benioff, partiendo de resultados obtenidos por Landauer y Bennett, demostró que, al menos en principio, un ordenador podría funcionar de modo puramente mecánico-cuántico. Poco después David Deutsch y otros comenzaron a modelizar computadoras mecánico-cuánticas para averiguar en qué divergerían de las clásicas. Se preguntaron, en particular, si cabría sacar provecho de los efectos mecánico-cuánticos para acelerar las comunicaciones o para efectuar cómputos mediante nuevos procedimientos. L a especialidad languideció a me ­diados del decenio por una serie de razones. Ante todo porque, en lugar de estudiar sistemas físicos tangibles, se habían considerado las computadoras cuánticas en sentido abstracto, pecado en el que Landauer incurrió no pocas veces. Resultó también evidente que un ordenador mecánico-cuántico sería propenso a errores y que la corrección de los mismos plantearía serios problemas. Y aparte de una sugerencia de Richard P. Feynman, en el sentido de que las computadoras cuánticas po­drían servir para la simulación de otros sistemas cuánticos (por ejemplo, formas de materia nuevas o inobservadas), no estaba claro que lograran re­solver problemas matemáticos con mayor velocidad que sus parientes, los ordenadores clásicos. La imagen ha cambiado en los últimos años. En 1993 describí una amplia clase de sistemas físicos, bien conocidos, que podrían actuar a modo de computadoras cuánticas, y hacerlo ahorrándome algunas de las objeciones de Landauer. Peter W. Shor de­mostró que podría utilizarse un ordenador cuántico para descomponer números grandes en factores primos, tarea que desborda incluso a las má­quinas más potentes. En el Instituto para el Intercambio Cien­tífico de Turín se han engendrado numerosos diseños para la construcción de circuitería cuántica. En fin, los grupos de H. Jeff Kimble y de David J. Wineland han fabricado algunos de estos componentes prototípicos. Explicaré aquí de qué forma podrían ensamblarse ordenadores cuánticos y me ocuparé de algunas tareas que podrían llevar a cabo y son irrealizables por los ordenadores digitales. Aceptemos de entrada que la mecánica cuántica produce desconcierto. Niels Bohr, que tanto contribuyó a su creación, confesaba: “Quien pueda contemplar la mecánica cuántica sin sen- SETH LLOYD desempeña funciones docentes en el departamento de ingeniería mecánica del Instituto de Tecnología de Massachusetts. Se graduó en filosofía por la Universidad de Cambridge en 1984 y se doctoró en física por la Rockefeller en 1988. sación de mareo es que no la ha comprendido adecuadamente.” Por suerte o por desgracia, la mecánica cuántica predice cierto número de efectos contrarios a la intuición, pero que se han corroborado una y otra vez. Para apreciar de qué extrañas cosas son capaces los ordenadores mecánico-cuánticos, basta con abordar el fenómeno de la dualidad onda-partícula. L a dualidad onda-partícula significa que, en ciertas circunstancias, cosas normalmente consideradas partículas sólidas se comportan como si fueran ondas, mientras que cosas que describimos mediante ondas (sonido o luz) se comportan como partículas. En esencia, la teoría mecánico-cuántica establece las clases de ondas asociadas a los distintos tipos de partículas, y recíprocamente. La primera y extraña consecuencia de la dualidad onda-partícula es que los sistemas físicos pequeños, como los 2. LA LECTURA del bit almacenado en un átomo se logra mediante un pulso de láser cuyos fotones tienen la energía que separa el estado excitado del átomo, llamémoslo E1, y otro estado excitado aún más elevado e inestable, E2. Si el átomo se encuentra en su estado fundamental, que representa un 0, este pulso carece de efecto. Pero si se halla en el estado E1, representativo de un 1, el pulso lo eleva hasta E2. El átomo retornará entonces a E1, emitiendo un fotón revelador de tal estado. MÁQUINAS DE CÓMPUTO 121 Puertas lógico-cuánticas L as puertas lógicas realizan operaciones elementales sobre bits de información. George Boole demostró en el siglo xix que toda tarea lógica o aritmética, por compleja PUERTA NO ESTADO INICIAL ESTADO FINAL NOTACION CIRCUITAL ESTANDAR que fuese, era realizable por combinación de tres operaciones: NO, COPIAR e Y. Los átomos, o cualquier otro sistema cuántico, pueden efectuar estas operaciones. PUERTA COPIAR ESTADOS INICIALES ESTADOS FINALES NOTACION CIRCUITAL ESTANDAR 1 0 1 1 1 B ABSORBE UN FOTON A ABSORBE UN FOTON 0 1 0 0 0 A A A La operación NO sólo entraña la inversión de bits, como indica la notación de la derecha: si A es 0, se convierte en 1, y viceversa. En el caso de los átomos, la negación puede efectuarse aplicando un pulso cuya energía sea igual a la diferencia entre el estado fundamental de A (su electrón se halla en el estado de mínima energía, representado por el círculo interior) y su estado excitado (el círculo exterior). Las puertas NO cuánticas, a diferencia de las ordinarias, pueden también invertir los bits sólo a medias. átomos, sólo pueden existir en estados de energía discretos, bien caracterizados. Así, cuando un átomo salta de un estado energético a otro, absorbe o emite energía en cantidades exactas, llamadas fotones, que podrían considerarse partículas que componen las ondas de luz. Una segunda consecuencia es que las ondas mecánico-cuánticas, como las ondas de agua, pueden superponer­se, vale decir, sumarse. Tomadas individualmente, estas ondas ofrecen una descripción burda de la posición de una partícula dada. Empero, al combinar dos o más de tales ondas, la posición de la partícula se vuelve incierta. Así pues, en cierto y misterioso sentido, un electrón puede en ocasiones encontrarse aquí y allí al mismo tiem­po. La ubicación de un electrón tal permanecerá incógnita hasta que alguna interacción (como el rebote de un fotón al chocar con el electrón) revele que se encuentra aquí o allí, pero no en ambos lugares. Cuando dos ondas cuánticas superpuestas se comportan como una sola onda se dice que son coherentes; el proceso por el cual dos ondas coherentes recuperan su respectiva identidad individual se denomina descoheren122 B A B COPIAR, en el mundo cuántico, se basa en la interacción entre dos átomos. Imaginemos que uno de los átomos, el A, que almacena un 0 o un 1, se encuentre junto a otro átomo, B, que se halla en su estado fundamental. La diferencia de energía entre los estados de B tendrá determinado valor si A es 0 y un valor distinto si A es 1. Apliquemos ahora un pulso luminoso cuyos fotones posean energía igual a este último valor. Si el pulso tiene la intensidad y la duración adecuadas, y si A es 1, B absorberá un fotón y cambiará de estado (línea superior); si A es 0, B no puede absorber un fotón del pulso y permanece invariable (línea inferior). Así, como vemos en el diagrama de la derecha, si A es 1, B se convierte en 1; si A es 0, B sigue siendo 0. cia. En el caso de un electrón que se encuentre en superposición de dos estados energéticos diferentes (o por decirlo sin precisión, en dos posiciones distintas en el seno de un átomo), la descoherencia puede requerir largo tiempo. Pueden transcurrir días antes de que un fotón, pongamos por caso, choque contra un electrón y revele, al hacerlo, cuál es su verdadera posición. En teoría los balones de baloncesto podrían también encontrarse a la vez aquí y allá. En la práctica, sin em­bargo, el tiempo que tarda un fotón en rebotar de un balón es demasiado breve para que no lo detecte el ojo o algún instrumento. El balón es, sencillamente, demasiado grande para que su posición exacta pueda permanecer indetectada durante un tiempo perceptible. En consecuencia, la regla general es que tan sólo los objetos muy pequeños y sutiles pueden exhibir la incertidumbre cuántica. La información se presenta en piezas discretas, como los niveles energéticos de los átomos en la mecánica cuántica. El cuanto de información es el bit. Un bit de información es una simple distinción entre dos opciones alternativas: sí o no, 0 o 1, verdadero o falso. En los ordenadores digitales, un bit de información está representa­do por la diferencia de potencial entre las placas de un condensador: un condensador cargado representa, por ejemplo, un 1, y un condensador descar­gado, un 0. Un ordenador cuántico funciona asociando el conocido ca­rácter discreto del procesamiento de información digital con el extraño carácter discreto de la mecánica cuántica. E n efecto, una ristra de átomos de hidrógeno puede alojar bits igual de bien que una serie de condensadores. Un átomo en estado fundamental electrónico podría ser la codificación de un 0, y en estado excitado, de un 1. Mas para que tal sistema cuántico pueda funcionar como un ordenador no debe limitarse a almacenar bits. Quien lo maneje ha de poder cargar información en el sistema, ha de poder procesar tal información mediante manipulaciones lógicas sencillas y ha de poder descargar la información procesada. Es decir, los sistemas cuánticos han de poder leer, escribir y efectuar operaciones aritméticas. Isidor Isaac Rabi enseñó a escribir información en un sistema cuántico. Aplicado a átomos de hidrógeno, su método opera como sigue. Imaginemos TEMAS 4 PUERTA Y ESTADOS INICIALES NOTACION CIRCUITAL ESTANDAR ESTADOS FINALES 1 1 1 0 0 0 0 1 0 1 0 0 B ABSORBE UN FOTON A B A A B A También la conjunción Y depende de interacciones atómicas. Imaginemos tres átomos, A, B y A, adyacentes entre sí. La diferencia de energía entre los estados fundamental y excitado de B es función de los estados de los dos A. Supongamos que B se halle en su estado fundamental. Apliquemos ahora un pulso cuya energía sea igual a la diferencia entre los dos estados de B solamente cuando los átomos A vecinos sean sendos unos. Si realmente ambos A son unos, este pulso invertirá el estado de B (línea superior); de no ser así, B quedará sin cambios (todas las demás líneas). un átomo de hidrógeno en su estado fundamental, en el que posee una cantidad de energía igual a E0. Para escribir un bit 0 en este átomo no se hace nada. Para registrar un 1 en él, excite­ mos el átomo hasta un nivel energético superior, E 1. Podemos conseguirlo bañándolo en luz láser com­puesta por fotones cuya energía sea igual a la diferencia entre E1 y E0. Si el haz de láser posee la intensidad adecuada y se aplica durante el tiempo necesario, el átomo pasará gradualmente desde el estado fundamental hasta el estado excitado, al absorber el electrón un fotón. Si el átomo se encuentra ya en el estado excitado, el mismo pulso lu­mínico provocará que emita un fotón y regrese al estado fundamental. Des­de el punto de vista del almacenamiento de información, el pulso le dice al átomo que invierta el estado de su bit. ¿Qué significa “gradualmente” en este contexto? Un campo eléctrico oscilante, como es el de la luz láser, conduce un electrón de un átomo desde un estado de energía inferior hacia otro de energía más elevada a la manera del adulto que, impulsando a un niño en un columpio, lo sube cada vez a ma­yor altura. Siempre que llega la oscilación de la onda, le da un empuMÁQUINAS DE CÓMPUTO joncito al electrón. Cuando los fotones del campo tienen la misma energía que la diferencia entre E0 y E1, estos pulsos coinciden con el “vaivén” del electrón y gradualmente convierten la onda correspondiente al electrón en una superposición de ondas que poseen diferentes energías. La amplitud de la onda asociada con el estado fundamental del electrón disminuirá conforme aumenta la de la onda asociada con el estado excitado. En el proceso, el bit registrado en el átomo “vira” desde el estado fundamental hacia el excitado. Cuando la frecuencia de los fotones no es adecuada, sus empujones no están sincronizados con el electrón y nada ocurre. Si se aplica la luz adecuada, pero se hace durante la mitad del tiempo necesario para llevar al átomo desde el estado 0 al 1, el átomo se encuentra en un estado igual a la superposición de la onda correspondiente al 0 y de la onda correspondiente al 1, que tienen ambas iguales amplitudes. Tal bit cuántico, al que llamamos cubit, ha virado sólo a medias. Un bit clásico, por el contrario, dará siempre una lectura de 0 o de 1. En los ordenadores corrientes un condensador cargado a medias provoca errores, mientras que un cubit semivirado abre el camino a nuevas formas de computación. La lectura de bits en un sistema cuántico procede de forma parecida. Se empuja al átomo hasta un estado energético todavía más elevado y menos estable, al que llamaremos E2. Ello se consigue sometiendo el átomo a luz que tenga una energía igual a la diferencia entre E1 y E2: si el átomo se en­cuentra en E1, se excitará hasta E2, pero retornará rápidamente a E1, emitiendo un fotón. Si el átomo se encuentra ya en el estado fundamental, nada ocurre. Si se halla en el estado “semivi­ rado” tiene iguales probabilidades de emitir un fotón, revelando que es un 1, como de no emitirlo, indicando que es un 0. Entre la lectura y escritura de información en un sistema cuántico y la computación sólo media un breve paso. L os circuitos electrónicos están formados por elementos lineales (con­ ductores, resistencias y condensadores) y por elementos no lineales (diodos y transistores) que manipulan los bits de diversas maneras. Los dispositivos lineales alteran individualmente las señales de entrada. Los dispositivos no lineales, por otra parte, hacen que in­te­ ractúen entre sí las señales de en­trada que pasan a su través. Por ejemplo, de no ser porque nuestro equipo estereofónico contiene transistores no lineales, no podríamos cambiar el nivel de graves de la música que reproduce. Hacerlo así requiere cierta coordinación de la información procedente del lector de discos compactos y de la información que llega del ajuste del mando correspondiente del equipo. Los circuitos realizan cómputos por iteración, a gran velocidad, de un pe­q ueño número de tareas, tanto lineales como no lineales. Entre ellas se cuenta la inversión de un bit, que equivale a la operación lógica llamada NO: verdadero se torna en falso y falso se trueca en verdadero. Otra de ellas es la operación de COPIAR, que hace que el valor del segundo bit sea igual que el del primero. Estas dos operaciones son ambas lineales, porque en ambas la salida refleja el valor de una sola entrada. Efectuar la conjunción (la “Y”) de dos bits —otra tarea útil— constitu­ye, en cambio, una operación no lineal: si los dos bits de entrada son ambos 1, se hace que un tercer bit sea también igual a 1; en los demás casos, el tercer bit se hace igual a 0. El tercer bit de­pen­de ahora de cierta interacción en­tre las entradas. Los dispositivos que ejecutan estas operaciones se denominan puertas lógicas. Si un ordenador digital posee 123 A=0 A=1 B=0 B =1 LOS DATOS, CUAL HAN SIDO ESCRITOS 1 0 1 0 0 0 LA LUZ CAMBIA A B EN 1, SI EL A DE SU IZQUIERDA ES 1 1 1 1 1 LOS DATOS SE HAN DESPLAZADO UN LUGAR HACIA LA DERECHA 0 1 0 1 0 0 INVIERTE A, Y LO HACE 0, SI EL B DE SU DERECHA ES 1 0 0 INVIERTE A, Y LO HACE 1, SI EL B DE SU IZQUIERDA ES 1 0 1 1 1 LOS DATOS SE HAN DESPLAZADO UN LUGAR MAS HACIA LA DERECHA 0 0 1 0 1 0 INVIERTE B, Y LO HACE 0, SI EL A DE SU DERECHA ES 1 1 0 puertas lineales, como la NO y la COPIAR, y puertas no lineales, tales como las puertas Y, entonces puede llevar a cabo cualquier tarea lógica o aritmética. Las computadoras cuánticas han de cumplir los mismos requisitos. Artur Ekert, Deutsch y Adriano Barenco, por un lado, y quien esto 124 3. UN CRISTAL SALINO podría realizar cómputos actuando sobre pares de iones vecinos. Se invierte el bit almacenado en cada B si el A de su izquierda contiene un 1; seguidamente, se invierte cada A si el B a su derecha es 1. Se traslada así la información desde cada A hasta el B situado a su derecha. Ahora, utilizando la misma táctica, se traslada la información desde cada B al A de su derecha. El proceso permite que una línea de átomos actúe de “conductor” cuántico. Dado que un cristal puede realizar estas operaciones de “doble resonancia” en todas las direcciones simultáneamente con cada ion vecino, el cristal puede remedar la dinámica de cualquier sistema, actuando así de computadora cuántica analógica de uso general. firma, por otro, han demostrado que prácticamente cualquier interacción no lineal entre bits cuánticos será adecuada. A decir verdad, con tal de que un ordenador cuántico pueda invertir bits, cualquier interacción cuántica no lineal lo faculta para llevar a cabo cualquier cómputo. Para la construcción de ordenadores cuánticos podría sacarse provecho, pues, de muy distintos fenómenos físicos. ¡La verdad es que ha habido puertas lógico-cuánticas disponibles y se han usado habitualmente desde hace casi tanto tiempo como hay transistores! A finales de los años cincuenta los investigadores lograron realizar sencillas operaciones de lógica cuántica con dos bits valiéndose del espín de las partículas. Estos espines —que consisten en la orientación del movimiento de rotación de una partícula con respecto a cierto campo magnético—se encuentran, al igual que los niveles energéticos, cuantizados. Así pues, un espín en una dirección puede representar un 1, y en la otra, un 0. Se aprovechó la interacción entre el espín del electrón y el espín del protón en un átomo de hidrógeno; se puso a punto un sistema en el cual sólo se invertía el espín del protón si el espín del electrón representaba un 1. Como los investigadores no estaban pensando en lógica cuántica, bautizaron al efecto con el nombre de “doble resonancia”. Aun así se valieron de ella para efectuar las operaciones lineales de negación y copia. Desde entonces, Barenco, David DiVincenzo, Tycho Sleator y Harald Weinfurter han mostrado cómo, vi­ran­do sólo parcialmente los espines del protón y el electrón, se puede utilizar la doble resonancia para crear también una puerta lógica Y. Tales puertas logico-cuánticas, interconectadas, podrían constituir una computadora cuántica. Inútil decir que los “conductores” cuánticos son difíciles de construir. Los conductores de un ordenador corriente pueden ser meras tirillas de metal, que transmiten sin dificultad las señales eléctricas de una puer­ta lógica a otra. La interconexión de puertas de doble resonancia, por el con­trario, entraña una dificultad exasperante: el conductor ha de poder desensamblar átomos para trasladar pro­ tones y electrones a voluntad y luego ha de volver a ensamblarlos sin perturbar los espines de las partículas. N o hace mucho que se han ideado medios más sencillos para concatenar puertas lógico-cuánticas. Por ejemplo, fotones individuales conducidos por fibras ópticas o enviados a través del aire podrían transferir bits de información desde una puerta hasta otra. Un descubrimiento muy prometedor se ha hecho en el Instituto de Tec­no­logía de California: concentrando fotones en un volumen diminuto junto con un solo átomo, el grupo de Kimble ha conseguido intensificar la interacción no lineal entre fotones, que por lo común es muy pequeña. El resultado es una puerta logico-cuántica: un bit de un fotón puede “virarse” parcialmente cuando otro fotón lee un 1. Un ordenador construido con puertas lógico-cuánticas de este tipo sería rápido y bastante inmune a las perturbaciones del medio que destruirían la coherencia, pero habría que superar todavía cierto número de obstáculos predichos por Landauer. El más importante es que las tolerancias en la longitud de todos los caminos ópticos del sistema tendrían que ser de una minúscula fracción de la longitud de onda utilizada. El problema del “cableado” admite otras soluciones. J. Ignacio Cirac y Peter Zoller han propuesto un diseño que aislaría cubits en una trampa de iones, aislándolos de influencias externas indeseables. Antes de procesarlo, el bit se transferiría a un registro co­mún, a un “bus”. En concreto, la información que contuviera se represen­taría por un temblequeo en el que par­ticiparían todos los iones de la trampa. El grupo de Wineland ha dado ya el primer paso hacia la construcción de un tal ordenador cuántico, realizando operaciones tanto lineales como no lineales sobre bits codificados mediante iones y por el temblequeo. La construcción de computadoras capaces de operar con unas pocas decenas o centenas de bits mediante trampa iónica ofrece buenas perspectivas. Se han realizado ya operaciones binarias y el número de bits de la computadora puede aumentarse sin más que añadir iones a la trampa. TEMAS 4 4. LA PRESENTACION del resultado de un cómputo cuántico podría ofrecer el aspecto de la banda superior. Cada lunar coloreado corresponde a la fluorescencia de un solo ion mercúrico atrapado en una trampa iónica (izquierda). La luz indica que cada uno de los iones se encuentra en el mismo estado, por lo que la ristra completa se lee como una serie de unos. Así las cosas, los científicos pueden manejar operaciones de lógica cuántica con unos pocos bits y es muy posible que en un futuro cercano efectúen cómputos cuánticos en los que intervengan algunas decenas o centenares de bits. ¿En qué sentido puede ello representar un avance sobre los ordenadores clásicos, que manejan sin dificultad miles de millones de bits? La verdad es que, incluso con un solo bit, una computadora cuántica puede realizar cosas que no están al alcance de ningún ordenador clásico. Fijémonos en lo siguiente. Tomemos un átomo en superposición de 0 y 1. Averigüemos ahora si el bit es un 0 o un 1 provocan­do su fluorescencia. La mitad de las veces el átomo emite un fotón y el bit es un 1. En la otra mitad no hay emisión fotónica y el bit es un 0. Es decir, el bit es un bit aleatorio, algo que ningún ordenador clásico puede crear. Los programas de números aleatorios de los ordenadores digitales generan en realidad números pseudoaleatorios, valiéndose para ello de una función cuyo resultado es tan irregular que parece producir bits por azar. I maginemos lo que un ordenador cuántico puede hacer con dos bits. El copiado se realiza juntando dos bits, uno con el valor a copiar y otro cuyo valor inicial es 0; al serle aplicado un pulso, el segundo bit cambia a 1 solamente en el caso de que el primer bit también sea un 1. Pero si el valor del primer bit es una superposición de 0 y 1, la aplicación del pulso crea una superposición en la que participan ambos bits, de forma tal que ambos son 1 o ambos son 0. Fijémonos en que el valor final del primer bit ya no es el MÁQUINAS DE CÓMPUTO mismo que inicialmente tenía; la superposición ha cambiado. En cada componente de esta superposición el segundo bit es el mismo que el primero, pero ninguno de ellos es el mismo que el bit original. Albert Eins­ tein hizo notar que tales estados infringirían todas las ideas intuitivas tradicionales sobre causalidad. En una tal superposición, ninguno de los bits se encuentra en un estado definido; em­pero, si medimos uno de ellos, situándolo en consecuencia en un estado definido, el otro bit pasa también a un estado definido. El cambio del primer bit no es la causa del cambio del se­gun­do. Pero en virtud de la destrucción de la coherencia entre ambos, la medición del primero también despoja al se­gundo de su ambigüedad. Con tres cu­bits se pueden establecer estados imbricados todavía más complejos. En efecto, dados tan sólo dos o tres cubits y una o dos puertas lógico-cuánticas, resulta posible la creación de estados cuánticos fascinantes. He de­mostrado que, con mayor número de bits, podría utilizarse una computadora cuántica para simular el compor­ta­ miento de cualquier sistema cuántico. Programada adecuadamente, la dinámica de la computadora remedaría la dinámica de cierto sistema postulado y, en particular, de la interacción del sistema con su entorno. Además el nú­mero de pasos que tal computadora tendría que dar para registrar la evolución de este sistema a lo largo del tiempo sería directamente proporcional al tamaño del sistema. Todavía más notable es que, si una computadora cuántica tuviera arquitectura en paralelo, lo que pudiera ser factible por doble resonancia entre pa­res vecinos de espines en los átomos de un cristal, podría remedar en tiem­po real a cualquier sistema cuántico, cualquiera que fuera su tamaño. Esta clase de computación cuántica en paralelo, de ser posible, supondría una enorme aceleración sobre los métodos al uso. Según advirtiera Feynman, para simular un sistema cuántico en un ordenador clásico se precisa, en general, un número de pasos que crece exponencialmente con el tamaño del sistema y con el lapso de tiempo invertido en rastrear sus evoluciones. La verdad es que una computadora cuántica de 40 bits podría recrear un sistema cuántico en poco más de un centenar de pasos; esta misma simulación exigiría años en un ordenador clásico provisto de un billón de bits. ¿Qué puede llegar a hacer una computadora cuántica, dotada de muchas operaciones lógicas, sobre muchos cubits? Empecemos colocando todos los bits de entrada en idéntica superposición de ceros y unos, todos iguales. La computadora se encuentra entonces en otra superposición de todas las entradas posibles. Hagamos pasar esta en­trada a través de un circuito lógico que ejecute un determinado cómputo. El resultado es una superposición de todos los posibles resultados de ese cómputo. En cierto y extravagante sentido cuántico, la computadora efectúa a la vez todos los cómputos posibles. Deutsch ha denominado a este efecto “paralelismo cuántico”. Aunque el paralelismo cuántico pueda parecer extraño, pensemos por un momento en el comportamiento general de las ondas. Si las ondas me­c ánico-cuánticas fuesen ondas sonoras, las correspondientes a 0 y a 1 —que oscilan cada una a una sola fre­ cuen­cia— constituirían tonos puros. Una onda correspondiente a una superposición de 0 y 1 sería entonces un acorde. Así como los acordes musicales suenan cualitativamente distintos de los tonos individuales que los integran, una superposición de 0 y 1 se diferencia del 0 y el 1 tomados por 125 separado: en ambos casos, las ondas combinadas se interfieren entre sí. Una computadora cuántica que realice un cómputo ordinario, en el que no haya superposición de bits, genera una secuencia de ondas análogas al sonido de un “cambio de repique” de los campanarios, en que las campanas se ta­ñen una por vez. La secuencia de sonidos se atiene a reglas matemáticas estrictas. Un cómputo realizado en modo cuántico paralelo viene a ser como una sinfonía: su “sonido” corresponde a una multitud de ondas que se interfieren entre sí. Shor demostró que el efecto sinfónico del paralelismo cuántico podría servir para descomponer muy rápidamente números grandes en factores primos, cosa que los ordenadores clásicos e incluso los superordenadores no siempre logran. Puso de manifiesto cómo orquestar una computación cuántica de forma que los posibles factores destaquen en la superposición, al igual que, en una sinfonía, una melodía tocada por los cellos, las violas y los violines con separación de una octava destacaría sobre el sonido de fondo creado por los demás instrumentos. Su algoritmo haría que la factorización resultase tarea sencilla para una computadora cuántica, de poder construirse. Dado que la mayoría de los sistemas criptográficos de clave pública —como los de protección de las cuentas bancarias electrónicas— se basan en que los ordenadores clásicos no pueden hallar factores primos que tengan, sea por caso, más de 100 dígitos, los merodeadores informáticocuánticos podrían darle motivo de preocupación a mucha gente. La cuestión de si llegará a haber computadoras cuánticas (y sus correspondientes merodeadores) es cuestión debatida con ardor. Recordemos que la naturaleza cuántica de una superposición subsiste tan sólo mientras el entorno se abstiene de revelar el estado del sistema. Habida cuenta de que las computadoras cuánticas podrían consistir en miles o millones de átomos y de que para lesionar la coherencia cuántica basta la perturbación de uno solo de ellos, no está claro cuánto tiempo pueden durar en auténtica superposición los sistemas cuánticos interactuantes. Las pruebas experimentales inducen a pensar que ciertos sistemas pueden mantener superposiciones cuánticas durante varias horas. Shor y sus colaboradores han demostrado que su algoritmo sigue funcionando incluso con niveles modestos de descoherencia. Otro de los problemas a que se enfrenta la computación cuántica es la 126 corrección de errores. Los distintos sistemas que podrían utilizarse para el registro y procesamiento de información son sensibles al ruido, que puede invertir bits de modo aleatorio. Los métodos clásicos de corrección de errores entrañan la medición de bits para ver si son erróneos, lo que en una computadora cuántica provocaría la descoherencia. Los grupos de Ekert y de Deutsch han mostrado que la corrección de errores es posible en teoría, pero muy costosa de llevar a la práctica. Así pues, aun cuando puedan construirse computadoras cuánticas, tal vez no sean capaces de realizar cómputos con muchos bits durante períodos largos. P ara sobrepasar la capacidad de factorización de los superordenadores actuales, las computadoras cuánticas que utilizasen el algoritmo de Shor podrían tener que seguir la pista de centenares de bits durante millares de pasos, manteniendo en todo momento la coherencia cuántica. Por culpa de los problemas técnicos de que hablaba ya Landauer, entre los que se cuentan la descoherencia, las variaciones incontrolables en los pulsos de láser y la carencia de una corrección de errores eficaz, es muy verosímil que la construcción de un ordenador capaz de efectuar semejante cómputo resulte difícil. Sin embargo, para superar las simulaciones clásicas de los sistemas cuánticos bastaría con seguir la pista a unas decenas de bits durante algunas decenas de pasos, objetivo mucho más alcanzable. Y la utilización de lógica cuántica para la creación y exploración de las propiedades de extraños estados cuánticos con multitud de partículas es meta que ya se encuentra en el horizonte. BIBLIOGRAFIA COMPLEMENTARIA Quantum Theory: The Church-Turing Principle and the Universal Quantum Computer. David Deutsch en Proceedings of the Royal Society of London, serie A, vol. 400, n.o 1818, páginas 97-117; 1985. A Potentially Realizable Quantum Computer. Seth Lloyd en Science vol. 261, páginas 1569-1571; 17 de septiembre de 1993. Algorithms for Quantum Computation: Discrete Logarithms and Factoring. Peter W. Shor en 35th Annual Symposium on Foundations of Computer Science: Proceedings. Recopilación de Shafi Goldwasser. IEEE Computer Society Press, 1994. Quantum Computations with Cold Rapped Ions. J. I. Cirac y P. Zoller en Physical Review Letters, volumen 74, n.o 20, páginas 4091-4094; 15 de mayo de 1995. TEMAS 4 Ordenador óptico W. Wayt Gibbs E l cálculo digital dio un paso de gigante cuando se terminó, en la Universidad de Manchester, allá por 1948, el Mark I, primer computador enteramente electrónico capaz de almacenar en memoria su propio programa. No menos audaz —y vacilante— fue el avance operado en computación óptica, tan en su infancia aún, a principios de 1993 cuando Harry F. Jordan y Vincent P. Heuring, de la Universidad de Colorado, presentaron un ordenador (casi) óptico que almacena y maneja sus instrucciones y datos en forma de impulsos luminosos. Como el Mark I, el ordenador óptico de bits seriados (OOBS) es grande y obtuso, y se ha construido sólo para probar un principio de la arquitectura de ordenadores. Apenas hace otra cosa que conmutaciones, recuentos y operaciones de aritmética de carácter básico, y sólo tiene 128 bytes de memoria. Ahora bien, todo eso lo hace de un modo radicalmente distinto de cualquier ordenador que jamás se haya construido. La digital y electrónica prole del Mark I ha venido almacenando sus datos en los biestables o basculadores (“flip-flops”), dispositivos que toman y retienen cargas por medio de relés, tubos de vacío o circuitos de semiconductores. En ellos, la información queda confinada físicamente. Sin embargo, los equivalentes ópticos del biestable electrónico todavía operan muy lentamente, y por eso el OOBS utiliza en su lugar una memoria dinámica: los impulsos de radiación infrarroja que constituyen sus bits se mueven incesantemente por un circuito de fibras ópticas a la velocidad de la luz. “La información está siempre en movimiento; en cierto sentido, se almacena dondequiera que se encuentre, tanto en el espacio como en el tiempo”, explica Heuring. “El quid está en disponer las cosas de tal modo que la información interaccione en el mismo lugar del espacio al mismo tiempo.” El OOBS logra esta proeza de sincronización valiéndose de un reloj que funciona a 50 megahertz y conduciendo la luz por un trayecto que cubre distancias entre conmutadores cuidadosamente medidas. Antes de cada tic del reloj, los impulsos de control accionan conmutadores que dirigen de un trayecto a otro los bits que llegan, haciéndolos entrar y salir de líneas de retardo formadas por bobinas de fibra óptica con metros de longitud. Al contrario que el procesador electrónico, que recoge la información que necesita de una dirección de su memoria, el procesador óptico del OOBS espera que le lleguen los datos. Los contadores guardan registro de qué hay y dónde. Los conmutadores son la única parte no enteramente óptica del sistema. AT&T, suministrador del grupo de Colorado, los construye difundiendo titanio por una superficie de niobato de litio, que es un sólido transparente, a fin de formar dos canales para la luz. Cuando se aplica una tensión eléctrica, los canales se hacen paralelos, y cuando cesa, se cruzan. Para accionar el conmutador, debe transformarse el impulso de control luminoso en un impulso eléctrico, y amplificarlo después. Jordan utiliza un ordenador corriente de sobremesa conectado a los amplificadores de conmutación para programar el OOBS y representar sus resultados, aunque en teoría un interfaz de fibra óptica funcionaría con pareja perfección. El OOBS necesita, pues, electricidad para operar. Pero al relegar los electrones a un papel menor y prescindir por 128 completo del almacenamiento estático, la estructura del ordenador se simplifica bastante. “Tal vez sea ésta la primera vez que puede representarse un ordenador completo en una sola transparencia de retroproyector”, se ufana Heuring. “Normalmente, eso es imposible; hay tantos biestables, puertas y buses, y tantas otras cosas...” La memoria dinámica ofrece otras ventajas: una de ellas es la velocidad ajustable de la máquina. Dado que el diseño se basa en el tiempo que tardan los impulsos de luz en pasar de un procesador al siguiente, un diseño funcionará igual a mitad de tamaño y doble velocidad de reloj; afortunadamente, ya que en su versión actual el OOBS ocupa una mesa entera. Jordan y Heuring lo están ahora integrando en un cilindro de niobato de litio, adherido a un disco de silicio o arseniuro de galio que contendría la electrónica de conmutación. El ordenador, que cabrá en la palma de la mano, se habrá achicado unas 400 veces y trabajará 400 veces más deprisa, a 20 gigahertz. El simple aumento de velocidad sin cambio de tamaño produce también resultados interesantes, como ha descubierto Jordan. “Si se cuenta con conmutadores rápidos, se puede duplicar la velocidad de reloj y acabar teniendo dos máquinas con un solo soporte físico, actuando aparentemente en paralelo, pero en realidad intercaladas en el tiempo.” A 100 megahertz, en otras palabras, el OOBS desarrolla una doble personalidad. Las ventajas de la memoria dinámica han de pagarse, no obstante, en capacidad y en rendimiento, pues el almacenamiento espaciotemporal de información requiere gran cantidad de la una o la otra. Y cuanto más largo sea el circuito, más tiempo tendrá que esperar un procesador a que le lleguen nuevos datos. Heuring admite que esto limita la complejidad de las posibles aplicaciones. “Un OOBS sería ideal para una red de conmutación telefónica o de televisión por cable que encauzara y redistribuyera información secuencial procedente de cinco ciudades con destino a otras cinco, pero no valdría para el procesamiento de textos.” Es casi seguro que las primeras máquinas ópticas que se realicen tendrán un carácter híbrido, con conmutadores optoelectrónicos y algún tipo de almacenamiento estático. Conscientes de ello, Jordan y Heuring trabajan ya en un proyecto de procesador en paralelo en el que las bobinas de fibras se sustituyen por espacios vacíos y los conmutadores en serie por circuitos integrados optoelectrónicos (CIOE), unas formaciones cuadradas que por una cara tienen fotodetectores en miniatura y por la otra microláseres. Descansarán sobre sus bordes, a modo de fichas de dominó; tomarán la alimentación eléctrica por la base y recibirán los impulsos de control por arriba. En este nuevo diseño de Heuring, se utilizan hologramas generados por ordenador para redistribuir los bits desde un CIOE al siguiente. Los investigadores de Colorado creen que el poder construir un ordenador con pastillas CIOE que contuviesen al menos un millón de conmutadores sería ya todo un logro. “El vídeo se ha de leer serialmente, y ése es el verdadero cuello de botella de la realidad virtual y de tantos y tantos gráficos y animaciones por ordenador”, observa Heuring. “Con los CIOE, podríamos en principio trabajar, de una sola vez, sobre una trama de vídeo entera, o sobre un polígono completo generado por ordenador.” TEMAS 4