La información contenida en este fichero ha sido extraida de la hoja web: http://www-etsi2.ugr.es/alumnos/mlii/ Convertido de html a pdf por Miguel Angel Sanz (Licencia Adobe - Universidad Complutense) Historia de la Computación Prehistoria Era Mecánica Primera Generación Segunda Generación Tercera Generación Cuarta Generación La Prehistoria La Computación, y por tanto, las Ciencias de la Computación, tienen su origen en el cálculo, es decir, en la preocupación del ser humano por encontrar maneras de realizar operaciones matemáticas de forma cada vez más rápida y más fácilmente. Pronto se vio que con ayuda de aparatos y máquinas las operaciones podían realizarse de forma más rápida y automática. El primer ejemplo que encontramos en la historia es el ábaco, aparecido hacia el 500 AC en Oriente Próximo, que servía para agilizar las operaciones aritméticas básicas, y que se extendió a China y Japón, siendo descubierto mucho más tarde por Europa. También es digno de señalar el conocido Mecanismo de Antikythera, recuperado en 1900, construido alrededor del año 80 a.C., en la isla griega de Rodas, ubicada en el mar Egeo. Era un artefacto de cálculo astronómico con mecanismos de precisión. El usuario, por medio de una perilla, podía accionar un simulador en miniatura del movimiento del sol, la luna y varios planetas, teniendo a la vista la fecha en que se había dado, o se daría, tal combinación. Es tanta su sofisticación que ha sido llamado la primera computadora de Occidente. Por otra parte, los matemáticos hindúe s, árabes y europeos fueron los primeros que desarrollaron técnicas de cálculo escrito. El matemático árabe Al'Khwarizmi, alrededor del año 830 DC, escribe un libro de Aritmética, traducido al latín como Algoritmi de numero Indorum, donde introduce el sistema numérico indio (sólo conocido por los árabes unos 50 años antes) y los métodos para calcular con él. De esta versión latina proviene la palabra algoritmo. La Era Mecánica A finales del siglo XVI y comienzos del XVII comienza lo que denominamos Era Mecánica, en la que se intenta que aparatos mecánicos realicen operaciones matemáticas de forma prácticamente automática. En 1610, John Napier (15501617), inventor de los logaritmos, desarrolló las Varillas de Napier, que servían para simplificar la multiplicación. En 1641, el matemático y filósofo francés Blaise Pascal (1623-1662), con tan sólo 19 años, construyó una máquina mecánica para realizar adiciones, la Pascalina, para ayudar a su padre. Por su parte, Gottfried Wilhelm Leibniz (1646-1716) propuso el sistema binario para realizar los cálculos, construyendo una máquina que podía multiplicar, en incluso teóricamente, realizar las cuatro operaciones aritméticas. Sin embargo, la tecnología disponible le imposibilita la realización de las operaciones con exactitud. No obstante un estudiante alemán de la Universidad de Tubingen, Wilhelm Schickard (1592-1635) ya había construido una máquina de estas características entre 1623 y 1624, de la que hace unas breves descripciones en dos cartas dirigidas a Johannes Kepler. Por desgracia, al menos una de las máquinas quedó destruida en un incendio, y el propio Schickard murió poco después, víctima de la peste bubónica. Los trabajos de Pascal y Leibniz tuvieron su continuación en 1727, cuando Jacob Leupold propuso algunas mejoras sobre el mecanismo de Leibniz. En 1777, Charles Mahon (1753-1816), Conde de Stanhope, construyó una máquina aritmética y otra lógica, esta última llamada Demostrador de Stanhope. En 1825, el francés Charles Xavier Thomas de Colmar diseña una máquina calculadora que posteriormente consigue comercializar con éxito. Una mención muy especial requiere el desarrollo de un telar automático por el francés Joseph Jacquard (1752-1834), en 1801. En efecto, analizando las operaciones repetitivas que requería la producción de telas, este inventor imaginó conservar la información repetitiva necesaria bajo la forma de perforaciones en tarjetas. Estas perforaciones eran detectadas mecánicamente, asegurando el desplazamiento adecuado de las guías del hilado, pudiendo una sola persona tejer complicados patrones codificados en las perforaciones de las tarjetas. Fue Charles Babbage (1791-18171) el que diseñó una verdadera máquina procesadora de información, capaz de autocontrolar su funcionamiento. Desesperado por los errores contenidos en las tablas numéricas de la época y dándose cuenta de que la mayoría de los cálculos consistían en tediosas operaciones repetitivas, este profesor de la Universidad de Cambridge, proyecta e inicia la construcción de un nuevo tipo de calculadora. En 1821 presentó a la Royal Society una máquina capaz de resolver ecuaciones polinómicas mediante el cálculo de diferencias sucesivas entre conjuntos de números, llamada Máquina Diferencial. Obtuvo por ello la medalla de oro de la Sociedad en 1822. Más tarde, Babbage empezó a trabajar en la Máquina Analítica, en cuya concepción colaboró directamente Ada Augusta Byron, Condesa de Lovelace, hija de Lord Byron. El objetivo perseguido era obtener una máquina calculadora de propósito general, controlada por una secuencia de instrucciones, con una unidad de proceso, una memoria central, facilidades de entrada y salida de datos, y posibilidades de control paso a paso, es decir, lo que hoy conocemos como programa. Ada Lovelace, a quien se reconoce como la primera programadora de la historia, y en honor de quien se puso el nombre de Ada al conocido lenguaje de programación, ayudó a Babbage económicamente, vendiendo todas sus joyas, y escribió artículos y programas para la referida máquina, algunos de ellos sobre juegos. Sin embargo, este proyecto tampoco pudo realizarse por razones económicas y tecnológicas. En el 1854, George Boole publica Las leyes del pensamiento sobre las cuales son basadas las teorías matemáticas de Lógica y Probabilidad. Boole aproximó la lógica en una nueva dirección reduciéndola a una álgebra simple, incorporando lógica en las matemáticas. Comenzaba el álgebra de la lógica llamada Algebra Booleana. Su álgebra consiste en un método para resolver problemas de lógica que recurre solamente a los valores binarios 1 y 0 y a tres operadores: AND (y), OR (o) y NOT (no). La Primera Generación (electromecánicos y electrónicos de tubos de vacío) Para tabular el censo de 1890, el gobierno de Estados Unidos estimó que se invertirían alrededor de diez años. Un poco antes, Herman Hollerith (1860-1929), había desarrollado un sistema de tarjetas perforadas eléctrico y basado en la lógica de Boole, aplicándolo a una máquina tabuladora de su invención. La máquina de Hollerith se usó para tabular el censo de aquel año, durando el proceso total no más de dos años y medio. Así, en 1896, Hollerith crea la Tabulating Machine Company con la que pretendía comercializar su máquina. La fusión de esta empresa con otras dos, dio lugar, en 1924, a la International Business Machines Corporation (IBM). Sin embargo, en el censo de 1910, el sistema de Hollerith fue sustituido por uno desarrollado por James Powers . En 1911 James Powers constituyó la Power's Tabulating Machine Company, convirtiéndose en el principal competidor de Hollerith. En 1900, en el Congreso Internacional de Matemáticas de París, David Hilbert (1862-1943) pronunció una conferencia de título Problemas matemáticos, en la que proponía una lista de 23 problemas que estaban sin resolver (algunos todavía lo están). Dos de estas cuestiones fueron: ¿es la matemática completa?, es decir, ¿puede ser demostrada o refutada cualquier sentencia matemática? y ¿es la matemática consistente?, es decir, ¿es cierto que sentencias tales como 0 = 1 no pueden demostrarse por métodos válidos?. En 1931, Kurt Gödel (1906-1978) fue capaz de responder a estas dos preguntas, demostrando que cualquier sistema formal suficientemente potente es inconsistente o incompleto. Otra de las cuestiones era: ¿son las matemáticas decidibles? es decir, ¿hay un método definido que pueda aplicarse a cualquier sentencia matemática y que nos diga si esa sentencia es cierta o no?. Esta cuestión recibió el nombre de enstcheidungsproblem. En 1936, Alan Turing (1912-1954) contestó a esta cuestión en el artículo On Computable Numbers. Para resolver la cuestión Turing construyó un modelo formal de computador, la Máquina de Turing, y demostró que había problemas tales que una máquina no podía resolver. Al mismo tiempo en Estados Unidos contestaba a la misma cuestión Alonzo Chuch, basándose en una notación formal, que denominó cálculo lambda, para transformar todas las fórmulas matemáticas a una forma estándar. Basándose en estos resultados, entre 1936 y 1941, el ingeniero alemán Konrad Zuse (1910-1957), diseñó y construyó su serie de computadores electromecánicos binarios, desde el Z1 hasta el Z3. Sin embargo estos computadores no tuvieron mucha difusión, ni siquiera dentro de su país, ya que el gobierno nazi nunca confió en los trabajos de Zuse. En 1938, Claude Shannon (1916- ) demostró cómo las operaciones booleanas elementales, se podían representar mediante circuitos conmutadores eléctricos, y cómo la combinación de circuitos podía representar operaciones aritméticas y lógicas complejas. Además demostró como el álgebra de Boole se podía utilizar para simplificar circuitos conmutadores. El enlace entre lógica y electrónica estaba establecido. Al desencadenarse la Segunda Guerra Mundial, la necesidad de realizar complicados cálculos balísticos y la exigencia de descodificar los mensajes cifrados del otro bando, impulsó el desarrollo de los computadores electrónicos de propósito general. El propio Turing fue reclutado en Bletchley Park, en Inglaterra, para descifrar los mensajes que encriptaba la máquina alemana Enigma, para lo que fue necesario construir la computadora Colossus . En la Universidad de Harvard, Howard Aiken (1900-1973) en colaboración con IBM, empezó, en 1939, la construcción del computador electromecánico Mark I, en la que trabajó como programadora Grace Murray Hopper. Pero para cuando se terminó en 1944, ya habían aparecido las primeras computadoras totalmente electrónicas, que eran mucho más rápidas. Por otro lado, en la Universidad del Estado de Iowa, entre 1937 y 1942, John Vincent Atanasoff (1903-1995) y Clifford Berry, diseñaron y construyeron la ABC (Atanasoff-Berry Computer). Terminada en 1942, fue la primera computadora electrónica digital, aunque sin buenos resultados y nunca fue mejorada. En 1941, John W. Mauchly (1907-1980) visitó a Atanasoff y observó de cerca su impresionante maquinaria, teniendo la oportunidad de revisar su tecnología. Más tarde, Mauchly y J. Presper Eckert, Jr (1919-1995), diseñaron y construyeron, entre los años 1943 y 1946, el computador eléctrico de propósito general ENIAC. Existe una gran controversia respecto a que Mauchly copiara muchas de las ideas y conceptos del profesor Atanasoff, para construir la computadora ENIAC. En cualquier caso en las últimas fases de su diseño y construcción aparece la importante figura de John Von Neumann (1903-1957), que actúa como consultor. Von Neumann escribió en 1946, en colaboración con Arthur W. Burks y Herman H. Goldstine, Preliminary Discussion of the Logical Design of an Electronic Computing Instrument, que contiene la idea de Máquina de Von Neumann, que es la descripción de la arquitectura que, desde 1946, se aplica a todos los computadores que se han construido. Con estos fundamentos, Eckert y Mauchly construyen en la Universidad de Manchester, en Connecticut (EE.UU.), en 1949 el primer equipo con capacidad de almacenamiento de memoria, la EDVAC. Eckert y Mauchly forman una corporación para construir una máquina que se pueda comercializar, pero, debido a problemas financieros, se vieron obligados a vender su compañía a a Remington Rand Corp. Trabajando para esta compañía fue que se concluyó el proyecto Univac, en 1951. También por esta época Maurice Wilkes construye la EDSAC en Cambridge (Inglaterra) y F.C. Williams construye en Manchester (Inglaterra), la Manchester Mark I. Estas máquinas se programaban directamente en lenguaje máquina, pero a partir de mediados de los 50, se produjo un gran avance en la programación avanzada. La Segunda Generación (los transistores y los avances en programación) Allá por 1945 la máxima limitación de las computadoras era la lenta velocidad de procesamiento de los relés electromecánicos y la pobre disipación de calor de los amplificadores basados en tubos de vacío. En 1947, John Bardeen, Walter Brattain y William Shockley inventan el transistor, recibiendo el Premio Nobel de Física en 1956. Un transistor contiene un material semiconductor, normalmente silicio, que puede cambiar su estado eléctrico. En su estado normal el semiconductor no es conductivo, pero cuando se le aplica un determinado voltaje se convierte en conductivo y la corriente eléctrica fluye a través de éste, funcionando como un interruptor electrónico. Los computadores construidos con transistores eran más rápidos, más pequeños y producían menos calor, dando también oportunidad a que, más tarde, se desarrollaran los microprocesadores. Algunas de las máquinas que se construyeron en esta época fueron la TRADIC, de los Laboratorios Bell (donde se inventó el transistor), en 1954, la TX-0 del laboratorio LINCOLN del MIT y las IBM 704, 709 y 7094. También aparece en esta generación el concepto de supercomputador, específicamente diseñados para el cálculo en aplicaciones científicas y mucho más potentes que los de su misma generación, como el Livermore Atomic Research Computer (LARC) y la IBM 7030. Pero esta generación se explica también por los avances teóricos que se dan. Así, en 1950, Alan Turing publica el artículo Computing Machinery and Intelligence en la revista Mind, en el que introducía el célebre Test de Turing. Este artículo estimuló a los pensadores sobre la filosofía e investigación en el campo de la Inteligencia Artificial. Por desgracia, Turing no fue testigo del interés que desató su artículo, porque en 1952 fue detenido por su relación homosexual con Arnold Murray y fue obligado a mantener un tratamiento con estrógenos que le hizo impotente y le produjo el crecimiento de pechos. En 1957, fue encontrado muerto en su casa al lado de una manzana mordida a la que había inyectado cianuro. En 1951, Grace Murray Hooper (1906-1992) da la primera noción de compilador y más tarde desarrolla el COBOL. Pero fue John Backus, en 1957, el que desarrolla el primer compilador para FORTRAN. En 1958, John MacCarthy propone el LISP, un lenguaje orientado a la realización de aplicaciones en el ámbito de la Inteligencia Artificial. Casi de forma paralela, Alan Perlis, John Backus y Peter Naur desarrollan el lenguaje ALGOL. Pero el personaje más importante en el avance del campo de los algoritmos y su análisis, es Edsger Dijkstra (1930- ), que en 1956, propuso su conocido algoritmo para la determinación de los caminos mínimos en un grafo, y más adelante, el algoritmo del árbol generador minimal. Más tarde, en 1961, N. Brujin introduce la notación O, que sería sistematizada y generalizada por D. Knuth. En 1957, aparece la Programación Dinámica de la mano de R. Bellman. En 1960, S. Golomb y L. Baumet presentan las Técnicas Backtracking para la exploración de grafos. Se publican en 1962 los primeros algoritmos del tipo Divide y Vencerás: el QuickSort de Charles Hoare y el de la multiplicación de grandes enteros de A. Karatsuba e Y. Ofman. En 1959, Jack Kilby (1923- ) presenta el primer circuito integrado, un conjunto de transistores interconectados con resistencias, en una pequeña pastilla de silicio y metal, llamada chip. Fue a partir de este hecho que las computadoras empezaron a fabricarse de menor tamaño, más veloces y a menor costo, debido a que la cantidad de transistores colocados en un solo chip fue aumentando en forma exponencial. Tercera Generación (cicuitos integrados y minituarización) A partir del circuito integrado, se producen nuevas máquinas, mucho más pequeñas y rápidas que las anteriores, así aparecen las IBM 360/91, IBM 195, SOLOMON (desarrollada por la Westinghouse Corporation) y la ILLIAC IV, producida por Burroughs, el Ministerio de Defensa de los EE.UU y la Universidad de Illinois. Seymour Cray (1925-1996) revoluciona el campo de la supercomputación con sus diseños: en 1964, el CDC 6600, que era capaz de realizar un millón de operaciones en coma flotante por segundo; en 1969, el CDC 7600, el primer procesador vectorial, diez veces más rápido que su predecesor. En cuanto a los avances teóricos, a mediados de los 60, un profesor de Ciencias de la Computación, Niklaus Wirth, desarrolla el lenguaje PASCAL, y en Berkeley, el profesor Lotfi A. Zadeh, publica su artículo Fuzzy Sets, que revoluciona campos como la Inteligencia Artificial, la Teoría de Control o la Arquitectura de Computadores. En 1971, Intel introduce el primer microprocesador. El potentísimo 4004 procesaba 4 bits de datos a la vez, tenía su propia unidad lógicoaritmética, su propia unidad de control y 2 chips de memoria. Este conjunto de 2.300 transistores que ejecutaba 60.000 operaciones por segundo se puso a la venta por 200 dólares. Muy pronto Intel comercializó el 8008, capaz de procesar el doble de datos que su antecesor y que inundó los aparatos de aeropuertos, restaurantes, salones recreativos, hospitales, gasolineras... A partir de aquí nacieron las tecnologías de integración a gran escala (LSI) y de integración a muy gran escala (VLSI), con las que procesadores muy complejos podían colocarse en un pequeño chip. Sin embargo, hasta este momento, por motivos económicos, complejidad de uso y dificultad de mantenimiento, los computadores habían sido patrimonio de universidades, organismos militares y gubernamentales, y grandes empresas. En 1975, Popular Electronics dedicó su portada al primer microcomputador del mundo capaz de rivalizar con los modelos comerciales, el Altair 8800. Cuarta Generación (ordenadores personales de uso doméstico) El Altair 8800, producido por una compañía llamada Micro Instrumentation and Telemetry Systems (MITS), se vendía a 397 dólares, lo que indudablemente contribuyó a su popularización. No obstante, el Altair requería elevados conocimientos de programación, tenía 256 bytes de memoria y empleaba lenguaje máquina. Dos jóvenes, William Gates y Paul Allen, ofrecerion al dueño de MITS, un software en BASIC que podía correr en el Altair. El software fue un éxito y, posteriormente Allen y Gates crearon Microsoft. Paralelamente, Steven Wozniak y Steven Jobs , también a raíz de ver el Altair 8800 en la portada de Popular Electronics, construyen en 1976, la Apple I. Steven Jobs con una visión futurista presionó a Wozniak para tratar de vender el modelo y el 1 de Abril de 1976 nació Apple Computer. En 1977, con el lanzamiento de la Apple II, el primer computador con gráficos a color y carcasa de plástico, la compañia empezó a imponerse en el mercado. En 1981, IBM estrena una nueva máquina, la IBM Personal Computer, protagonista absoluta de una nueva estrategia: entrar en los hogares. El corazón de esta pequeña computadora, con 16 Kb de memoria (ampliable a 256), era un procesador Intel, y su sistema operativo procedía de una empresa recién nacida llamada Microsoft. En 1984, Apple lanza el Macintosh, que disponía de interfaz gráfico para el usuario y un ratón, que se hizo muy popular por su facilidad de uso. Ábaco Fueron los egipcios quienes 500 años AC inventaron el primer dispositivo para calcular, basado en bolitas atravesadas por alambres. Posteriormente, a principios del segundo siglo DC, los chinos perfeccionaron este dispositivo, al cual le agregaron un soporte tipo bandeja, poniéndole por nombre Saun-pan. El ábaco permite sumar, restar, multiplicar y dividir. La palabra ábaco proviene del griego ABAX que significa una tabla o carpeta cubierta de polvo. Este dispositivo en la forma moderna en que la conocemos, realmente apareció en el siglo 13 DC y sufrió varios cambios y evoluciones en su técnica de calcular. Actualmente está compuesto por 10 columnas con 2 bolitas en la parte superior 5 en la parte inferior. Los japoneses copiaron el ábaco chino y lo rediseñaron totalmente a 20 columnas con 1 bolita en la parte superior y 10 en la inferior, denominándolo Soroban. Como caso anecdótico cabe relatar que en 1946, un contador japonés de nombre Kiyoshu Matzukai, quien era un experto en el uso del ábaco, se enfrentó en un concurso contra una computadora de la época durante dos dias completos, resultando como ganador indiscutible el ciudadano japonés. Actualmente el antiguo ábaco se emplea como método de enseñanza en las escuelas de los paises orientales, aunque es usado regularmente en muchos lugares del mundo, particularmente en los pequeños negocios de los barrios chinos (Chinatowns) en los Estados Unidos de América, Canadá y países cosmopolitas. Ada Augusta Byron, Condesa de Lovelace (1815-1851) Ada Augusta Byron, también llamada Lady Lovelace, fue uno de los personajes más interesantes de la historia de la computación. Nació en Londres, el 10 de Diciembre de 1815, siendo hija del ilustre poeta inglés Lord Byron. Apenas 5 semanas después de nacida su madre Lady Byron, se separó de su esposo y obtuvo la custodia de su hija, encargándose de su crianza y educación por cuanto a ella le aterrorizaba la idea de que su hija acabase convirtiéndose en un poeta bohemio, como su padre. Lady Lovelace tuvo vocaciones de analista y metafísica y a los 17 años influenciada por Mary Somerville realizó sus estudios de matemáticas. Fue en una cena que escuchó y se interesó en las ideas de Charles Babbage acerca de una nueva máquina de calcular. Ella intuyó que un proyecto de esa envergadura podría convertirse en realidad y fue una de las pocas personas que creyó en la universabilidad de las ideas, preconizada por Charles Babbage. Por esa razón decidió colaborar con él. En 1843, a los 28 años, Lovelace tuvo perfeccionados los planes de Babbage para la Máquina Analítica. Teniendo la buena fortuna de estar casada con un hombre que la alentó en su progreso intelectual, así como también la ayudó para cuidar a sus tres niños, Lovelace canalizó mucho de su talento y energía continuando con la causa de Babbage, y con el tiempo, corrigiendo algunos de los serios errores del trabajo original. Una de sus geniales ideas fue la de que un cálculo grande podía contener muchas repeticiones en la misma secuencia de instrucciones, y ella notó que usando un salto condicional sería posible preparar solamente un juego de tarjetas para las instrucciones recurrentes. Así describió lo que nosotros ahora llamamos un "bucle" y una "subrutina". Sus ideas fueron extendidas un siglo más tarde por el matemático británico Alan M. Turing en 1937 y por John von Neumann en 1946, ambos fundamentales en el desarrollo de la moderna computadora electrónica digital. La mujer que poseyó tal percepción encontró un final dolorosísimo a los 36 años, enferma de cáncer, dejando a Babbage solo para continuar sus trabajos. En la década de los 80 el Departamento de Defensa de los Estados Unidos de América desarrolló un lenguaje de programación en honor a la condesa, al cual nombró ADA. Alan Turing (1912-1954) Alan Mathison Turing nació el 23 de Junio de 1912, en Paddington, Londres. De padre Inglés y madre Irlandesa, estuvo separado de sus padres durante su infancia ya que estuvieron exiliados en la India (su padre luchó en esta guerra). Con 12 años ya expresaba su tremenda fascinación sobre la naturaleza y la gran cantidad de preguntas que no tenian respuesta para él, pensamientos que lo marginaron en la Escuela Pública en que se hallaba. Debido a esto estudió en Sherborne School cuyo director tuvo unas palabras para con su madre: "Si es un científico de vocación, pierde el tiempo en la Escuela Pública". Las notas privadas de Turing sobre la Teoria de la Relatividad denotan un alto nivel de inteligencia, pero a su vez es advertido para que no tenga un fatal fracaso en la obtención del Certificado Escolar. Al año de su entrada en Sherbone encuentra en Christopher Morcom la motivación para seguir con sus estudios, y entra en un vital periodo de riqueza intelectual, el cual finaliza con la muerte súbita de Morcom en Febrero de 1930. La idea de que tendría que hacer lo que Morcom no pudo, aparentemente lo sumió en una larga crisis. Durante tres años al menos el leyó las cartas de Morcom, que su madre habia recibido un tiempo atrás y su atención se centró en la pregunta de como la mente humana, y la de Christopher en particular, se encarnaban y formaban parte de la materia, y el modo en que la mente se separaba de la materia tras la muerte. Esta pregunta le introdujo fuertemente en el área de los físicos del siglo XX, consultando el libro de A. S. Eddington The Nature of the Physical World cuando la Teoría de la Mecánica Cuántica afectó al tradicional problema de la mente y la materia. Como estudiante del King´s College en Cambridge, entra en una fase de gran motivación (1931). Su lectura en 1932 de el nuevo trabajo de Von Neumann sobre las fundamentos lógicos de Mecánica Cuántica le ayudó en la transición de persona emocional a riguroso investigador intelectual. Al mismo tiempo que su homosexualidad formaba parte definitivamente de su identidad. El ambiente tan especial del King´s College hizo de este su primer y verdadero hogar. En este periodo 1933-1935 formó parte de diversos movimientos y asociaciones estudiantiles generalmente englobados King´s College, y también se relacionó con los círculos literarios del College. El progreso de Turing parece seguro, su grado distinguido en 1934 seguido del compañerismo del King´s College en 1935 y la participación en el trabajo de Smith Prize en 1936 sobre la Teoria de Probabilidades, le conducen hacia la obtención de su carrera como un excéntrico Graduado en Matemáticas Puras. La peculiaridad de su mente, también le conduce en una dirección impredecible. En 1933 es iniciado en los principio s lógicos matemáticos de la mano de Bertrand Russell que tenia unos conocimientos de lógica y fundamentos matemáticos muy profundos. Pero una pregunta acechaba a Turing, y era el hecho de que: debe existir al menos en principio algún método definido, o proceso mediante el cual toda cuestión matemática pueda ser demostrada? Esta pregunta, llamada entscheidugsproblem, fue formulada por David Hilbert en el Congreso Internacional de Matemáticos de 1900. Para contestar a esta pregunta necesitaba una definición del concepto método, y para ello analizó que era lo que hacía una persona para transformar un proceso metódico, y buscar una forma de hacer esto mecánicamente. Expresó el analisis en términos de una máquina teórica que sería capaz de transformar con precisión operaciones elementales previamente definidas en símbolos en una cinta de papel. En Agosto de 1936 presenta el concepto final de la Maquina de Turing en su artículo On Computable Numbers. Casi el mismo día en que Turing anunciaba su resultado, lo hacía también en Estados Unidos Alonzo Church, aunque basándose en una notación formal, que denominó cálculo lambda, para transformar todas las fórmulas matemáticas a una forma estándar. Los trabajos de Church y, en especial, los de Turing, tuvieron profundas consecuencias para el desarrollo de las Ciencias de la Computación y la Inteligencia Artificial. Con estos fundamentos, el ingeniero alemán Konrad Zuse diseñó el primer computador electromecánico binario, el Z1. En 1936, fue a estudiar a la universidad de Princeton, como un estudiante ya graduado. Allí trabajo en su proyecto Ordinal Logics probablemente su mas difícil y profundo trabajo matemático; que le acercó al mundo de lo abstracto e incalculable; también lo utilizó para su gran pregunta de la naturaleza de la mente, y de este trabajo obtuvo la idea de que la intuición humana corresponde a lo pasos no calculables de un argumento. Pero hasta 1938 no desarrolló esta idea. En Princeton y los años 30, desarrolló una máquina de cifrado, y estudió sobre este campo debido a la utilidad de ello en la Guerra con Alemania. Trabajando secretamente para el Colegio de Cifrado y Código Gubernamental o también llamado Departamento de Criptoanálisis. Turing fue reclutado por Inglaterra, en Bletchley Park, para descifrar los mensajes que componía la máquina alemana Enigma, y, como consecuencia, los aliados construyeron la máquina Colossus. Y es en este periodo cuando toma contacto con la más avanzada tecnología electrónica de la época y planea la Máquina de Turing Universal en su forma electrónica, de hecho había inventado las computadoras digitales. Una investigación paralela americana llamada EDVAC, le hace temer que posiblemente se adelanten a su proyecto y su idea. Por esta época, Turing estuvo entrenándose, y a punto estuvo de participar por Inglaterra en los Juegos Olímpicos del 1948 en atletismo de larga distancia. En Mayo de 1948 es nombrado Director Adjunto del laboratorio de la Universidad de Manchester. En 1950, Turing publica el artículo Computing Machinery and Intelligence en la revista Mind, en el que introducía el célebre Test de Turing. Este artículo estimuló a los pensadores sobre la filosofía e investigación en el campo de la Inteligencia Artificial. El 31 de Marzo de 1952 es detenido y juzgado por sus relaciones sexuales con Arnold Murray, un joven de Manchester. El reconocimiento de su homosexualidad crea una atmósfera de antipatía hacia él de los ingenieros de Manchester. A cambio de no ir a prisión, fue obligado a mantener un tratamiento médico con estrógenos que le hizo impotente y le produjo el crecimiento de pechos. También es excluido de su trabajo en el Departamento de Criptoanálisis por su homosexualidadello. Fue encontrado por su asistenta el 8 de Junio de 1954. Había muerto el día anterior por ingestión de cianuro. Una manzana mordisqueada estaba a su lado. Su madre defendió que la muerte fue por la ingestión accidental de cianuro de sus dedos tras un experimento químico, pero es más creible que él planease su muerte, amargado por su situación. El dictamen del forense: suicidio Algoritmo Una posible definición de algoritmo es un conjunto de reglas que permiten obtener un resultado determinado apartir de ciertas reglas definidas. Otra definición sería, algoritmo es una secuencia finita de instrucciones, cada una de las cuales tiene un significado preciso y puede ejecutarse con una cantidad finita de esfuerzo en un tiempo finito. Ha de tener las siguientes características: legible, correcto, modular, eficiente, estructurado, no ambiguo y a ser posible se ha de desarrollar en el menor tiempo posible. El término proviene del matemático árabe Al'Khwarizmi, que escribió un tratado sobre los números. Este texto se perdió, pero su versión latina, Algoritmi de Numero Indorum, sí se conoce. Al'Khwarizmi (780-850 DC) Muhammad ibn Musa abu Djafar Al'Khwarizmi, también llamado Al'Khorezmi, nació alrededor del 780 DC (otros citan 800 DC) en Khorezm, al sur del Mar de Aral (hoy Khiva, Uzbekistán), que había sido conquistado 70 años antes por los árabes. Su nombre significa "Mohamed, hijo de Moisés, padre de Jafar, el de Khorezm". Hacia el 820, Al'Khwarizmi fue llamado a Bagdad por el califa abasida Al'Mamun, segundo hijo de Harun ar Rashid, por todos conocido gracias a las Mil y una noches. Al'Mamun continuó el enriquecimiento de la ciencia árabe y de la Academia de Ciencias creada por su padre, llamada la Casa de la Sabiduría, lo que traería importantes consecuencias en el desarrollo de la ciencia en Europa, principalmente a través de España. Poco se sabe de su vida, pero realizó viajes a Afganistán, el sur de Rusia y Bizancio (hoy Turquía). Falleció en Bagdad hacia el 850 DC (también se menciona 840 DC). La mayoría de sus diez obras son conocidas en forma indirecta o por traducciones hechas más tarde al latín (muchas de ellas en Toledo) y de algunas sólo se conoce el título. Al'Khwarizmi fue un recopilador de conocimiento de los griegos y de la India, principalmente matemáticas, pero también astronomía (incluyendo el calendario Judío), astrología, geografía e historia. Su trabajo más conocido y usado fueron sus Tablas Astronómicas, basadas en la astronomía india. Incluyen algoritmos para calcular fechas y las primeras tablas conocidas de las funciones trigonométricas seno y cotangente. Lo más increíble es que no usó los números negativos (que aún no se conocían), ni el sistema decimal ni fracciones, aunque sí el concepto del cero. Su Aritmética, traducida al latín como Algoritmi de numero Indorum introduce el sistema numérico indio (sólo conocido por los árabes unos 50 años antes) y los algoritmos para calcular con él. Finalmente tenemos el Algebra, una introducción compacta al cálculo, usando reglas para completar y reducir ecuaciones. Además de sistematizar la resolución de ecuaciones cuadráticas, también trata geometría, cálculo s comerciales y de herencias. Quizás éste es el libro árabe más antiguo conocido y parte de su título Kitab al-jabr wa'l-muqabala da origen a la palabra álgebra. Aunque los historiadores no se han puesto de acuerdo en la mejor traducción del título, éste significa El libro de restaurar e igualar o El arte de resolver ecuaciones. El trabajo de Al-Khorezmi permitió preservar y difundir el conocimiento de los griegos (con la notable excepción del trabajo de Diofanto) e indios, pilares de nuestra civilización. Rescató de los griegos la rigurosidad y de los indios la simplicidad (en vez de una larga demostración, usar un diagrama junto a la palabra Mira). Sus libros son intuitivos y prácticos y su principal contribución fue simplificar las matemáticas a un nivel entendible por no expertos. En particular muestran las ventajas de usar el sistema decimal indio, un atrevimiento para su época, dado lo tradicional de la cultura árabe. La exposición clara de cómo calcular de una manera sistemática a través de algoritmos diseñados para ser usados con algún tipo de dispositivo mecánico similar a un ábaco, más que con lápiz y papel, muestra la intuición y el poder de abstracción de Al'Khwarizmi. Hasta se preocupaba de reducir el número de operaciones necesarias en cada cálculo. Por esta razón, aunque no haya sido él el inventor del primer algoritmo, merece que este concepto esté asociado a su nombre. Mecanismo de Antikythera A veces, la recuperación de objetos de navíos que naufragaron pone al descubierto tesoros del pasado. El naufragio de Antikythera -nombre de una isla griega del Egeo- no fue la excepción: sacó a la superficie un testimonio único del avance de la técnica de la Antigüedad clásica, el mecanismo de Antikythera, conocido como la primera computadora de Occidente. Una vez en el Museo de Atenas, después de haber pasado 20 siglos en el mar, a 42 metros de profundidad, las partes limpias del instrumento exhibían en su superficie numerosas inscripciones astronómicas, en principio no atribuibles a meros adornos. No obstante, la idea de que se tratase de un astrolabio también se descartó, debido a que los primeros reconocibles como tales se registran a partir del 650 d.C. Luego de décadas de olvido -ya que la recuperación se había realizado en 1900-, Derek de Solla Price, un físico e historiador de la ciencia presentó, en 1959, su conclusión: se trataba de un complicado mecanismo de relojería que, por su diseño y funciones, podía ser llamada la primera computadora de Occidente. Según él, las inscripciones astronómicas debían de ser indicadores de un mecanismo de engranajes que, al moverse, mostraban la posición de los cuerpos celestes. La hipótesis fue rechazada por muchos estudiosos. Sin embargo, De Solla Price no se dio por vencido e hizo examinar los fragmentos del artefacto mediante la aplicación de radiación gamma, con lo cual pudo comenzar la reconstrucción del mecanismo y establecer su fecha y lugar de construcción. El examen confirmó que se trataba del instrumento científico más sofisticado de la Antigüedad que había llegado hasta nosotros. Consistía en un artefacto de cálculo astronómico con mecanismos de precisión que, mediante 32 engranajes y un engranaje diferencial, mostraba la posición de los cuerpos celestes en sincronización con el año calendario. El usuario, por medio de una perilla, podía accionar un simulador en miniatura del movimiento del sol, la luna y varios planetas, teniendo a la vista la fecha en que se había dado, o se daría, tal combinación. Mediante este estudio se pudo, además, determinar que el artefacto pertenecía efectivamente al siglo I a.C., y por las inscripciones y la posición de los engranajes se dedujo que había sido construido alrededor del año 80 a.C., en la isla griega de Rodas, ubicada en el mar Egeo. Este hallazgo aportó importantes datos que llevaron a revisar la historia oficial de la técnica griega. El descubrimiento del mecanismo de Antikythera obliga, además, a redimensionar el testimonio de las fuentes literarias en relación con su valor histórico, durante mucho tiempo consideradas como mero fruto de la exageración. Apple Computer Inc. Steve Jobs y Stephen Wonziak se conocieron trabajando para HewlettPackard. En 1974, Jobs pasó a formar parte del club de Wozniak Homebrew Computer Club. Pero a Jobs no le bastaba con crear juguetes electrónicos como al resto de los miembros, en parte porque no era demasiado bueno en esos menesteres, y convenció a Wozniak para que trabajase con él en la creación de una computadora personal, más asequible que la Altair 8800, la primera computadora personal aparecida en 1975. Ambos diseñaron el Apple I en el dormitorio de Jobs y construyeron el prototipo en su garaje. Decididos a crear una empresa dedicada a vender sus computadoras personales, consiguieron 1.300 dólares tras vender sus más preciadas posesiones. Jobs se deshizo de su Volkswagen y Wozniak de su calculadora científica HP. El 1 de abril de 1976 nació Apple Computer y comenzaron a comercializar su Apple I por 666 dólares. El primer año las ventas ascendieron a 774.000 dólares. Pero Apple no comenzó a crecer verdaderamente hasta 1977, cuando la Apple II hizo su aparición en una exposición local de computadoras. La Apple II fue una máquina que llamaba la atención, porque era la primera computadora personal que venía en una carcasa de plástico e incluía gráficos en color. Luego de su lanzamiento, las órdenes de compra de las máquinas de Apple se multiplicaron varias veces y, a principios de 1978, las ventas crecieron aún más con la introducción de la Apple Disk II, la diskettera más económica y fácil de usar (para la época). Sin embargo, el crecimiento de las ventas trajo consigo un aumento en el tamaño de la empresa y, cuando se lanzó la Apple III en 1980, Apple contaba con varios miles de empleados y comenzaba a vender computadoras al exterior. En 1980, Apple empezó a cotizar en bolsa. Jobs y otros ingenieros comenzaron a desarrollar el Lisa, que redefiniría la informática personal. Sin embargo, Jobs resultó ser un mal gerente de proyectos y Mike Markkula, el entonces presidente de Apple y uno de sus mayores accionistas, lo apartó del proyecto del Lisa. Jobs, que tenía sólo el 11 por ciento de Apple, tomó a su cargo otro proyecto de la empresa y comenzó a trabajar en el Macintosh, cuyo objetivo era una computadora personal de 500 dólares. Jobs se encargó de que fuera mucho más. En 1981, IBM presentó su primera PC que comenzó a dominar rápidamente el campo de juego. El equipo de Jobs tendría que trabajar muy rápido si quería competir con IBM en el mercado de las computadoras personales. Ese mismo año, Wozniak estrelló contra el asfalto el avión que pilotaba. El resultado, además de graves heridas, fue una amnesia de la que no se recuperó hasta 1983, año en el que volvió a Apple. Dos años más tarde abandonó la empresa por diferencias con la dirección y con más de 100 millones de dólares bajo el brazo. Después de retirarse de Apple, Wozniak ha declarado en varias ocasiones su descontento con el destino de la empresa que ayudó a fundar: "Apple no es la compañía que yo esperaba que fuese". Jobs comprendió que Apple tendría que convertirse en una compañía madura, y que él no era el hombre adecuado para ese trabajo. A principios de 1983, Jobs comenzó a hablar de negocios con John Sculley, en aquel entonces presidente de Pepsi-Cola. En abril lo convenció y Sculley se convirtió en el presidente ejecutivo (CEO, Chief Executive Officer) de Apple. Si bien era un hombre de negocios exitoso, pronto se hizo evidente que Sculley no sabía gran cosa de la industria informática. Casi de inmediato, él y Jobs estuvieron en desacuerdo. Como faltaba cada vez menos para el lanzamiento del Macintosh, Jobs aumentó su ritmo de trabajo. Buscó sin descanso desarrolladores que programaran para la máquina a punto de salir, porque Jobs creía que la industria del software, en última instancia, haría funcionar o no al Mac. El 22 de enero de 1984, en el tercer cuarto del Super Bowl (la gran final del football americano), Apple lanzó el famoso aviso comercial de presentación de la Macintosh. Dirigido por Ridley Scott, la escena, de características orwellianas, describía cómo el mundo de IBM era destruido por una nueva máquina. Al principio, el Mac se vendió muy bien, pero para las Navidades la gente ya se quejaba por la poca memoria RAM y la imposibilidad de conectarla a un disco rígido. Fue a comienzos de 1985 cuando Jobs y Sculley comenzaron a discutir. Sculley creía que Jobs era peligroso y que estaba fuera de control; Jobs creía que Sculley no sabía nada de la industria informática y que no hacía ningún esfuerzo por aprender. En mayo Jobs decidió hacer una jugada para tomar el control de la compañía. Le propuso a Sculley que programara una reunión en China y planeó un golpe en el directorio para cuando Sculley estuviera de viaje. A último momento alguien le hizo llegar esta información a Sculley, que decidió enfrentar a Jobs. Luego de una acalorada discusión entre ambos, la Junta Directiva votó y se colocó unánimemente del lado de Sculley. Jobs renunció ese mismo día, dejando a Sculley a cargo de Apple. Sculley se convirtió de hecho en la cabeza de Apple en mayo de 1985. En los meses posteriores, la empresa se vio forzada a despedir a un quinto de su fuerza laboral, alrededor de 1200 empleados. Apple también anunció su primer trimestre fiscal con pérdidas. Todo esto, más la renuncia de Jobs, sirvió para que se fuera perdiendo la confianza en la capacidad de Sculley para ser el CEO de Apple. Al mismo tiempo, Sculley puso todo su empeñó en una batalla judicial contra Bill Gates, de Microsoft, por la introducción del Windows 1.0, que era muy similar a la GUI (siglas de Graphical User Interface, Interfaz Gráfica de Usuario) del Mac. Gates, finalmente, acordó firmar una declaración por la que Microsoft se comprometía a no usar tecnología del Mac en Windows 1.0, pero nada se decía allí sobre las futuras versiones de Windows, y los abogados de Gates se aseguraron que esta argucia fuera a prueba de fallas. Apple había perdido, efectivamente, los derechos exclusivos sobre su diseño de interfaz. Este documento llegaría a ser importante en los juicios posteriores entre Apple y Microsoft, que trataran sobre la interfaz del Windows. La introducción simultánea de la LaserWriter, la primera impresora láser PostScript de bajo costo para el Mac, y del PageMaker, uno de los primeros programas de edición electrónica, fue lo que sacó a Apple del pozo en el que se había metido. Estos dos productos, en conjunto, hicieron del Mac la solución ideal para la edición de bajo presupuesto, y otra vez el Mac volvió a ser un éxito instantáneo. En 1987, Apple introdujo al mercado el Mac II. Concebida para ser expandible, el Mac II convirtió a la línea Macintosh en una familia de computadoras viable y poderosa. Apple fue de nuevo una acción favorita de Wall Street, que entregaba 50 mil Macs por mes. Parecía, en 1989, que Windows sería un fracaso y que Macintosh dominaría en la década siguiente. No fue así. En 1990 el mercado se saturó con clones de PC con todas las configuraciones imaginables, y Apple era la única compañía que vendía Macs. A fines de mayo, Microsoft presentó el Windows 3.0, que podía ejecutarse prácticamente en todos los clones de PC del mundo. Apple estaba en problemas. La idea de los que conducían a Apple para encontrar una solución a este problema era dar en licencia el Mac OS (Sistema Operativo del Mac). También se hablaba de llevar el sistema operativo para que se ejecutara en máquinas con procesadores de Intel. Fue Michael Spindler, el nuevo COO (siglas de Chief Operating Officer o Jefe Operativo) de Apple, quien rechazó la idea, cuando dijo que era "demasiado tarde para dar licencias". A finales de 1991, Apple presentó la primera generación de PowerBooks, que fue un éxito de inmediato. También se había estado trabajando en un nuevo tipo de computadoras, el Asistente Digital Personal (PDA, siglas de Personal Digital Assistant), al que Apple denominó Newton. Sculley se interesó de inmediato en este proyecto, y lo dirigió hasta su culminación, en agosto de 1993. La primera generación del Newton tenía una función para el reconocimiento de la escritura de poca utilidad y no se vendió mucho. Sculley comenzó a desinteresarse de las operaciones diarias de Apple y, finalmente, la Junta Directiva de Apple decidió que había sido suficiente. En junio de 1993, relevaron a Sculley de su posición como CEO y colocaron a Spindler en el puesto. Spindler, según todas las referencias, era el hombre equivocado para el trabajo. Poco dispuesto al trato personal, era casi imposible entrar a su oficina. Sin embargo, Spindler dirigió varios proyectos con éxito en sus dos años y medio como CEO. En 1994 Apple anunció la familia PowerMac, los primeros Macs que se basaban en el chip PowerPC, un procesador extremadamente rápido desarrollado en conjunto con IBM y Motorola. El procesador PowerPC le permitió a las Macs competir con la velocidad de los más nuevos procesadores de Intel y muchas veces superarlos. Spindler también dirigió la cesión de licencias del Mac OS a varias empresas, entre las que se encontraba Power Computing, uno de los fabricantes más exitosos de clones del Mac. Pero muchos creyeron que Apple era demasiado restrictivo en sus acuerdos de licencias y apenas un puñado de compañías llegó a licenciar alguna vez el Mac OS. Pero el problema más grave de Apple no era la venta de computadoras, sino fabricarlas. En junio de 1995 Apple tenía mil millones de dólares en pedidos detenidos y no tenía los componentes para construirlas. A los problemas de Apple se les sumó, hacia el final del verano, el lanzamiento del Windows '95, que copiaba mejor que nunca la interfaz gráfica de usuario del Mac. Apple tuvo la peor caída de su historia en el invierno de 1995-96. La empresa se equivocó al evaluar el mercado y lanzó Performas de bajo costo con procesadores PowerMac de mediana potencia, y no obtuvo rentabilidad alguna. Apple anunció una pérdida de US$68 millones en ese trimestre fiscal. En enero de 1996, se le pidió a Spindler la renuncia como CEO y fue reemplazado por Gil Amelio, ex-presidente de National Semiconductor. Amelio realizó un gran esfuerzo para que Apple volviera a ser rentable, pero fue en vano. Luego de sus primeros cien días como CEO, Amelio anunció grandes cambios en la estructura empresarial de Apple. Esta se separó en siete divisiones y cada una fue responsable de su propio beneficio o pérdida. También se empeñó en mantener informados a los desarrolladores y a los usuarios sobre los asuntos diarios de la empresa. Aunque se anunció una terrible pérdida de US$740 millones en el primer trimestre fiscal de 1996, la pérdida se redujo a US$33 millones en el segundo trimestre, batiendo todas las estimaciones de los expertos financieros más acreditados. En el tercer trimestre, Apple tuvo una rentabilidad de casi US$30 millones, asombrando otra vez a los expertos en finanzas, quienes habían pronosticado una pérdida de ese tenor. Sin embargo en el cuarto trimestre Apple perdió mucho más que nunca. A finales de diciembre de 1996, Apple anunció que compraba a NeXT y que Steven Jobs regresaba al rebaño, noticia que estremeció a la industria. La división del Newton terminó convertida en Newton, Inc., una filial subvencionada en su totalidad por Apple. A principios de julio de 1997, Gil Amelio renunció a consecuencia de otra multimillonaria pérdida trimestral. Esto fue una sorpresa para casi todos, y en ese momento no se anunció un nuevo CEO. La Junta Ejecutiva consideró que, según informes recibidos, Amelio había hecho todo lo que podía por Apple. Mientras tanto, a Steven Jobs se le confirió, por el momento, un papel especial en Apple. La presencia de Jobs se conoció casi al mismo tiempo que se adquirió a NeXT. El grado del papel especial de Jobs pronto fue evidente. Con las acciones de Apple en su punto más bajo en cinco años y sin CEO, había que tomar muchas decisiones y poco tiempo para llevarlas a cabo. Jobs comenzó a hacer cambios llamativos en la estructura de Apple, entre ellos la cancelación de la separación del Newton. (El Newton se dejó de producir unos meses más tarde.) Sin embargo, el lugar y el momento para los anuncios más impactantes fue la exposición MacWorld de Boston en agosto de 1997. Jobs, a quien se lo comenzaba a llamar el CEO interino, pronunció el discurso inaugural de la exposición y se refirió a la próxima y agresiva campaña publicitaria de la compañía. También anunció un casi por completo renovado Consejo Directivo, que incorporaba a Larry Ellison, CEO de Oracle. Pero se guardó lo mejor para lo último. En una decisión que sorprendió a casi todos, Jobs anunció una alianza con Microsoft. A cambio de US$150 millones en acciones de Apple, Microsoft y Apple tendrían una licencia cruzada de cinco años sobre patentes y, lo más importante, un acuerdo final en la disputa sobre la GUI del Mac OS. Microsoft convino en pagar una suma adicional de dinero, que no se dio a conocer, para terminar con los argumentos que sostenían que Microsoft había robado la propiedad intelectual de Apple cuando diseñó el sistema operativo del Windows. Microsoft también anunció que Office '98, su popular paquete de aplicaciones para uso en oficinas, estaría disponible para la Mac hacia fin de año. Estos anuncios le dieron nueva vida a Apple, pero Jobs no había terminado. Quedaba todavía un obstáculo más grande por superar: los clones. Jobs creía que los vendedores de clones, como Power Computing, se habían introducido en el mercado de alta gama, en el que Apple obtenía, tradicionalmente, el mayor beneficio. Los clones no habían podido expandir el mercado del Mac OS y, en cambio, le habían quitado clientes a Apple. Jobs dio un corte definitivo al aparente fracaso del experimento de los clones. A comienzos del otoño de 1997, Apple anunció su intención de comprar la parte de la licencia sobre el Mac OS en poder de Power Computing, e incorporar a la mayoría de su plantel de ingenieros. Power cerró varios meses más tarde, y Apple continuó con la atención de sus productos. Apple compró también las licencias sobre el Mac OS otorgadas a Motorola e IBM y le permitió seguir operando a Umax, pero bajo el acuerdo tácito que ésta se dedicaría al mercado de bajo gama, con la venta de máquinas a un precio por debajo de los US$1000. Umax vendió el inventario remanente de Macs y se dedicó a vender equipos Wintel. El 10 de noviembre de 1997 Apple dio otra conferencia de prensa, en la que Jobs anunció cambios importantes en la estrategia empresarial de Apple. Ahora Apple ve ndería computadoras directamente, tanto por Internet como por teléfono, como Power Computing lo había hecho tan bien en el pasado. Jobs también anunció dos nuevos equipos de Apple: la PowerMac G3 y el PowerBook G3.El Apple Store (el almacén de Apple) tuvo un éxito arrollador y en menos de una semana era el tercer sitio más grande de comercio electrónico de la Web. En la exposición MacWorld de San Francisco, en enero, Jobs anunció que Apple, por primera vez en más de un año, había tenido un primer trimestre con ganancias, que llegaban a los US$44 millones. Esto superó por mucho los pronósticos de los analistas. En abril de 1998, Jobs anunció otro trimestre con ganancias (US$57 millones), que fue una gran sorpresa para casi todo el mundo. Jobs no perdió la iniciativa y a principios de mayo anunció un nuevo PowerBook G3, un Apple Store para el sector educativo, y el iMac, un Mac con un diseño totalmente nuevo. El iMac respondía a las exigencias del usuario común de poco presupuesto y les ofrecía un poder de computación más que suficiente para la gran mayoría y a un precio accesible. Más tarde, en ese mismo mes, en su discurso de presentación en la WWDC (siglas de Worldwide Developers Conference o Conferencia Mundial de Desarrolladores de Apple), Jobs anunció un cambio espectacular en la dirección del sistema operativo de Apple. El Mac OS X se fusionaría con el OS 8 y con Rhapsody -la futura versión del NeXTStep de Apple-- en un sistema operativo sólido, con todas las prestaciones de un sistema operativo moderno y compatible con la mayoría de las aplicaciones que lo fueran con el OS 8. En julio de 1998, Jobs anunció que la empresa había tenido ganancias por tercer trimestre consecutivo, esta vez de US$101 millones. La iMac fue la computadora más vendida en todos los Estados Unidos durante la mayor parte del otoño, y llevó a que las ventas de Apple superaran todos los pronósticos. En el otoño, Jobs anunció otro trimestre con beneficios, completando así un año entero de rentabilidad. En enero de 1999, Jobs anunció un quinto trimestre consecutivo de ganancias, con crecimiento comparado con el mismo trimestre del año anterior, y una nueva y refinada PowerMac G3. En julio de 1999, lanzó el iBook, el ordenador portátil para el usuario común. Siguiendo los mismos principios que convirtieron al iMac en un gran éxito de ventas el año anterior, el iBook llevó estilo al mercado de lo s ordenadores portátiles de bajo costo. Meses después, Jobs anunció PowerMac G4, un nuevo y significativo equipo de sobremesa para uso profesional. La acción de Apple había subido durante todo el verano, y a mediados de septiembre se estaba comerciando a su valor más alto. En un espectacular discurso inaugural de la exposición MacWorld de San Francisco, en enero de 2000, Jobs presentó la nueva estrategia de Apple para Internet: un conjunto de aplicaciones basadas en Internet, sólo para Macs, llamada iTools y una asociación exclusiva con Earthlink, que convirtió a esta empresa en el proveedor de acceso a Internet recomendado por Apple. Jobs también anunció que quitaría el interino del título de su cargo, convirtiéndose en el CEO permanente de Apple. En julio de 2000, Apple anunció un gran número de máquinas nuevas, entre ellas la PowerMac G4 Cube. El Cube fue la respuesta de Apple a quienes querían una iMac sin monitor, y al mismo tiempo un desafío a la industria de la informática para continuar reduciendo el tamaño de las computadoras mientras aumenta su atractivo visual. Aunque cobra sólo US$1,00 al año, Steven Jobs permanece al timón de Apple Computer, Inc., y mantiene el iCEO en el título de su cargo porque "suena muy bien". Máquina de Von Neumann (Arquitectura Von Neumann) En 1946, en colaboración con Arthur W. Burks y Herman H. Goldstine, John Louis Von Neumann (1903-1957) escribió uno de los artículos más influyentes en la moderna historia de los computadores: Preliminary Discussion of the Logical Design of an Electronic Computing Instrument. Las ideas que contiene este artículo, que de forma conjunta se conocen con el nombre de Máquina de Von Neumann o Arquitectura Von Neumann, han proporcionado los fundamentos para la construcción y el desarrollo de todos los computadores hasta el momento. El concepto central en la Arquitectura Von Neumann es el de programa almacenado, según el cual las instrucciones y los datos tenían que almacenarse juntos en un medio común y uniforme, en vez de separados, como hasta entonces se hacía. De esta forma, no sólo se podían procesar cálculos, sino que también las instrucciones y los datos podían leerse y escribirse bajo el control del programa. A partir de esta idea básica se sigue que un elemento en la memoria tiene una calidad ambigua con respecto a su interpretación; esta ambigüedad se resuelve, sólo temporalmente, cuando se requiere ese elemento y se ejecuta como una instrucción, o se opera como un dato. Un beneficio de esta ambigüedad es el hecho de que un dato, obtenido como resultado de algunas operaciones en la unidad aritmetico-lógica del computador, podía colocarse en la memoria como si fuera cualquier otro dato, para entonces usarlo y ejecutarlo como si fuera una instrucción. Además la Máquina de Von Neumann presentaba como característica importante un pequeño número de registros para mantener la instrucción del programa en curso, y el registro de datos que se estaban procesando. La máquina operaba en un ciclo repetitivo de pasos para localizar y ejecutar en secuencia las instrucciones del programa. Resulta evidente que esta breve descripción puede aplicarse a casi todos los computadores que desde 1946 se han construido, por lo que la aportación de Von Neumann a las Ciencias de la Computación es más que notable. Con este concepto en mente se construyeron EDVAC, EDSAC y UNIVAC. Atanasoff-Berry Computer (ABC) La AtanasoffBerry Computer o ABC empezó a ser concebida por el profesor de física John Vincent Atanasoff a partir de 1933, formulando la idea de usar el sistema de números binarios para su funcionamiento. Al buscar un ayudante para cumplir con su propósito, un colega le recomendó a un joven brillante, Clifford Berry. Entre los años de 1937 y 1942, contando con la ayuda de Berry, diseñó y construyó en el sótano de su laboratorio en la Universidad del Estado de Iowa su famoso prototipo a un costo de 1,460 dólares. Estaba compuesto de tubos al vacío, capacitores y un tambor rotatorio para el manejo de los elementos de la memoria, así como un sistema lógico para su operatividad. Terminada en 1942, fue la primera computadora electrónica digital, aunque sin buenos resultados y nunca fue mejorada. Desafortunadamente sus inventores jamás la patentaron y por aquel entonces surgieron problemas sobre la propiedad intelectual de la misma, en cuyas divergencias participó la IBM. Aunque existen serias dud as sobre si la ABC (Atanasoff- Berry Computer) fue completamente operativa, el hecho es que John W. Mauchly visitó a Atanasoff en 1941 y observó muy de cerca su impresionante maquinaria y tuvo la oportunidad de revisar su tecnología. Existe una gran controversia respecto a que Mauchly copiara muchas de las ideas y conceptos del profesor Atanasoff, para, posteriormente, entre los años 1943 a 1946, construir la computadora ENIAC. Charles Babbage: Mecánica aplicada a la computación Por José María Cuenca de la Cruz Aunque el desarrollo de los ordenadores como grandes artefactos para la realización de cálculos, primero, y como utensilios de trabajo en hogares y oficinas, después, se ha efectuado en la segunda mitad de este siglo, hubo un precursor de la computación automática, que construyó máquinas que según la crítica histórica exigían más de lo permisible por la ingenería de la época. En este artículo el lector podrá hacerse un juicio más objetivo sobre el excéntrico profesor Charles Babbage. Se considera a Charles Babbage (matemático inglés profesor en Cambridge, que vivió entre 1792 y 1871 para más señas) como el precursor de las ciencias informáticas; tanto por establecer los conceptos teóricos en que se basa actualmente la arquitectura de computadores, como por diseñar sus máquinas analítica y de las diferencias: auténticas pioneras de las calculadoras digitales, pese a basarse en principios puramente mecánicos, lo que constituye todo un alarde de ingeniería. El tal sujeto era un bicho raro ya desde estudiante en el Trinity College: aficionado a repasar los errores de cálculo, transcripción o tipográficos que se acumulaban en las tablas matemáticas de la época cual ratón de biblioteca, se le ocurrió la genial idea de construir una máquina capaz de recopilar las tablas de logaritmos, que por aquel entonces apenas tenían un siglo de antigüedad. De carácter muy excéntrico, se movía en círculos privilegiados, donde lo hacían también Charles Dickens, Pierre S. de Laplace o Charles Darwin, lo que le dotaba de una visión de la realidad muy avanzada para su época. Pero el desarrollo de sus progresos más allá de la pura teoría se vió limitado por su mal carácter: obligaba a sus empleados a desmontar sus máquinas para volver a reconstruirlas de modo más complejo a medida que se le ocurrían nuevas ideas una y otra vez; lo que a la larga acabó dejándole sin fondos para seguir adelante, y sin nadie interesado en financiar sus interminables empresas. Intolerante con las intromisiones, llegó incluso a intentar procesar al gremio de organilleros porque le molestaban en su trabajo, lo que provocó que los niños de la vecindad fueran tras él por las calles burlándose y cantando al son de incipientes latas de conserva. Pero todo esto no quita un ápice a su gran talla como matemático e ingeniero. Su primera calculadora digital fue inventada en 1822 para el Servicio de Correos Británico; determinaba valores sucesivos de funciones polinómicas utilizando solamente la operación de adición, mediante el método de las diferencias finitas: partiendo de los valores iniciales conocidos de una serie de potencias obtenemos los demás mediante la realización de restas entre valores consecutivos hasta obtener una columna de un valor constante; y retroceder sumando hasta el valor siguiente que deseamos obtener, como se ve en este ejemplo para las segundas potencias de x: Ejemplo de empleo del método de las diferencias finitas para hallar x² en los primeros naturales: x 1 2 3 4 5 6 7 x2 1ª diferencia 1 4-1= 3 4 9-4= 5 9 16-9= 7 16 25-16= 9 25 36-25= 11 36 11+2= 13 36+13= 49 .. 2ª diferencia 5-3= 2 7-5= 2 9-7= 2 11-9= 2 2 .. .. Como no disponía de conmutadores eléctricos para imitar el álgebra booleana, se vio obligado a sustituirlos en todos sus diseños con interruptores mecánicos a base de barras, cilindros, cremalleras y ruedas dentadas. Todo el sistema estaba basado en la numeración decimal, de forma que cada una de las cifras de un número se representaba por una rueda dentada, y su valor por la rotación angular asociada a ella. Este funcionamiento hace que sólo sean posibles las rotaciones correspondientes a valores numéricos enteros, lo que en la práctica equivale a un resultado correcto como solución, o al cuelgue de la máquina, pero nunca a un resultado erróneo. La primera máquina inicial fue desarrollándose más y más en lo que se dio en llamar artilugio de diferencias, hasta que tras diez años de trabajo el proyecto se vino abajo debido a las razones expresadas más arriba, y a su elevado coste: se habían invertido 17.470 libras de 1834, unas veinte veces más de lo que costó desarrollar la locomotora de Bull. Aunque después de todo Charles no perdió sus esperanzas, porque los problemas tecnológicos de diseño y fabricación de las 25.000 piezas realizadas hasta la fecha estaba demostrado que podían salvarse. Además una parte (alrededor de dos mil piezas) se aprovechó como máquina de exhibición, formando la primera calculadora automática de sobremesa conocida... que ha seguido funcionando correctamente hasta hoy con una precisión de hasta 21 cifras. Tras este fracaso cobró nuevas fuerzas haciendo gala al dicho «lo que no mata hace más fuerte» y emprendió hasta su muerte (claro) el desarrollo de los planos y bocetos del ingenio al que le debe su fama de pionero en la informática: la máquina analítica, primera computadora universal y programable.... ¡ y mecánica ! Correctamente pretendía que las operaciones aritméticas se realizasen en un procesador similar a su máquina anterior, aunque mucho más complejo; provinientes de un almacén de tarjetas perforadas como el usado por Jacquard en su telar automático; imprimiendo los resultados en tarjetas vacías que irían a almacenarse de forma ordenada de manera que fuese posible su recuperación en un momento posterior. Unas pequeñas campanas avisarían al empleado, para introducir nuevas tarjetas; y otras mayores indicarían los fallos del sistema. El invento de la sirena para la hora del almuerzo creemos que es posterior. Para hacernos una idea de la potencia de tal máquina, sólo decir que estaba diseñada para recibir datos de hasta 50 dígitos y dar resultados hasta de 100; en formatos impreso y gráfico además de la tarjeta perforada. La enormidad de este proyecto hizo que enseguida las ideas del genial inventor se viesen limitadas por la escasez de medios en la época: una máquina de estas características no podía ponerse en funcionamiento de forma práctica sin ayuda de la electricidad, y sobre todo de la electrónica, aún no descubierta. En espera de estos avances, nuestro amigo optó por desarrollar mecanismos capaces de realizar automáticamente multiplicación y división, sin tener que remitir éstas a las operaciones básicas: era la segunda máquina de las diferencias, de diseño mucho más evolucionado y económico, capaz de tabular hasta la séptima potencia con una precisión de 31 dígitos. La máquina es accionada mediante una manivela solidaria empleando engranajes con una rueda vertical de 14 pares de levas, encargadas de activar y sincronizar cada ciclo de cálculo. Los números producidos mediante el giro de los engranajes se reflejan en 8 columnas verticales de 31 ruedas cada una, con 10 dígitos por rueda. La adición de diferencias se realiza mediante un sistema de cremalleras y palancas que, accionadas por las levas, bajan o alzan los ejes verticales, haciéndoles girar hasta su posición final. El ciclo de trabajo se divide en dos partes para reducir el tiempo de cálculo, como en la técnica de bombeo o pipelining de los ordenadores electrónicos actuales: primero se suman los valores de las columnas impares a las pares; y seguidamente los registrados en las pares a las impares; de forma que a cada vuelta de manivela se produzca un nuevo valor y deje a la máquina lista para generar el siguiente. Un artilugio así es el que ha sido construido con motivo del bicentenario del nacimento de Babbage por el museo de la Ciencia de Londres, en donde puede contemplarse si alguna vez tenemos ocasión de pasar por allí (visita obligada para los informáticos, como para un paleontólogo el Museo de Historia Natural). Su realización deja bien patente lo correcto de las ideas del matemático en lo tocante al empleo de elementos mecánicos para realizar operaciones complejas: el primer cálculo produjo las primeras potencias de 7 correctamente. Solo tiene un pero: su precio, de unos 50 millones de pesetas, hace que sea eso, una pieza de museo. José María Cuenca de la Cruz (cuenca@gui.uva.es) Claude Shannon Elwood (1916- ) Ingeniero Electrotécnico y Matemático, nacido el 30 de abril de 1916 en Gaylord, Michigan (Estados Unidos), considerado como el padre de la era de las comunicaciones electrónicas. Realizó sus estudios superiores en la Universidad de Michigan. En el Instituto Tecnológico de Massachusetts (MIT) obtuvo su doctorado en el año de 1940. Mientras trabajaba para los Laboratorios Bell formuló una teoría que explicaba la comunicación de la información, conocida como La Teoría de la Información. La teoría matemática de la comunicación era el clímax del matemático Shannon y de sus investigaciones en la ingeniería. El concepto de la entropía es una característica importante de la teoría de Shannon, esto es que en el envío de información existe un cierto grado de incertidumbre de que el mensaje llegue completo. Shannon demostró en 1938, cómo las operaciones booleanas elementales, se podían representar mediante circuitos commutadores eléctricos, y cómo la combinación de circuitos podía representar operaciones aritméticas y lógicas complejas. Además demostró como el álgebra de Boole se podía utilizar para simplificar circuitos conmutadores. El enlace entre lógica y electrónica estaba establecido. Colossus Durante la Segunda Guerra Mundial, el matemático Maxwell Herman Alexander Newman, profesor de Alan Turing, propuso una máquina para acelerar la decodificación del código Enigma de los alemanes. Al ver las dificultades mecánicas de la máquina, Thomas H. Flowers, ingeniero de la Post Office Research Station (PORS), tuvo la osada idea de proponer que los datos de las cintas se almacenaran internamente, de manera electrónica. La máquina, que sería llamada después Colossus, fue diseñada por Thomas H. Flowers, S. W. Broadbent y W. Chandler de forma ultrasecreta. Ni siquiera ellos mismos pudieron ver nunca todas las partes de la máquina y nunca se hicieron reproducciones de los diseños originales, los cuales se tomaron directamente de las notas elaboradas por sus creadores. Nunca hubo manuales, ni registros o preguntas sobre sus piezas o la cantidad de labor consumida. Su ensamblaje y el montaje de sus conexiones internas se efectuó por etapas, usando personal distinto, para que nadie supiera los detalles de toda la máquina. Más tarde, el propio Turing fue reclutado en Bletchley Park para participar en el diseño de Colossus. La primera Colossus se puso en funcionamiento en diciembre de 1943. Para alivio de Flowers, la máquina resolvió adecuadamente su primer problema en sólo 10 minutos, repitiendo además el resultado de manera consistente en, al menos, dos ocasiones consecutivas. Algunas de las características más importantes de Colossus eran las siguientes: Empleaba el sistema binario. LLegó a tener 2,400 tubos de vidrio al vacío. Sus datos de entrada los leía de una cinta de papel perforada usando una lectora fotoeléctrica. Usaba circuitos de dos estados y sus operaciones eran controladas mediante los pulsos de su reloj interno, lo que hacía posible operarla a cualquier velocidad, lo cual era muy útil para probarla. Sus circuitos permitían efectuar conteos, aplicar operaciones Booleanas y efectuar operaciones aritméticas en binario. Sus funciones lógicas podían manejarse de manera preestablecida usando un tablero de interruptores, o podían seleccionarse de manera condicional (había una especie de menú con las configuraciones posibles) usando relevadores telefónicos. Era totalmente automática. Tenía una memoria de cinco caracteres de cinco bits cada uno, los cuales se almacenaban en un registro especial. Su velocidad de operación era de 5,000 Hertz (ciclos por segundo), esto contrasta notablemente con la velocidad de las computadoras modernas, que es del orden de millones de Hertz. Medía 2.25 metros de alto, 3 metros de largo y 1.20 metros de ancho. Sus resultados se almacenaban temporalmente en relevadores para luego darles salida a través de una máquina de escribir eléctrica que funcionaba a una velocidad de 15 caracteres por segundo. Permitía saltos condicionales. No contaba con programas almacenados internamente y era, obviamente, una máquina diseñada explícitamente para tareas criptográficas. Se estima que hacia el final de la guerra había al menos 10 máquinas Colossus en operación (todas ellas distintas) y varias más estaban produciéndose. También parece ser que se construyó toda una serie de pequeñas máquinas y acoplamientos especializados en Bletchley Park en esta época. Aparentemente se destruyeron ocho de las 10 máquinas Colossus de Bletchley Park en 1946, por orden directa de Winston Churchill. Una más sobrevivió hasta los 1950, y la última fue desmantelada en 1960 cuando todos los diagramas de sus circuitos y sus planos fueron quemados. Se sabe que varios científicos norteamericanos vieron funcionar a Colossus en visitas secretas a Bletchley Park después de la guerra, pero el gobierno británico vetó toda la información sobre la máquina durante 30 años. Las razones no fueron sólo militares, sino también políticas, pues se sabe que hubo al menos un bombardeo alemán a una ciudad inglesa que pudo haberse evitado gracias a Colossus, pero que se dejó proceder (a costa de un sinnúmero de muertes) para proteger uno de los secretos mejor guardados durante la Segunda Guerra Mundial. Charles Mahon, Conde de Stanhope (1753-1816) La piedra fundamental para las Máquinas de Charles Babbage fue el desarrollo en 1777 de una máquina aritmética de calcular por un excéntrico político llamado Charles Mahon, Tercer Conde de Stanhope. El abuelo de Mahon fue un comandante en la Guerra de la Sucesión Española y Primer Ministro del Rey Jorge I (el mismo que no invitó a Gottfried Leibniz a Inglaterra cuando accedió al trono) y su madre era la hija del Gobernador Pitt. El padre de Mahon tenía una vida más devota para la ciencia y se hizo un prominente intelectual en vez de ser un miembro político y social. Nacido en Londres el 3 de Agosto de 1753 Charles Mahon fue el único niño sobreviviente de los que tuvieron sus padres. A los nueve años fue enviado a Eton School, donde mostró gran interés por la mecánica y las matemáticas. A los 19 años fue enviado a Ginebra, Suiza, y puesto bajo el tutelaje del célebre jurista y escritor francés Alain Rene Le Sage. Se aplicó a la geometría, la mecánica y la filosofía, y Mahon pronto ganó el premio de la Academia Sueca por el mejor ensayo escrito en la construcción del péndulo. A esta edad fue elegido miembro de la Royal Society. Casado a los 24 años con su prima segunda, la Señora Hester Pitt, Mahon ese mismo año inventó dos máquinas aritméticas de calcular. La primera tenía platos y pequeños índices movibles con un alfiler de acero, ejecutando con precisión cálculos complicados de adición y sustracción. El segundo de los problemas resueltos fue la multiplicación y la división sin la posibilidad de error por la revolución de un torno pequeño. Tenía el tamaño de la mitad de un escritorio común y lo que aparece como muy singular y sorprendente a cada espectador de esta máquina es que mientras trabajaba en la división, si el operador estaba desatento a su trabajo y giraba el manubrio una revolución más de la que debía, era instantáneamente amonestado por el error al saltar una bola de marfil pequeña. De gran importancia ha sido el uso por Mahon de ruedas de engranaje y un dispositivo para arrastrar 10 posiciones. La máquina contiene una serie de ruedas dentadas, relacionadas por medio de dientes. El primer diente alcanza completamente la cara de la rueda, y representa al nueve y el siguiente es un noveno más corto; el próximo es un octavo más corto y así sucesivamente hacia abajo. Para añadir nueve, la rueda dentada se mueve hasta que engancha la posición nueve; y para agregar ocho se mueve hasta enganchar la ocho.Tres años después que inventara su máquina de aritmética, llegó a ser miembro de la Cámara de los Comunes (en 1780) y en 1786, miembro de la Cámara de los Lores. Fue presidente de la Revolution Society, la cual simpatizaba con la Revolución Francesa, y en 1795 introdujo en la Cámara de los Lores una moción denunciando cualquier interferencia con los asuntos internos de Francia, un punto en el cual él estaba en minoría. Envió a París una felicitación por la toma de la Bastilla. En 1791 y 1792 tomó con frecuencia la palabra para oponerse a la guerra con Francia y en 1794 propuso a la Cámara que reconociera a la República Francesa., lo que dio motivo a que los periódicos humorísticos se ocuparan de él y le llamaran "el ciudadano Stanhope". Llegó a ser altamente impopular en su país, hasta el punto de que el 12 de junio de 1794 el populacho de Londres incendió su casa. Como un conservador, Mahon luchó por la reforma parlamentaria, la abolición de la esclavitud, la libertad de prensa y por la independencia de las cortes de jurados. Además de su máquina de aritmética, Mahon desarrolló la que es considerada la primera máquina lógica del mundo: el Demostrador de Stanhope . No solamente el dispositivo podía ser usado para resolver silogismos tradicionales por un método aproximado al de los círculos de Venn, sino que podía manejar silogismos numéricos y también problemas elementales de probabilidad. Inventor también en otras áreas, Mahon ideó un esquema para evitar el fuego en edificios, un material especial para tejado de casas, un horno para lima ardiente, un vapor y un doble plano inclinado para la operación de exclusas en un canal. Creó un plan para prevenir falsificaciones en moneda y billetes de banco, desarrolló un instrumento monocorde, unas lentes microscópicas y un sistema de prensas a brazo para estereotipos de imprenta que lleva su nombre. El Conde de Stanhope murió el 15 de diciembre de 1816, profundamente lamentado por todos, especialmente por la clase más humilde de ciudadanos para quién él había trabajado arduamente. EDSAC (Electronic Delay Storage Automatic Calculator) Desarrollado por Maurice Wilkes y sus colegas de Cambridge (Inglaterra), fue completamente operativo por primera vez en Junio de 1949. El primer ordenador electrónico en cuanto al uso, por primera vez en el cálculo, de la tecnología electrónica de los tubos de vacío y, también, a la estructura funcional de un sistema de cálculo versátil con un programa almacenado en memoria en lo que conocemos como arquitectura Von Neumann y que define lo que hoy consideramos un ordenador. Anteriormente, los aparatos utilizados para el cálculo científico- militar usaban la tecnología electromecánica de los relés y se programaban, casi siempre externamente; por ejemplo, con sistemas de cableado. El EDSAC realizaba 714 operaciones por segundo. Edsger Dijkstra (1930- ) Edsger Wybe Dijkstra nació en Rotterdam, (Holanda) en 1930. Sus padres eran ambos intelectuales y él recibió una excelente educación. Su padre era químico y su madre matemática. mother was a mathematician.En 1942, cuando Dijkstra tenía 12 años, entró en Gymnasium Erasminium, una escuela para estudiantes especialmente brillantes, donde dio clases, fundamentalmente, de Griego, Latín, Francés, Alemán, Inglés, biología, matemáticas y química.En 1945, Dijkstra pensó estudiar Derecho y trabajar como representante de Holanda en las Naciones Unidas. Sin embargo, debido a su facilidad para la química, las matemáticas y la física, entró en la Universidad de Leiden, donde decidió estudiar física teórica. Durante el verano de 1951, asistió a un curso de verano sobre programación en la Universidad de Cambridge. A su vuelta empezó a trabajar en el Centro Matemático en Amsterdam, en marzo de 1952, donde se incrementó su creciente interés en la programación. Cuando terminó la carrera se dedicó a problemas relacionados con la programación. Pero uno de los problemas con que se encontró es que ser programador no estaba oficialmente reconocido como una profesión. De hecho, cuando solicitó una licencia de matrimonio en 1957, tuvo que señalar que su profesión era físico teórico. Dijkstra continuó trabajando en el Crentro Matemático hasta que aceptó un trabajo como desarrollador en Burroughs Corporation, en los Estados Unidos, a principio de la década de los 70. En 1972 ganó el Premio Turing ACM, y ,en 1974, el AFIPS Harry Good Memorial. Dijkstra se trasladó a Austin, Texas a principio de los 80. En 1984, se le ofreció un puesto en Ciencias de la Computación en la Universidad de Texas, donde ha permanecido desde entonces. Es miembro honorario de la Academia Americana de Artes y Ciencias y de Real Academia Holandesa de Artes y Ciencias. Además es miembro distinguido de la Sociedad de Computación Británica. Finalmente es Doctor Honoris Causa en Ciencias por la Queen's University Belfast. En 1956, Dijkstra anunció su algoritmo de caminos mínimos, después de haber estado trabajando con el ARMAC, el ordenador que el Centro Matemático poseía. Más tarde propuso el algoritmo del árbol generador minimal. A principios de la década de los 60, Dijkstra aplicó la idea de la exclusión mutua a las comunicaciones entre una computadora y su teclado.Su solución de exclusión mutua ha sido usada por muchos procesadores modernos y tarjetas de memoria desde 1964, cuando IBM la utilizó por primera vez en la arquitectura del IBM 360. El siguiente problema del que se ocupó Dijkstra fue el de los filósofos comensales. En este problema, cinco filósofos están sentados en una mesa circular con un plato de arroz delante y un palillo a cada lado, de manera que hay cinco palillos en total. El problema trata sobre el uso de recursos comunes sin que los procesos (los filósofos) lleguen a una situación de bloqueo mutuo, inanición y que los recursos sean usados de la manera más eficiente por todos los procesos. También ayudó a fomentar la disciplina en la programación: "GOTO se puede considerar dañino. Cuanto más sentencias GOTO haya en un programa, más difícil es entender el código fuente". También hay que señalar las duras opiniones que ha expresado Dijkstra sobre algunos lenguajes de programación. EDVAC (Electronic Discrete Variable Automatic Computer) La computadora EDVAC, construida en la Universidad de Manchester, en Connecticut (EE.UU.), en 1949 fue el primer equipo con capacidad de almacenamiento de memoria e hizo desechar a los otros equipos que tenían que ser intercambiados o reconfigurados cada vez que se usaban. Esta computadora fue también construída por John Mauchly y J. Prespert Eckert, quienes empezaron a trabajar en ella 2 años antes que la ENIAC empezara a operar. La idea era tener el programa almacenado en la computadora y esto fue posible gracias a que la EDVAC tenía una mayor capacidad de almacenamiento de memoria. La memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, de tal modo que un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los ceros (0) y unos (1). Esto era indispensable ya que en lugar de usar decimales la EDVAC empleaba números binarios. En realidad EDVAC fue la primera verdadera computadora electrónica digital de la historia, tal como se le concibe en estos tiempos y a partir de ella se empezaron a fabricar arquitecturas más completas. ENIAC (Electronic Numerical Integrator and Computer) John P. Eckert y John W. Mauchly construyeron en 1946, en la Universidad de Pennsylvania, el ENIAC, primer computador electrónico, compuesto de 17.468 válvulas o tubos de vidrio al vacío (más resistencias, condensadores, etc.), con 32 toneladas de peso, 2,40 de ancho y 30 metros de largo. El calor de las válvulas elevaba la temperatura del local hasta los 50º. Para efectuar diferentes operaciones, debían cambiarse las conexiones (cables) como en las viejas centrales telefónicas, lo cua l era un trabajo que podía tomar varios días. Era capaz de calcular con gran velocidad la trayectorias de proyectiles, principal objetivo inicial de su construcción. En 1,5 segundos podía calcular le potencia 5000 de un número de 5 cifras. La ENIAC podía resolver 5,000 sumas y 360 multiplicaciones por segundo, pero su programación era terriblemente tediosa y debía cambiársele de tubos contínuamente. En las últimas fases de su diseño y construcción actuó como consultor John von Neumann. George Boole (1815-1864) Nacido el 2 de Noviembre de 1815 en Lincoln, Lincolnshire (Inglaterra), primero concurrió a una escuela en Lincoln, luego a un colegio comercial. Sus primeras instrucciones en matemática, sin embargo fueron de su padre quién le dio también a George la afición para la construcción de instrumentos ópticos. El interés de George se volvió a los idiomas y recibió instrucción en Latín de una librería local. A la edad de 12 años había llegado a ser tan hábil en Latín que provocaba controversia. Él tradujo del latín una Oda del poeta Horacio de lo cual su padre estaba tan orgulloso que tenía su publicación. No obstante el talento era tal que un maestro de escuela local cuestionaba que nadie con 12 años podría haber escrito con tanta profundidad. Boole no estudió para un grado académico, pero a la edad de 16 años fue un profesor auxiliar de colegio. Mantuvo su interés en idiomas e intentó ingresar a la Iglesia. Desde 1835, sin embargo, pareció haber cambiado de idea ya que abrió su propio colegio y empezó a estudiar matemáticas por si mismo. Tardó en darse cuenta que había perdido casi cinco años tratando de aprender las materias en vez de tener un profesor experto. En ese periodo Boole estudió los trabajos de Laplace y Lagrange, tomando apuntes, los cuales llegaron a ser más tarde las bases para sus primeros papeles matemáticos. Comenzó a estudiar álgebra y Aplicación de métodos algebraicos para la solución de ecuaciones diferenciales fue publicada por Boole en el Transaction of the Royal Society y por este trabajo recibió la medalla de la Real Sociedad. Su trabajo matemático fue el comienzo que le trajo fama. Boole fue nominado para una cátedra de matemáticas en el Queens College, en 1849, donde enseñó por el resto de su vida, ganándose una reputación como un prominente y dedicado profesor. En el 1854 publicó Las leyes del pensamiento sobre las cuales son basadas las teorías matemáticas de Lógica y Probabilidad. Boole aproximó la lógica en una nueva dirección reduciéndola a una álgebra simple, incorporando lógica en las matemáticas. Agudizó la analogía entre los símbolos algebraicos y aquellos que representan formas lógicas. Su álgebra consiste en un método para resolver problemas de lógica que recurre solamente a los valores binarios 1 y 0 y a tres operadores: AND (y), OR (o) y NOT (no). Comenzaba el álgebra de la lógica llamada Algebra Booleana la cual ahora encuentra aplicación en la construcción de computadores, circuitos eléctricos, etc. Boole también trabajó en ecuaciones diferenciales, el influyente Tratado en Ecuaciones Diferenciales apareció en 1859, el cálculo de las diferencias finitas, Tratado sobre el Cálculo de las Diferencias Finitas (1860), y métodos generales en probabilidad. Publicó alrededor de 50 escritos y fue uno de los primeros en investigar las propiedades básicas de los números, tales como la propiedad distributiva. Muchos honores le fueron concedidos a Boole, fue reconocido como el genio en su trabajo recibió grandes honores de las universidades de Dublin y Oxford y fue elegido miembro académico de la Real Sociedad (1857). Sin embargo, su carrera que comenzó un tanto tarde terminó infortunadamente temprano cuando murió a la edad de 49 años, el 8 de Diciembre de 1864 en Ballintemple, County Cork (Irlanda). Las circunstancias son descritas por Macfarlane de la siguiente forma: "Un día en el 1864 camino desde su casa al colegio, una distancia de dos millas, con una lluvia torrencial y luego dio una conferencia con la ropa empapada. El resultado fue un resfrío febril el cuál pronto dañó sus pulmones y terminó su carrera....." Lo que a Macfarlane le faltó decir es que la esposa de Boole (Mary nieta de Sir George Everest, de quién después fue nombrada la montaña) creía que el remedio podría ser la causa. Ella puso a Boole en cama y arrojó cubos de agua sobre la cama, ya que su enfermedad había sido causada por mojarse. El trabajo de Boole llegó a ser un paso fundamental en la revolución de los computadores, cuando Claude Shannon en 1938, demostró como las operaciones booleanas elementales, se podían representar mediante circuitos conmutadores eléctricos, y como la combinación de estos podía representar operaciones aritméticas y lógicas complejas. Shannon demostró asímismo que el álgebra de Boole se podía utilizar para simplificar circuitos commutadores. Gottfried Wilhelm von Leibnitz (1646-1716) También llamado Leibniz, nació el 1 de Julio 1646 en Leipzig, Saxony (Alemania). Hijo de un profesor de filosofía moral en Leipzig. Aprendió él mismo Latín y algo de Griego a la edad de 12 años, para así poder leer los libros de su padre. Desde 1661 al 1666 estudió leyes en la Universidad de Leipzig. En 1666 le fue rechazado el ingreso para continuar con un curso de doctorado, y fue a la Universidad de Altdorf, recibiendo su doctorado en leyes en el 1667. Continuó su carrera de leyes trabajando en la corte de Mainz hasta 1672. En ese año visitó París para tratar de disuadir a Luis XIV del ataque al territorio alemán. Permaneció en París hasta 1676, donde continuó practicando leyes. Sin embargo en París estudió matemáticas y física. Fue durante este periodo que las características fundamentales del cálculo fueron desarrolladas. Fue un verdadero precursor de la lógica matemática. Persiguiendo una idea que le acosa desde la juventud es pos de un alfabeto de los pensamientos humanos y de un idioma universal se propone el proyecto de construir una característica universal, especie de lenguaje simbólico capaz de expresar, sin ambigüedad, todos los pensamientos humanos, de manera que al surgir una controversia entre dos filósofos, éstos la zanjasen a la manera de los calculistas; bastaría en efecto, sentarse ante los ábacos, pluma en mano, y como buenos amigos decirse, en mutuo acuerdo: calculemos. Las ideas de Leibnitz, que contiene muchos conceptos de la lógica simbólica de hoy, no tuvieron entonces mayor influencia, pues quedaron inéditas hasta este siglo. Igual destino tuvieron ideas semejantes esbozadas durante el siglo XVIII y comienzos del XIX. Agreguemos que las ideas de Kant, de gran influencia en su tiempo y para quien no era necesaria ninguna nueva invención en la lógica, han contribuido sin duda al estancamiento de esta disciplina. Las cosas cambiaron cuando llegó Boole, el cual se convirtió en el verdadero fundador de la lógica simbólica. Leibnitz fue el primero que propuso el uso de un sistema binario para realizar los cálculos. En 1671 desarrolló una máquina multiplicadora, parecida a la de Blaise Pascal, que, en teoría podía realizar incluso las cuatro operaciones aritméticas, y de hecho construyó dos de estas máquinas. Sin embargo, la tecnología disponible le imposibilitaba la realización de las operaciones con exactitud, y por eso nunca llegaron a ser más que diseños teóricos. El resto de su vida desde 1676 hasta su muerte el 14 de noviembre de 1716, permaneció en Hanover. Grace Murray Hooper (1906-1992) Nacida en 1906, se graduó de Vassar College con grados en matemáticas y física. Conocida como Amazing Grace. Completó su maestría y doctorado en matemáticas en Yale. Mientras estudiaba se casó con Vincent Hopper y se divorciaron en 1945. Durante la segunda guerra mundial se unió a la U.S. Navy, la Marina de Guerra de los Estados Unidos, donde trabajó en el Bureau of Ordenance Computation. Fue enviada al laboratorio de Howard Aiken en la universidad de Harvard, donde trabajó como programadora con la Mark I. Ella creó el lenguaje Flowmatic, con el cual desarrolló muchas aplicaciones y en 1951 produjo el primer compilador, denominado A-0 (Math Matic). En 1960 presentó su primera versión del lenguaje COBOL (Common Business-Oriented Language) para UNIVAC. El término bug (anglicismo que significa error o fallo en un programa o sistema) se hizo popular después de que la programadora Grace Murray Hopper encontrara un bicho (bug) alojado en los circuitos del Mark I, provocando que la máquina funcionase mal. Hopper escribió en su cuaderno de trabajo :"Relé #70 Panel F bug en Relé". Se le dio el premio Hombre del Año en las Ciencias de Cómputos por la Data Processing Management Association. Fue la primera mujer nombrada Distinguished fellow of the British Computer Society, y la primera mujer almirante en el U.S. Navy. Falleció en 1992. Harvard Mark I Howard Aiken, director del Proyecto Mark I de la Universidad de Harvard, remarcó: "Si Babbage hubiera vivido 75 años más tarde, yo estaría fuera de mi empleo". La histórica Mark I, terminada en 1944, fue conceptualmente muy semejante a la Máquina Analítica de Babbage. El proyecto inició en 1939 y la máquina se construyó en el North Street Laboratory de IBM, en Endicott, Nueva York La tarea tomó varios años, pues primero se tuvieron que analizar los aspectos prácticos de la idea de Aiken, a la luz de la experiencia de los ingenieros de IBM en la construcción de equipo de cálculo. La máquina se terminó en enero de 1943, y se le trasladó posteriormente a Harvard, donde se demostró públicamente por primera vez en mayo de 1944. Oficialmente, se le bautizó como Harvard-IBM Automatic Sequence Controlled Calculator (ASCC), pero se le conoció después como la Harvard Mark I, debido a la serie de máquinas con ese nombre que Aiken construyera después. La Mark I era una máquina impresionante, pues medía unos 15.5 metros de largo, unos 2.40 metros de alto y unos 60 centímetros de ancho , pesando unas cinco toneladas. Además de sus gigantescas dimensiones, la máquina llamaba la atención porque IBM la construyó a propósito con gabinetes elegantes que tenían, en su mayoría, costosas cubiertas de cristal muy llamativas. Su funcionamiento era electromecánico y su interior estaba compuesto de unas 750,000 piezas diferentes, entre relevadores, interruptores binarios, ruedas rotatorias para los registros, interruptores de diez posiciones (para los dígitos), etc. Habían más de 1,400 interruptores rotatorios de diez posiciones en el frente de la máquina, pues éstos se usaban para establecer los valores que sus 60 registros constantes (colocados en un panel frontal) contendrían. Además de estos registros constantes, la Mark I contenía 72 registros mecánicos, cada uno de los cuales podía almacenar 23 dígitos decimales más un dígito para el signo (cero para el más y nueve para el menos). La posición del punto decimal estaba fija durante la solución de un problema, pero podía ajustarse previamente de manera que estuviera entre dos dígitos cualquiera.La máquina contaba también con mecanismos que permitían efectuar cálculos de doble precisión (46 decimales), mediante la unión de dos registros, en una forma análoga a la Máquina Analítica de Babbage. La Mark I recibía sus secuencias de instrucciones (programas) y sus datos a través de lectoras de cinta de papel perforada y los números se transferían de un registro a otro por medio de señales eléctricas. Tal vez por eso no deba sorprendernos que a pesar de medir sólo 15 metros de largo, el cableado interno de la Mark I tenía una longitud de más de 800 kilómetros, con más de tres millones de conexiones. Los resultados producidos se imprimían usando máquinas de escribir eléctricas o perforadoras de tarjetas, en la más pura tradición de IBM. A pesar de su tamaño, la Mark I no era extremadamente ruidosa y se dice que cuando estaba en operación, el sonido que producía era similar al que haría un cuarto lleno de mecanógrafos trabajando de forma sincronizada. La Mark I tardaba aproximadamente 0.3 segundos en transferir un número de un registro a otro y en realizar cada una de sus otras operaciones básicas: sumar, restar, poner a cero un registro, etc. Para efectuar multiplicaciones, divisiones, y calcular valores específicos de algunas funciones, la máquina usaba unidades aritméticas especiales, aunque éstan solían evitarse al máximo posible debido a su lentitud. Por ejemplo, calcular el seno de un ángulo tardaba un minuto y calcular el logaritmo de un número requería 68.4 segundos. La multiplicación y la división eran más rápidas, dada la naturaleza mecánica de la máquina. La primera tardaba cuando mucho seis segundos y la segunda 16 (aunque normalmente tomaba sólo 10 segundos). La Mark I originalmente tenía poca capacidad para modificar su secuencia de instrucciones en base a los resultados producidos durante el proceso de cálculo. La máquina podía escoger de entre diferentes algoritmos para efectuar un cierto cálculo, basándose en el valor que tuviera un argumento; sin embargo, para cambiar de una secuencia de instrucciones a otra, se tenía que detener la máquina y hacer que los operadores cambiaran la cinta de control. Curiosamente, la Mark I sí permitía verificar si el contenido de un registro era mayor que un cierto valor (una diferencia notable con la Z1 de Zuse), pero dado que no podía realmente interrumpir el cálculo que estaba haciendo para saltar a otro lado de manera automática, suele considerarse que la Mark I no tenía realmente saltos condicionales. Esta característica, sin embargo, se le agregó posteriormente, a través del llamado Mecanismo Subsidiario de Secuencia, que consistía de tres páneles de tableros de conexiones que se acompañaban de tres lectoras de cinta de papel. Con estos aditamentos, la Mark I podía transferir el control entre cualquiera de las lectoras, dependiendo del contenido de los registros. El Mecanismo Subsidiario de Secuencia permitía definir (mediante conexiones de sus tableros) hasta 10 subrutinas, cada una de las cuales podía tener un máximo de 22 instrucciones. La Mark I fue puesta en operación desde abril de 1944, usándose para resolver problemas de balística y diseño naval durante el final de la Segunda Guerra Mundial. Fue durante este tiempo que Aiken contó con la colaboración de otro personaje legendario en la historia de la computación: la por aquel entonces teniente, Grace Murray Hopper. Después de la guerra, la Mark I fue utilizada principalmente para calcular tablas de las funciones de Bessel (usadas para resolver cierto tipo de ecuación diferencial). Debido a esto, se cuenta que sus programadores solían llamar afectuosamente Bessie a la máquina. Sin embargo, la Mark I era una máquina muy lenta en comparación con las computadoras electrónicas existentes, como la ENIAC. No obstante se tuvo en uso hasta 1959, año en que se desmanteló, manteniendo algunas de sus partes en exhibición en Harvard y otras en el Smithsonian Institute en Washington, D. C. La Mark I marcó el inicio del involucramiento de IBM en el diseño de computadoras de propósito general. Herman Hollerith (1860-1929) Nacido en Buffalo, New York, el 29 de Febrero de 1860 era hijo de unos inmigrantes alemanes. Realizó estudios en el City College de New York a la edad de 15 años y se graduó de Ingeniero de Minas con altas distinciones en la Columbia School of Mines, a la edad de 19 años. Su primer empleo lo obtuvo en la Oficina de Censos en 1880. Posteriormente enseñó ingeniería mecánica en el Instituto Tecnológico de Massachusetts (MIT) y luego trabajó para la Oficina de Patentes del gobierno norteamericano. Hollerith empezó a trabajar con el sistema de máquinas tabuladoras durante sus dias en el MIT, logrando su primera patente en 1884. Desarrolló una prensa manual que detectaba los orificios en las tarjetas perforadas. Tenía un alambre que pasaba a través de los huecos dentro de una copa de mercurio debajo de la tarjeta, cerrando de este modo el circuito eléctrico. Este proceso disparaba unos contadores mecánicos y ordenaba los recipientes de las tarjetas, tabulando así en forma apropiada la información. La máquina de Hollerith era eléctrica y procesaba los hoyos en las tarjetas basándose en la lógica de Boole. En 1880 se celebró un censo de población nacional en los Estados Unidos y tuvieron que transcurrir 7 largos años antes de que toda la información quedase procesada por el Buró de Censos, debido a que los datos levantados eran tabulados en papel. Por consiguiente se estimó que el próximo censo a celebrarse en 1890 tardaría unos 10 o 12 años en procesarse para obtener los resultados finales. Es por ello que el gobierno norteamericano convocó a una licitación para un sistema de procesamiento de datos que proporcionase resultados más rápidos. Herman Hollerith, que trabajaba como empleado del buró de Censos, propuso su sistema basado en tarjetas perforadas, y que puesto en práctica constituyó el primer intento exitoso de automatizar el procesamiento de ingentes volúmenes de información. Las máquinas de Hollerith clasificaron, ordenaban y enumeraban las tarjetas perforadas que contenían los datos de las personas censadas, logrando una rápida emisión de reportes, a partir de los 6 meses. Los resultados finales del censo de 1890 se obtuvieron en el tiempo record de 2 años y medio. Herman Hollerith en 1896 fundó la Tabulating Machine Company que luego se fusionó con otras dos empresas: Computing Scale e International Time Recording, dando lugar a CTR (Computing Tabulating Recording) Company. Hollerith se retiró en 1921 y en 1924 CTR cambió su nombre por el de International Business Machines Corporation (IBM), que años más tarde se convertiría en el gigante de la computación. Sin embargo, James Powers fue quien desarrolló el sitema de tarjetas perforadas que se usó en el censo de 1910 Herman Hollerith falleció el 17 de Noviembre de 1929. Howard Aiken (1900 - 1973) Howard Hathaway Aiken nació el 9 de Marzo de 1900 en Hoboken (N.J., EE.UU) y falleció el 14 de Marzo de 1973 en St. Louis (Mo., EE.UU). Durante su escuela superior en Indiana, Aiken asistía a la escuela por el día y trabajaba largas horas por la noche, e hizo trabajos de ingeniería mientras asistía a la Universidad de Wisconsin (Madison), donde obtuvo a los 23 años su licenciatura en filosofía y letras. Después de completar su doctorado en la Universidad de Harvard en 1939, permaneció allí un corto período como profesor antes de comenzar trabajos de guerra para la U.S. Navy Board of Ordnance (Consejo Naval de Artillería de EE.UU.). Con otros tres ingenieros (Clair D. Lake, B.M. Durfee y F.E. Hamilton), Aiken comenzó a trabajar en 1939 en una máquina automática de calcular que pudiese realizar cualquier secuencia seleccionada de 5 operaciones aritméticas (suma, resta, multiplicación, división y referencia a resultados anteriores) sin intervención humana, para lo que recibió una subvención de 500.000 dolares americanos (60 millones de ptas. aprox.) del primer jefe ejecutivo de IBM, Thomas J. Watson. La primera máquina de este tipo, el Mark I, fue terminada por Aiken y sus compañeros en Febrero de 1944, y al principio fue llamada "Automatic Sequence Controlled Calculator" , ASCC (Calculadora Automática de Secuencias Controladas). Desde la fecha de su fabricación ya estaba técnicamente obsoleta debido a la compentencia de la máquina de Atanasoff y Berry (Atanasoff-Berry Computer (ABC)). Continuando su trabajo, Aiken completó un mejorado Mark II, totalmente eléctrico en 1947. Recibió muchos honores de Estados Unidos, Francia, Paises Bajos, Bélgica y Alemania, y también contribuyo con numerosos artículos para periódicos escolares de electrónica, teoría de computadores y procesamiento de datos. El papel de Aiken en la historia de la computación en los Estados Unidos y en el mundo es, sin lugar a dudas, muy importante, pues además de diseñar otras máquinas, la creación del Laboratorio de Computación de la Universidad de Harvard lo llevó a iniciar uno de los primeros programas de maestría y doctorado en una nueva disciplina denominada Ciencia de la Computación. IBM (International Business Machines) En 1896, Herman Hollerith creó la Tabulating Machine Company. El 15 de Junio de 1911, en Nueva York, Charles R. Flint gestionó la fusión de esta compañía con otras dos: Computing Scale e International Time Recording, dando lugar a CTR (Computing Tabulating Recording) Company. En un principio esta empresa, con 1.300 empleados, se dedicó a fabricar y vender todo tipo de maquinaria mecánica, desde balanzas industriales hasta cronómetros, pasando por cortadores de carne y queso. En 1914, cuando la gestión de la empresa se empezó a complicar, Flint acudió a Thomas J. Watson. Watson multiplicó los beneficios y extendió sus dominios por Europa, Suramérica, Asia y Australia. También fue quien promovió en 1924 que CTR pasara a llamarse International Business Machines Corporation (IBM). Durante la Gran Depresión de los años 30, IBM se dedicó a prosperar, especialmente tras conseguir un contrato millonario con el gobierno estadounidense. En este período negro, IBM era uno de los mejores lugares en los que se podía estar: fue la primera empresa en contratar un seguro de vida y en pagar las vacaciones a sus empleados. En la Segunda Guerra Mundial. IBM amasó una fortuna fabricando material bélico. También es cierto que creó un fondo para viudas y huérfanos con el 1% de sus ingresos. En 1944, IBM colabora en la creación de la Harvard Mark I. En 1952 Watson pasa el testigo a su hijo Thomas Watson Jr. y se presenta la IBM 701, computadora que abandonaba la electromecánica a favor de las válvulas de vacío. La 701 no era mucho más pequeña que la Mark I, pero era capaz de ejecutar 17.000 instrucciones por segundo. En 1959, su primer computador que operaba con transistores y que alcanzaba 229.000 cálculos por segundos: el IBM 7090. Esta máquina fue usada, por poner un ejemplo, por la Fuerza Aérea Estadounidense. Bajo la dirección de Watson Jr., y gracias a una arriesgada apuesta tecnológica, IBM pasó de ser una empresa mediana y poco puntera, a una enorme y moderna compañía, protagonista de importantes inventos como el floppy disk. Las cosas cambiarán de nuevo en 1981, cuando IBM estrena un presidente, John R. Opel, y una nueva máquina, la IBM Personal Computer, protagonista absoluta de una nueva estrategia: entrar en los hogares. El corazón de esta pequeña computadora, con 16 Kb de memoria (ampliable a 256), era un procesador Intel, y su sistema operativo procedía de una empresa recién nacida llamada Microsoft. Pero durante la segunda parte de la década de los 80 y los primeros 90, IBM vivió un periodo de recesión. En 1993 IBM tocó fondo al tener unas pérdidas de 8.000 millones anuales. En este momento apareció Louis V. Gerstner Jr., que se vio obligado a efectuar fuertes reducciones de costes y plantilla para estabilizar al viejo gigante tambaleante, decidió mantener la unidad, pese a las múltiples presiones que empujaban a dividirla en varias empresas independientes, en una apuesta por ofrecer soluciones integradas a sus clientes. Huelga decir que su estrategia de convertir IBM en una empresa de servicios que ofreciera productos, tecnología, soluciones y consejos de manera integrada a las empresas funcionó. Tan bien les ha salido que la competencia (como Hewlett Packard HP) está siguiendo su estela. A finales de 1995 IBM adquirió Lotus Development y poco después Tivoli Systems, y un año después el valor de mercado del gigante azul se incrementó en cerca de 50.000 millones de dólares. El tamaño y la velocidad de crecimiento de IBM la ha llevado en numerosas ocasiones ante los tribunales. La primera vez fue en 1936, cuando el Departamento de Justicia estadounidense consiguió que el Tribunal Supremo condenara a IBM y a RemingtonPand por prácticas contra la competencia. Hasta hoy se ha enfrentado a decenas de acusaciones (sólo en los años 70 sobrevivió a 20 juicios). El gigante azul ingresó 87.500 millones de dólares durante el año 1999, con unos beneficios de 7.700 millones. El 60% de sus ventas proceden de fuera de los Estados Unidos. Sede: New Orchard Rd., Armonk, New York 10504 Tlf : 914-499-1900 Fax : 914-765-7382 En la Red: http://www.ibm.com/ Intel Corp. El primer chip apareció en el mercado en 1961 de la mano de Jack Kilby (Texas Instruments). En 1964 algunos ya contenían 32 transistores; en 1965 el chip más complejo del mercado se había desarrollado en Fairchild (cuna de los fundadores de Intel) y contaba con 64 transistores (un Pentium III incluye 28 millones). El 18 de julio de 1968, Robert Noyce, Gordon Moore y Andrew Grove crean la empresa Intel en la que se desarrollan ideas prácticas para la memoria de semiconductores, una industria recién nacida. En un principio, Intel era una modesta empresa formada por 12 científicos en un pequeño local alquilado en Mountain View, que creían en las posibilidades de la memoria de silicio y apostaron valientemente por ella. En aquel momento nadie se atrevía a separarse de la reinante memoria magnética que, aunque ocupaba más espacio, consumía más energía y tenía menos prestaciones, era 100 veces más barata. El éxito comenzó modestamente cuando consiguieron que los japoneses Busicom les encargasen una remesa de microprocesadores para sus calculadoras programables. Pese a las indicaciones de los japoneses, el ingeniero Ted Hoff diseñó un chip revolucionario que podía ser utilizado en muchos otros dispositivos sin necesidad de ser rediseñado. Los chicos de Intel enseguida se dieron cuenta del potencial de este producto, capaz de dotar de ? inteligencia? a muchas máquinas ? tontas? . El único problema es que Busicom poseía los derechos, y para recuperarlos Intel tuvo que pagarles 60.000 dólares. En 1971 nació el primer microprocesador (en aquella época aún no se les conocía por ese nombre). El potentísimo 4004 estaba compuesto por 4 de estos chips y otros 2 chips de memoria. Este conjunto de 2.300 transistores que ejecutaba 60.000 operaciones por segundo se puso a la venta por 200 dólares. Muy pronto Intel comercializó el 8008, capaz de procesar el doble de datos que su antecesor y que inundó los aparatos de aeropuertos, restaurantes, salones recreativos, hospitales, gasolineras... Pero Intel no siempre tuvo la visión de futuro acertada. Moore recuerda como a mediados de los 70 le propusieron comercializar el 8080 equipado con un teclado y un monitor orientado al mercado doméstico. Es decir, le estaban proponiendo ser los pioneros en el mundo de las computadoras personales. Pero no vieron la utilidad de esos cacharros y descartaron la idea. En 1981 Intel desarrolló los procesadores de 16 bits 8086 y los de 8 bits 8088 que acumularon la friolera de 2.500 premios de diseño en un solo año. Con ellos IBM acudió por primera vez a un fabricante externo y confeccionó el primer PC. En 1982 apareció el revolucionario 286, equipado con 134.000 transistores y el primero en ofrecer compatibilidad de software con sus predecesores. En 1985 llegó el 386, un micro de 32 bits y 275.000 transistores que fue rápidamente adoptado por Compaq para su computadora personal Compaq Deskpro 386. Cuatro años después llegaría el robusto Intel 486 de 1,2 millones de transistores. En 1993 Intel comienza a desarrollar la línea Pentium, plena de nuevos estándares y de transistores, y con 5 veces más capacidad que el 486. Después llegará el Pentium Pro y en 1997 incluye en sus procesadores la tecnología MMX. En mayo de 1997 aparece el Pentium II, un año más tarde el Pentium II Xeon, tras el que llegaría el Pentium III. Gordon E. Moore ha sido cofundador, vicepresidente y CEO de Intel. Desde 1997 es consejero emérito. Moore, de 71 años y doctorado en Química y en Física, es conocido en todo el mundo por haber afirmado en 1965 que la capacidad de los microprocesadores se doblaría cada año y medio. Es la espectacular y discutida Ley de Moore. Andrew S. Grove, químico nacido en Hungría en 1936, participó en la fundación de Intel. En 1979 fue nombrado presidente y en 1987 CEO, cargo que ocupó hasta mayo de 1997. Actualmente ocupa el cargo de consejero. Es famoso por su lema "Sólo los paranoicos sobreviven". Craig R. Barrett, de 61 años, se unió a la compañía en 1974, en 1984 fue nombrado vicepresidente, en 1992 fue elegido para formar parte del consejo de dirección y en 1993 paso a ser jefe de operaciones. Actualmente, y desde que sucedió a Grove, es el CEO de Intel. Su eslogan Intel Inside es una realidad, casi todas las computadoras personales tienen como cerebro un Pentium o un Celeron, el 80% del mercado de los microprocesadores. Los dos principales clientes de Intel son los fabricantes de computadoras Compaq y Dell. Sólo estas dos compañías suman el 13% de las ventas de la Intel. El 55% de las ventas proceden de fuera de los Estados Unidos. En su último ejercicio correspondiente a 1999, Intel tuvo unas ventas por valor de 29.389 millones de dólares, lo que supuso un crecimiento del 11,9% respecto al año anterior, y unos ingresos netos de 7.314 millones de dólares, un 20,5% más que en 1998. Intel cuenta con más de 70.000 trabajadores distribuidos por 40 países alrededor del mundo. Su tasa de contratación crece cerca de un 9% al año. Sus dos principales rivales, en cuanto a microprocesadores se refiere son AMD y Cyrix. Sede 2200 Mission College Blvd. Santa Clara, CA 95052-8119 Tlf: 408-765-8080 Fax: 408-765-6284 En la Red http://www.intel.com/ Inteligencia Artificial La Inteligencia Artificial es nieta de la ciencia y tecnología de la computación e hija de la vida artificial. Se encarga del estudio de la tecnología y la ciencia del diseño de máquinas que realizan tareas que normalmente se asocian con la inteligencia humana o de los animales con sistemas nerviosos con algo de inteligencia. Se la puede definir como una ciencia de lo artificial y como un conjunto de tecnologías computacionales que se interesan en cómo se manifiesta la adaptación al ambiente, la representación y el razonamiento , en diversas especies vivientes (el humano, los invertebrados, etc.) y lo aplican o lo imitan (hacen una mímica) de su adaptación, su representación y su razonamiento (segun la especie) en máquinas artificiales universales de Turing. Las técnicas de la IA incluyen, entre muchísimas, brazos robotizados con varios grados de libertad, demostración de teoremas y sistemas expertos que diagnostican enfermedades y prescriben remedios, así como la simulación de la inteligencia natural a través de dos vertientes: la computación conexionista (redes neurales) y la computación simbólica (aplicación de las reglas lógicas). J. Presper Eckert, Jr. (1919-1995) Nació el 9 de abril de 1919 en Philadelphia (EE.UU.) y fue el único hijo de una prospera familia. Desde muy pequeño evidenció poseer aptitudes excepcionales para las matemáticas y mentalidad de inventor. En 1937, luego de graduarse del colegio privado William Penn Charter School, Eckert ingresó en la Universidad de Pennsylvania, donde se graduó de ingeniero eléctrico en 1941. Después de graduado, Eckert continuó trabajando en la Universidad y realizando estudios de postgraduado. Aún antes de obtener su título de ingeniero, Eckert ya había diseñado y construido un dispositivo para medir la concentración de vapor de naftaleno utilizando luz ultravioleta y, posteriormente, trabajó en el desarrollo de instrumentos para medir los límites de fatiga en los metales. Durante la Segunda Guerra Mundial, Eckert diseñó y construyó un dispositivo que permitía detectar cambios rápidos en pequeños campos magnéticos. Este dispositivo se utilizó ampliamente durante la guerra para desactivar las minas marítimas del enemigo. Otros de los inventos de Eckert estuvieron relacionados con los radares, y en ellos aplicó por primera vez conceptos digitales relacionados con contadores, a problemas de ingeniería electrónica. A la edad de 22 años, sirviendo de instructor en la Universidad para un grupo de alumnos, la mayoría de los cuales eran Ph.D (doctorados en su rama particular), conoció y trabó amistad con John Williams Mauchly. Esta amistad duraría hasta la muerte de Mauchly (ocurrida en 1980), y de su asociación saldrían varios de los logros más importantes en la computación moderna. Junto a Mauchly, construyó en 1946, en la Universidad de Pennsylvania, la computadora electrónica de propósito general, ENIAC. En la Universidad de Manchester, en Connecticut (EE.UU.), en 1949, construyeron la EDVAC. Más tarde, una corporación formada por Eckert y Mauchly empezó a construir UNIVAC, pero debido a problemas financieros, se vieron obligados a vender su compañía a Remington Rand Corp. Trabajando para esta compañía fue que se concluyó el proyecto Univac, en 1951. Univac I fue la primera computadora que se fabricó comercialmente, así como la primera en utilizar un compiler (compilador o autoprogramador) para traducir idioma de programa en idioma de máquinas. En 1952 Univac (no el modelo original sino otra) se utilizó para computar el resultado de las elecciones presidenciales entre Eisenhower y Adlai Stevenson. El resultado (victoria de Eisenhower) se supo 45 minutos después de que cerraron los colegios electorales. Después de haber producido Univac I, Eckert y Mauchly continuaron trabajando para la firma Remington Rand, que pasó a llamarse Sperry Rand Corporation en 1951. Jack S. Kilby (1923- ) Nació en 1923 en Jefferson City, Missouri, (EEUU), diplomado de las universidades de Illinois y de Wisconsin, desde 1958 fue empleado de la compañía informática estadunidense Texas Instruments, donde desarrolló el microchip en 1959. El inventor del circuito integrado monolítico, se declaró sorprendido de que se le haya otorgado el Premio Nobel de Física, que comparte con Kroemer y con el ruso Zhores Alferov. Kilby, quien vive en Dallas, Texas, declaró que ? no había previsto esto y de hecho, creía que era muy improbable ? . La investigación de Kilby condujo a la producción de los microprocesadores y echó los cimientos conceptuales y técnicos para todo el campo de la microelectrónica. ? Yo creí entonces que el microprocesador sería importante, pero no podía imaginar en qué forma crecería la industria electrónica debido a él? , agregó. Kilby comenzó su carrera en 1947 en Globe Union, en Milwaukee y trabajó en el desarrollo de circuitos de base cerámica y matriz para los artefactos electrónicos. En su carrera, Kilby ha patentado más de 60 inventos que se han incorporado a la industria para el consumo, las fabricaciones militares y las aplicaciones comerciales de la tecnología de microprocesadores. James Powers Poco se sabe de él, excepto que nació en Rusia, que era ingeniero eléctrico, y que fue capaz de acabar con el monopolio de Hollerith. Hacia 1910, año de censo, un nuevo superintendente del censo fue nombrado. Su nombre era Simon Newton Dexter North, y se convertiría en la peor pesadilla de Hollerith. Sabiendo que las patentes de Hollerith estaban a punto de vencerse, North propuso al gobierno el diseño de una máquina que resultaría significativamente más barata que la de Hollerith. Como era de esperarse, Hollerith se puso furioso y una larga y cruenta guerra se inició entre los dos. North habría sido derrotado en su intento de crear una máquina que no violara las patentes de Hollerith y a la vez pudiera hacer el trabajo, si no hubiera sido por un oscuro ingeniero que contrató para ayudarle. Su nombre era James Powers. Fue James Powers quien desarrolló el sistema de tarjetas perforadas que se usó en el censo de 1910. Después de eso Powers quedó convencido de que había un mercado para este tipo de máquinas y en 1911 constituyó la Power's Tabulating Machine Company, convirtiéndose en el principal competidor de Hollerith. Después de una serie de fusiones su compañía llegó a ser parte de la Sperry Rand Corporation y de la división Sperry UNIVAC. Johannes Kepler (1571-1630) Johannes Kepler nació el 27 Diciembre de 1571 en Leonberg, Holy Roman Empire (Alemania). Fue un niño enfermizo que padecía de furúnculos, dolores de cabeza, miopía, infecciones de la piel, fiebres y afecciones al estómago y a la vesícula. A la edad de cuatro años, casi sucumbió con los estragos de la viruela. Por fortuna para Kepler, los duques de Wurttemberg alentaban entonces la educación de los niños precoces. Pudo terminar sus estudios en el seminario teológico y fue a graduarse en la Universidad de Tubinga gracias a lo que en el siglo XVI equivalía a una beca. En Tubinga tuvo el apoyo de un profesor que secretamente le enseñó las ideas de Copérnico, cosa que fue necesario hacer en secreto debido a que sólo la teoría tolemaica tenía la aprobación oficial. En esta época de la carrera de Kepler, parecía seguro que sería sacerdote, pero por alguna razón desconocida cambio de planes y aceptó el empleo de maestro de astronomía y matemática en Graz, capital de la provincia austríaca de Estiria. Fue en Graz, en 1596, donde Kepler publicó su notable libro "El misterio del Universo". Con el ardor y la exuberancia de la juventud, declaró que había descubierto el orden fundamental que servía de base a las distancias que separaban a los planetas del Sol; en otras palabras, creyó haber resuelto el enigma del plan divino del Universo. La teoría de Kepler (que era errónea) resultaba muy ingeniosa. Sabía que sólo existían cinco sólidos perfectos que podrían construirse en el espacio tridimensional. Se le ocurrió a Kepler que estos cinco sólidos podrían caber exactamente en los cinco intervalos que separaban a los seis planetas (no se conocían más en ese tiempo). En la órbita de Saturno inscribió un cubo; en ese cubo insertó otra esfera, Júpiter. Inscribió el tetraedro en Júpiter y luego inscribió en él la esfera de Marte. El dodecaedro cabría perfectamente entre Marte y la Tierra; el icosaedro entre la Tierra y Venus, y entre Venus y Mercurio puso el octaedro. ¡Y he aquí que Kepler creyó haber encontrado la clave del gran enigma! Lo resumió así : ? En unos días, todo quedó en su lugar. Vi que un sólido tras otro encajaba con tanta precisión entre las órbitas apropiadas que si un campesino preguntaba con que gancho estaban prendidos los cielos para no caerse, sería fácil contestarle? . Kepler envió informes de esta teoría a todos aquellos en quienes pudo pensar, contando a Galileo y el famoso astrónomo Ticho Brahe. Los dos hombres sostuvieron correspondencia con el joven astrónomo; y cuando la intolerancia religiosa obligó al protestante Kepler a irse de Graz, aceptó la invitación de ayudar a Brahe, quién era matemático de la corte de Rodolfo II de Praga. El 1 de enero de 1600, Kepler llegó a Praga. Cuando murió Ticho en 1601, Kepler lo sucedió en el puesto de matemático imperial. Una de sus obligaciones consistía en preparar horóscopos para el emperador y otros dignatarios de la corte. Pero, al hacerlo, tuvo que enfrentarse a los espinosos problemas dignos de un genio matemático, astronómico y filosófico. En 1615, después de penosos estudios que llenaron quinientas hojas de papel de oficio, se preparó para publicar su Nueva astronomía, primer libro moderno sobre la materia. La vista defectuosa de Kepler lo llevó a interesarse toda la vida en la óptica. Sus trabajos comprenden explicaciones sobre el modo en que los anteojos ayudan a los miopes y a los présbitas; también abarcaron el principio de la cámara fotográfica. Despertada su curiosidad por el recién inventado telescopio, Kepler publicó su Dióptrica en 1611, en la cual bosquejó el diseño de un telescopio astronómico de inversión que se usó mucho a partir de entonces. En la esfera de las matemáticas, se le atribuye el haber contribuido a crear el cálculo infinitesimal y estimular el uso de los logaritmos en los cálculos. Fue uno de los primeros en advertir el efecto que tiene la Luna sobre las mareas. Kepler falleció el 15 de noviembre de 1630 en Rosensburg (Alemania). Han pasado más de tres siglos desde que murió Kepler, pero los años que siguieron no han hecho más que aumentar el fulgor de sus aportaciones. No hay mejor manera de bajar el telón sobre la historia de Kepler que la de citar el epitafio que compuso para su lápida : ?Medí los cielos, y ahora las sombras mido, En el cielo brilló el espíritu, En la tierra descansa el cuerpo. ? John Bardeen (1908-1991) Nació en Madison, Wisconsin (EE.UU.) en 1908. Estudió en las universidades de Wisconsin y Princeton; obtuvo la licenciatura en Letras en 1928, y en Ciencias al año siguiente. De 1930 a 1933 fue profesor de matemáticas. Trabajó como geofísico en la Gulf Research y en la Development Corporation. De 1935 a 1938 fue catedrático de Física en la Universidad de Harvard. En los años siguientes, sirvió diversos cargos docentes en el Departamento de Marina y en los laboratorios navales. Investigador en la Murray Hill de Nueva Jersey y en los laboratorios de la Bell Telephone, de 1945 a 1951, sirvió las cátedras de Electricidad y Física en la Universidad de Illinois. Las investigaciones de Bardeen contribuyeron al rápido progreso en el ámbito de la electrónica y condujeron a la invención y perfeccionamiento del transistor, que por sus muchas ventajas reemplazó a las válvulas termoiónicas. La Academia de Ciencias de Suecia, que le otorgó el premio Nobel en 1956, junto con Walter Brattain y William Shockley, por sus estudios sobre los transistores, indicó que era merecedor del galardón por sus "investigaciones sobre los semiconductores y el descubrimiento del efecto del transistor". Bardeen recibió nuevamente el premio Nobel, en 1972, con Leon N. Cooper y John R. Schrieffer, por el estudio de la superconductividad de metales enfriados casi al cero absoluto, estudio trascendente para el desarrollo de la industria eléctrica. Los superconductores fueron descritos por vez primera por el holandés Kamerlingh Onnes. Bardeen, tras exhaustivas investigaciones, logró desentrañar sus complejos y anómalos comportamientos; demostró que las cargas negativas de electrones en un superconductor, en lugar de dispersar su energía e ímpetu a través de colisiones casuales, se ordenan y actúan de manera complementaria, moviéndose coherentemente en la misma dirección y velocidad. Además, de los dos premios Nobel, el profesor Bardeen recibió el premio Fritz London, en 1962, el Vincent Bendiz en 1964 y la Medalla Nacional de Ciencias. Falleció en Boston, Massachusetts, en 1991. John Vincent Atanasoff (1903-1995) Nace el 4 de octubre de 1903 en Nueva York. El doctor Atanasoff tuvo un interés constante en hallar formas más rápidas para realizar cómputos matemáticos. Tras examinar algunas de las máquinas de su época, aseveró que éstas eran lentas e imprecisas y comenzó a desarrollar el concepto de un aparato digital, pues las máquinas análogas eran demasiado restrictivas y no alcanzaban el grado de precisión que él quería. Curiosamente, el concepto de una computadora electrónica digital nació en una taberna de Iowa, donde Atanassoff definió los 4 preceptos básicos para tal aparato, que usaría: electricidad y componentes electrónicos, un sistema binario (unos y ceros), condensadores para almacenar datos (memoria) y un sistema lógico para el cómputo y no la enumeración, como ocurría con las máquinas análogas. Atanasoff solicitó un estudiante para que lo asistiera en el proyecto y le fue recomendado Clifford Berry, un dotado ingeniero eléctrico con un perfil similar al del doctor. El primer prototipo de su máquina quedó listo en diciembre de 1939, era la ABC, por Atanasoff Berry Computer. En 1940, Atanasoff asiste a una lectura del Dr. John W. Mauchly y después de una plática posterior le muestra su máquina. Mauchly retoma muchas ideas de la ABC para diseñar junto con J. Presper Eckert la ENIAC, generalmente considerada la primera computadora digital electrónica del mundo. Tras una larga disputa legal, en 1972 se adjudicó a Atanasoff la paternidad de la máquina que revolucionaría el mundo. John Vincent Atanasoff muere en 1995 en Mariland. John Williams Mauchly (1907-1980) John Williams Mauchly había nacido en Cincinnati, Ohio (EE.UU.) el 30 de agosto de 1907. Sus magnificas aptitudes como estudiante le valieron una beca para la Escuela de Ingeniería Eléctrica de la Universidad Johns Hopkins. Al cabo de dos años en esta especialidad se dio cuenta que su verdadera vocación no era la ingeniería sino la física. En 1932, a los 35 años de edad, Mauchly se graduó de Doctor en Ciencias Físicas. Luego de doctorarse y pasar un año trabajando en Johns Hopkins, Mauchly pasó a ser el jefe del Departamento de Física en el Ursinus College de Collegeville, Filadelfia, donde se mantuvo desde 1933 hasta 1941. En este año se enroló en el curso de ocho semanas sobre la electrónica aplicada en el campo de la defensa que se dictó en la Universidad de Pennsylvania; allí conoció a Presper Eckert y luego continuó trabajando para dicha Universidad como instructor. A principios de la década de los 40, Mauchly escribió un memorandum titulado : "Utilización de Tubos al Vacío de Alta Velocidad par realizar Cálculos.". Este memorandum abrió las puertas para que Washington aprobara el presupuesto para emprender la construcción de la ENIAC. En 1941, Mauchly visitó a John Vincent Atanasoff y observó muy de cerca la ABC (Atanasoff- Berry Computer) y tuvo la oportunidad de revisar su tecnología. Existe una gran controversia respecto a que Mauchly copiara muchas de las ideas y conceptos del profesor Atanasoff, para, posteriormente, entre los año s 1943 a 1946, aplicarlas a la computadora ENIAC. De todas formas, en 1946, trabajando junto Eckert, la computadora electrónica de propósito general, ENIAC, se terminó de cons truir en la Universidad de Pennsylvania. En 1949, en la Universidad de Manchester, en Connecticut (EE.UU.), junto a Eckert nuevamente, construyó la EDVAC. Más tarde, una corporación formada por Eckert y Mauchly empezó a construir UNIVAC, pero debido a problemas financieros, se vieron obligados a vender su compañía a Remington Rand Corp. Trabajand para esta compañía fue que se concluyó el proyecto Univac, en 1951. Univac I fue la primera computadora que se fabricó comercialmente, así como la primera en utilizar un compiler (compilador o autoprogramador) para traducir idioma de programa en idioma de máquinas. En 1952 Univac (no el modelo original sino otra) se utilizó para computar el resultado de las elecciones presidenciales entre Eisenhower y Adlai Stevenson. El resultado (vic toria de Eisenhower) se supo 45 minutos después de que cerraron los colegios electorales. Después de haber producido Univac I, Eckert y Mauchly continuaron trabajando para la firma Remington Rand, que pasó a llamarse Sperry Rand Corporation en 1951. Mauchly trabajó como ingeniero en el departamento de diseño lógico de la compañía hasta su muerte en 1980. Joseph Marie Jacquard (1752 - 1834) Nació el 7 de Julio de 1752 en la ciudad de Lyon (Francia), y aunque fue hijo de un modesto obrero textil tuvo grandes aspiraciones para su futuro. En 1801, ya convertido en inventor e industrial textil, Joseph Marie Jacquard dio un fundamental aporte al proceso de las máquinas programables al modificar una maquina ria textil, a la cual añadió un sistema de plantillas o moldes metálicos perforados, unidas por correas, que permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras. Fue tan grande el interés despertado por el invento de Jacquard, que el propio Napoleón Bonaparte se quedó asombrado cuando en 1805 asistió a una exibición industrial celebrada en Lyon, para posteriormente condecorarlo con la medalla de La Legión de Honor y un premio de 50 francos por cada telar que fuese comercializado durante el período de 6 años. A pesar del impacto comercial del telar de Jacquard, que permitió que un sólo hombre realizara el trabajo de varios, el hecho ocasionó el temor de la pérdida de empleos de los obreros textiles. El inventor recibió amenazas de muerte y su popularidad decayó, pero a partir de 1806 su invento se posesionó del mercado. Jacquard terminó sus días trabajando como regidor municipal en la ciudad de Oullins, no muy lejos de su ciudad natal Lyon, falleciendo el 7 de Agosto de 1834 a la edad de 82 años. A partir del invento de Jacquard empezaron a proliferar, poniéndose muy de moda, las máquinas y equipos programados por sistemas perforados, tales como los pianos mecánicos, conocidos como pianolas, muñecos y otros novedosos juguetes mecánicos. Konrad Zuse (1910-1957) Konrad Zuse nació en Berlin el 22 de Junio de 1910. Estudió ingeniería civil en el Instituto Politécnico de Berlin, graduándose en 1933. Trabajó en la industria aeronáutica, pero años más tarde se retiró para dedicarse a las tareas de nventor, labor que desarrolló en el dormitorio de un departamento desocupado propiedad de sus padres. Durante 1936 y 1939, Zuse construyó la primera computadora electromecánica binaria programable, la cual hacía uso de relés eléctricos para automatizar los procesos. Sin embargo, tan sólo fabricó un prototipo para pruebas al cual llamó Z1, el cual nunca llegó a funcionar debido a la falta de perfeccionamiento en sus elementos mecánicos. En 1940 Zuse terminó su modelo Z2, el cual fue la primera computadora electromecánica completamente funcional del mundo. Al año siguiente, en 1941, fabricó su modelo Z3 pare el cual desarrolló un programa de control que hacía uso de los dígitos binarios. Sin embargo esta computadora fue destruida en 1944 a causa de la guerra. Konrad Zuse se había basado para el diseño de sus computadores en los recientes trabajos de Alan Turing. El gobierno nazi no confió nunca en sus trabajos, por lo que toda su investigación fue financiada por él mismo, con ayuda de un grupo de entusiastas amigos.Entre 1945 y 1946 creó el Plankalkül (Plan de Cálculos), el primer lenguaje de programación de la historia y predecesor de los lenguajes modernos de programación algorítmica. En 1949 formó la fundación ZUSE KG dedicada al desarrollo de programas de control para computadoras electromecánicas. En 1956 esta fundación fue adquirida por la empresa Siemens. A lo largo de su vida Konrad Zuze fue motivo de muchos honores, falleciendo en Hünfeld, Alemania el 18 de Diciembre de 1995. Kurt Freidrich Gödel (1906-1978) Kurt Gödel nació el 28 de de abril de 1906 en Brünn, Moravia. Su padre, Rudolph, fue un diligente e inventivo propietario de una fábrica text il. Su madre, Marianne, fue una cariñosa madre de familia que había recibido una extensa educación literaria en Francia. La familia Gödel era económicamente acomodada y el joven Kurt pudo dedicar todas sus energías al estudio, ya que no era necesario colaborar en la financiación familiar. Sobresalió en el trabajo escolar. Su primer interés académico fue la Lingüística, pero más tarde acudió a las Matemáticas ya que era más fácil para él estudiarlas por su cuenta, una vez agotados los recursos que le ofrecía la escuela. Ingresó en la Universidad de Viena en 1924 planeando estudiar Física Teórica. Hacia 1926 su atención volvió a las Matemáticas y se produjo su unión a lo que más tarde fue conocido como el Círculo de Viena, un grupo de matemáticos que fundó la escuela filosófica conocida como Positivismo Lógico. Gödel estuvo asociado con este grupo durante muchos años. La principal premisa del Círculo de Viena era que lo que no es verificable empíricamente no tiene sentido. La antítesis de esta filosofía es la especulación metafísica, ya que nada puede ser probado o refutado con algún grado de certidumbre dentro del sistema metafísico. Gödel se fue interesando progresivamente en Teoría de Números y, después, en Lógica Matemática durante estos años. En 1930, Gödel se doctoró en Matemáticas dirigido por H. Hahn, un notable matemático miembro del Círculo de Viena. A partir de aquí comienza Gödel a trabajar en sus más importantes teorías sobre la completitud de sistemas formales. Viajó a los Estados Unidos dando un ciclo de conferencias y se encontró por primera vez con Albert Einstein en 1933. Dedicó alguno de los años siguientes al estudio de problemas de Física y de Psicología. Durante esta época tuvo que ser ingresado varias veces en hospitales por problemas de salud. En 1931, Kurt Gödel fue capaz de responder a dos de las preguntas formuladas por David Hilbert en el Congreso Internacional de Matemáticos de 1900, demostrando que cualquier sistema formal suficientemente potente es inconsistente o incompleto. Así mismo probó que si un sistema de axiomas es consistente, esta consistencia no puede demostrarse por sí misma. Gödel se casó con Adele Porkert en 1938 y decidieron trasladarse definitivamente a los Estados Unidos en 1940. Se asentaron en Princeton, New Jersey, donde residieron hasta el final de sus vidas. Llegó a ser un gran amigo de Einstein, y trabajaron juntos los aspectos filosóficos y matemáticos de la Teoría General de la Relatividad. Gödel incluso trabajó con éxito en las ecuaciones del campo gravitatorio, encontrando soluciones sorprendentes. También dedicó gran parte de su tiempo al estudio del concepto de tiempo, publicando varios artículos y dando varias conferencias sobre el tema. Recibió muchos homenajes importantes durante su vida. Fue nombrado doctor honorario en Literatura por la Universidad de Yale en 1951. También fue doctor honorario en Ciencias por Harvard en 1952 con una mención que lo llamó "el descubridor de la verdad matemática más significativa del siglo". Fue elegido como miembro de la Academia Nacional de Ciencias en 1955 y de la Academia Americana de las Artes y Ciencias en 1957. En 1961 ingresó en la Sociedad Filosófica de América. En 1967, fue elegido miembro honorario de la Sociedad Matemática de Londres. Finalmente, en 1975, el presidente Ford le entregó la Medalla Nacional de las Ciencias. Batalló durante toda su vida contra sus problemas de salud física y mental. Confesó en 1969 que no era capaz de entender el trabajo de los nuevos lógicos; la enfermedad iba cobrando su peaje. Años más tarde, llegó a estar convencido de que estaba siendo envenenado. Para evitar esto, dejó de comer y acabó muriendo por inanición el 14 de enero de 1978. Lenguajes de programación Lenguaje Origen del Nombre Año Notas/Comentarios ADA Augusta ADA Byron (Lady Lovelace) 1979 ALGOL ALGOrithmic Language (Lenguaje algorítmico) Primer lenguaje estructurado, usado principalmente para resolver problemas 1960 matemáticos. Desarrollado por Alan Perlis, John Backus y Peter Naur. APL A Programming Language (Lenguaje de programación A) Lenguaje interpretado que usa un gran 1961 conjunto de símbolo especiales y una sintaxis compleja. BASIC Beginners All-Purpose Symbolic Instruction Code (Código de instrucción simbólica multifuncional para principiantes) Popular lenguaje de alto nivel, usado 1965 frecuentemente por programadores principiantes. C Lenguaje posterior al lenguaje B de los Laboratorios Bell 1972 COBOL COmmon BusinessOriented Language (Lenguaje orientado a tareas sencillas) Creado por Grace Murray Hooper para 1960 Univac. Crea el concepto de tipo de dato. Derivado del PASCAL, usado principalmente para fines militares. Popular lenguaje estructurado y compilado, muy portable. Primer compilador creado por John Backus en 1957. Lenguaje compilado FORmula TRANslation de alto nivel. Precursor de múltiples FORTRAN (Traducción de Fórmulas) 1957 conceptos, tales como variables, sentencias condicionales y funciones compiladas separadamente. LISP PASCAL Creado por John McCarthy. Lenguaje interpretado de procesamiento de listas LISt Processing 1958 orientado a la realización de (Procesamiento de Listas) aplicaciones en el ámbito de la Inteligencia Artificial. Blaise PASCAL, matemático e inventor de la Máquina Analítica, primer concepto de ordenador. Lenguaje estructurado compilado basado en ALGOL, al cual añade tipos 1971 de datos y simplifica su sintaxis. Creado por el profesor suizo de Ciencias de la Computación, Niklaus Wirth. PL/1 Programming Language One Complejo lenguaje de programación. Compilado, estructurado y capaz de 1964 manejar errores y multitarea, usado en entornos académicos y de desarrollo. También podemos citar las caústicas opiniones de Esger Dijkstra sobre algunos de estos lenguajes de programación: "PL1 es como una muerte súbita. Más que al conjunto de soluciones, este lenguaje pertenece al de los problemas". "El FORTRAN es el desorden infantil. A pesar de su antigüedad, es más que inadecuado para cualquier aplicación que se tenga en mente, demasiado torpe, demasiado arriesgado y demasiado costoso su uso". "Es prácticamente imposible enseñar a programar a cualquier estudiante que haya estado expuesto con anterioridad al BASIC : como programadores potenc iales, esos estudiante habrán quedado mentalmente mutilados, sin esperanza de regeneración". "Como el COBOL produce parálisis cerebral, debería considerarse como una ofensa criminal". Máquina de Turing En 1936, Alan Turing contestó al entscheidungsproblem, la cuestión planteada por David Hilbert sobre si las matemáticas son decidibles, es decir, si hay un método definido que pueda aplicarse a cualquier sentencia matemática y que nos diga si esa sentencia es cierta o no. En el artículo On Computable Numbers, Turing construyó un modelo formal de computador, la Máquina de Turing, y demostró que había problemas tales que una máquina no podía resolver. La máquina de Turing es el primer modelo teórico de lo que luego sería un computador programable. Con el tiempo a este tipo de máquina se la conoció como máquina de estado finito, debido a que en cada etapa de un cálculo, la siguiente acción de la máquina se contrastaba con una lista finita de instrucciones de estado posibles. ¿Cómo funciona la máquina de Turing? Una máquina de Turing es un dispositivo que transforma un INPUT en un OUTPUT después de algunos pasos. Tanto el INPUT como el OUPUT constan de números en código binario (ceros y unos). En su versión original la máquina de Turing consiste en una cinta infinitamente larga con unos y ceros que pasa a través de una caja. La caja es tan fina que solo el trozo de cinta que ocupa un bit (0 ó 1) está en su interior. La máquina tiene una serie de estados internos finitos que también se pueden numerar en binario. Para llevar a cabo algún algoritmo, la máquina se inicializa en algún estado interno arbitrario. A continuación, se pone en marcha y la máquina lee el bit que se encuentra en ese momento en su interior y ejecuta alguna operación con ese bit (lo cambia o no, dependiendo de su estado interno). Después se mueve hacia la derecha o hacia la izquierda, y vuelve a procesar el siguiente bit de la misma manera. Al final se para, dejando el resultado al lado izquierdo por ejemplo. Una instrucción típica podría ser: 01→11011i La traducción es como sigue: si la máquina se encuentra en el estado interno 0 y lee 1 en la cinta, entonces pasará al estado interno 1101 (13), escribirá 1 y se moverá hacia la izquierda un paso (la cinta se moverá hacia la derecha). A continuación es conveniente inventar una notación para la secuencia del INPUT. Esta notación se llama notación binaria expandida. Consiste en cambiar la secuencia original binaria por otra construida de la siguiente forma: el 0 se cambia por 0 y el 1 por 10 y se ponen un cero a la izquierda y/o a la derecha del resultado si empieza o acaba en 1 respectivamente. Así por ejemplo, el número 13 que en binario es 1101 es en binario expandido 1010010 con un cero delante por esta última regla 01010010. Para volver al original hay que contraer el binario expandido con la siguiente regla: Empezamos a leer por la izquierda el bianrio expandido. Cuando encontremos un 0 tomamos nota de cuántos 1 hay hasta llegar al siguiente 0 y lo escribimos. Si encontramos que hay dos 0 seguidos, apuntaríamos un 0 porque no habría ningún 1.Veamos con el 13 cómo se haría. El primer 0 se encuentra en la primera posición y el siguiente 0 está en la posición 3. Entre los dos solo hay un 1. Lo anotamos. Seguidamente hay un 1, y después un 0, entonces apuntamos 1 porque hay un 1 entre medias de ellos. Esto es lo que se hace sucesivamente y encontramos: 1101 que es el número original. Máquina Diferencial Charles Babbage había constatado en 1812, que muchos de los cálculos muy largos consistían en operaciones que había que repetir de manera regular, y desde este punto de vista especuló que debería ser posible diseñar una máquina calculadora que pudiera hacer estas operaciones de forma automática. Con este objetivo construyó un prototipo de Máquina Diferencial en 1821, con capacidad para resolver polinomios de segundo grado. Su trabajo Observaciones en la aplicación de la Máquina al Cómputo de Tablas Matemáticas fue recibido con gran aclamación y Babbage obtuvo el primer premio y medalla de oro en la Royal Society. Con el apoyo de la Royal Society, Babbage escribió una carta a su presidente, Sir Humphrey Davy, donde le decía que el trabajo intolerable y la fatiga de la monotonía de una repetición continuada de semejantes cálculos matemáticos tuvieron excitados sus deseos y posteriormente sugirió la idea de una máquina que por la ayuda de la gravedad o cualquier otro poder móvil sería un substituto para una de las ocupaciones más bajas del intelecto humano. Un comité formado por 12 personas consideró la súplica de Babbage para obtener fondos para completar su proyecto y en mayo de 1823 la Sociedad estuvo de acuerdo en que la causa era meritoria. En Julio, Babbage recibió 1500 libras para posibilitarle perfeccionar su invento de la manera que él recomendó. En el desarrollo de su Máquina Diferencial, como Babbage la llamó, estudió las invenciones matemáticas de varios predecesores, como el notable trabajo de Charles Mahon, Tercer Conde de Stanhope. Mientras que él dibujó arduamente, basándose en los principios de Mahon, lo que distinguió el diseño de Babbage de todo trabajo previo fue lo siguiente: que se propuso para calcular una serie de números siguiendo cualquier ley por la ayuda de las diferencias y que colocando unos pocos números en el inicio, una larga serie de números rápidamente eran producidos por una operación mecánica. Comenzada su construcción, la Máquina Diferencial sufrió muchas mejoras y modificaciones durante los siguientes cuatro años. El modelo inicial consistía en 96 ruedas y 24 ejes pero cada progreso en la puesta a punto creaba una necesidad especial de construir partes inéditas de la máquina. Babbage aparentemente había calculado mal su tarea. Construyendo la máquina había gastado cerca de 50 veces más que el dinero que se le dio. Además necesitó dos toneladas de latón, alambres y maquinarias de reloj, que tuvieron que ser fabricadas especialmente pues no existían en ese entonces. El gobierno Británico poco después le concedió otras 1.500 libras seguidas por 3.000 libras más, con una promesa para suministrar una suma mayor cuando la máquina estuviera completa. Babbage también había heredado 100.000 libras luego de la muerte de su padre. Fue el primer ministro ingles Benjamin Disraeli quien abortó el proyecto escribiendo mordazmente que: "Para lo único que podía servir aquel aparato era para calcular las enormes sumas de dinero público que se habían derrochado ya con él". Microsoft En enero de 1975, Paul Allen, llamó con urgencia a Bill Gates para que viera la tapa de la revista Popular Electronics. Allí aparecía el prototipo de la primera computadora hogareña, la MITS- Altair 8800. Allen le dijo: "Bill, no podemos quedarnos al margen". Gates abandonó la Universidad y junto con Allen fundaron una nueva firma, Microsoft. Su objetivo era participar en forma activa en el desarrollo de la era de las computadoras. La computadora hogareña existía, pero no existía un lenguaje para una máquina tan pequeña. Entonces Gates llamó por teléfono a Ed Roberts, el presidente del MITS y le dijo que había creado una forma del lenguaje BASIC para una microcomputadora. Roberts le contestó: "Traígamelo y usted será el primero en hacer el negocio". Bill y Paul no tenían la menor idea de cómo iban a adaptar el BASIC al microchip. Empezaron a trabajar como poseídos y no dormían más de dos horas por día. Bill estuvo escribiendo el programa prácticamente hasta el último momento. En febrero de 1975, Paul Allen viajo a Albuquerque a llevarle el BASIC al presidente del MITS... y funcionó. En abril firmaron un contrato entre Microsoft y MITS. Allen se instaló en Albuquerque y estableció el cuartel general de Microsoft en un motel de la legendaria Ruta 66. Gates iba y venía de Harvard, hasta que en enero de 1977, a la edad de 21 años, decidió abandonar la Universidad, para dedicarse definitivamente a Microsoft. Gates adquirió un 64 % de la empresa y Allen un 36%. Al haber mas computadoras personales en el mercado, las ventas de la Altair bajaron, entonces MITS, decidió vender el negocio. Pero quiso venderla junto con el BASIC de Microsoft. Inmediatamente comenzaron los litigios entre ambas empresas. Esto arrastró prácticamente al borde de la quiebra a Microsoft. Pero hubo una mano salvadora. Un amigo, otro de los jóvenes genios de esa generación, Steve Jobs, el cofundador de Apple Computers y director del proyecto Macintosh, impidió que Microsoft se fuera a la bancarrota aportando un cheque de 10.500 dólares. En diciembre Microsoft ganó el juicio y se extendió la licencia del BASIC a todas las computadoras hogareñas. Ese año la empresa consiguió recaudar medio millón de dólares. 1978 fue el año en que se consolidó el negocio. El personal aumentó a 13 personas y el volumen del negocio alcanzó la barrera del millón de dólares. El 1 de enero de 1979 se trasladaron a Seattle, para estar mas cerca de sus familias. La relación entre los socios era de constantes peleas, pero la química entre ambos funcionaba a la perfección: Gates era adicto al trabajo y Allen era un soñador. En 1980 Gates le solicitó a su ex compañero de cuarto en la facultad, Steve Ballmer, que se convirtiera en vicepresidente de ventas. Ballmer le dio forma a las distintas categorías productivas de la empresa. Ese año IBM decidió subirse al tren de las PC. Necesitaban un sistema operativo. Los directivos de IBM se presentaron en Digital Research para solicitar el sistema CP/M. Increíblemente, les contestaron que estaban ocupados y que debían volver en otro momento. Completamente ofendidos y furiosos, tomaron la decisión de dirigirse a Microsoft y les encargaron que desarrollen el sistema operativo en cuestión. Gates, Allen y Ballmer no tenían tiempo para crear un nuevo sistema. La computadora debía salir a la venta a mediados de 1981. Gates recordó que Tim Paterson de la firma Seattle Computers había creado el Q-DOS (Quick n? Dirty Operating System). Gates fue a hablar con Patterson y le preguntó si sería posible facilitarle la licencia a un cliente. Este consintió sin saber de qué clientes se trataba. Luego siguieron negociando y finalmente Microsoft adquirió todos los derechos del Q-DOS por 75.000 dólares. Le cambió el nombre por MS-DOS (Microsoft Disk Operating System). En febrero de 1981 se cargó por primera vez una versión del MS-DOS en una IBM y aunque estaba repleta de errores salió a la venta en julio. En 1983, Paul Allen fue diagnosticado con la temible enfermedad de Hodgkin. Allen abandonó Microsoft argumentando que no soportaba la constante presión de la empresa. Se tomó dos años sabáticos. Para Bill Gates fue un duro golpe. Le pareció que su amigo lo había abandonado y tomó la decisión de que Allen no volviera a incorporarse a la firma. Cuando Allen superó la enfermedad fundó Asymetrix, su propia compañia de software. En septiembre Microsoft, lanzó su primer programa de aplicación, un procesador de textos al que se denominó Word I y en Noviembre Bill Gates anunció que lanzaría al mercado una nueva forma de usar la computadora con una interfaz gráfica de usuario denominada Windows. En junio de 1984 Microsoft se convirtió por primera vez en la numero uno en la lista de las casas de software, moviendo mas de 100 millones de dólares en el mundo. La versión 2.0 del Word tenía la particularidad de contar con un programa ortográfico y se impuso entre los usuarios de procesadores de textos. El año 1986 fue decisivo en la historia de Microsoft. El 13 de marzo pusieron a la venta las acciones de Microsoft en la bolsa. Bill Gates se convirtió ese mismo día en el multimillonario más joven de los Estados Unidos. Paul Allen, con menos acciones también se volvió millonario. Juntos donaron 2.2 millones de dólares al colegio Lakeside para construir un edificio para ciencias y matemáticas al que se denominó Allen Gates Hall. Luego de recibir críticas fulminantes con el Windows 1.0, en Noviembre lanzó el Windows 2.0, corregido y mejorado, vendiendo más de un millón de copias en lo que restaba del año. En 1990 se consolidó Windows con su versión 3.0 y Microsoft se convirtió en la primera compañía de software mundial en exceder el billón de dólares anuales en ventas. El 24 de agosto de 1995 salió a la venta en los Estados Unidos, el Windows 95, arrasando con todas las expectativas de venta. Apenas salió al mercado se agotó y es hasta hoy en día el más importante producto de software de Microsoft. Más tarde comenzó a competir contra Netscape con el Explorer por el control de Internet. En 1997, Microsoft firmó una alianza con Apple, que volvía estar al mando de Steve Jobs. A cambio de US$150 millones en acciones de Apple, Microsoft y Apple tendrían una licencia cruzada de cinco años sobre patentes y, lo más importante, un acuerdo final en la disputa sobre la GUI del Mac OS. Microsoft convino en pagar una suma adicional de dinero, que no se dio a conocer, para terminar con los argumentos que sostenían que Microsoft había robado la propiedad intelectual de Apple cuando diseñó el sistema operativo del Windows. Microsoft también anunció que Office '98, su popular paquete de aplicaciones para uso en oficinas, estaría disponible para la Mac hacia fin de año. Microsoft en Internet: http://www.microsoft.com/ John Napier (1550-1617) John Napier nació en 1550 en Edimburgo (Escocia) y allí fallece el 4 de abril de 1617 A la temprana edad de 13 años ingresó en el Saint Salvador College, donde estudió por espacio de 2 años. Luego viajó por toda Europa, principalmente a Francia y Holanda donde continuó sus estudios e investigaciones entre 1566 y 1571 en la Universidad St. Andrés. En 1571, retornó a Escocia y recorrió todos sus estados como un devoto religioso tomando parte en las controversias religiosas de ese tiempo. Fue un ferviente protestante y publicó lo que él consideró como su más importante trabajo, el Plaine Discovery of the Whole Revelation of St. John (1593). Napier estudió matemática sólo como un hobby. En el año 1614 publicó una descripción de como multiplicar y dividir con la ayuda de los logaritmos. También fue él quién asignó la palabra logaritmo, que es una palabra Griega compuesta por logos que significa rel ación y arithmos que significa número. Independientemente de Napier pero algo después el Suizo Burgi trabajó con una tabla para la multiplicación de logaritmos. Ni Napier ni Burgi tuvieron una base especial para sus sistemas de logaritmos. Con relación al cálculo publicó en 1610 una obra titulada "RABDOLOGIAE", que era un pequeño tratado sobre la forma de ejecutar multiplicaciones. En su apéndice explicaba un método para multiplicar y dividir usando varillas y placas metálicas (Varillas de Napier) que puesto en la práctica se convirtió en la precursora de las modernas calculadoras de bolsillo de hoy en dia, pese a que este rústico sistema era inseguro debido a que las varillas no podían ser manejadas con versatibilidad. Blaise Pascal (1623-1662) Nació el 19 Junio de 1623 en Clermont, Francia. El padre de Pascal, Étienne Pascal, tenía una educación ortodoxa y decidió educar él mismo a su hijo. Decidió que Pascal no estudiara matemáticas antes de los 15 años y todos los textos de matemáticas fueron sacados de su hogar. Pascal, sin embargo, sintió curiosidad por todo esto y comenzó a trabajar en geometría a la edad de 12 años. Descub rió que la suma de los ángulos de un triángulo corresponden a dos ángulos rectos y cuando su padre comprobó esto se enterneció y entregó a Pascal un texto de Euclídes. A la edad de 14 años acudía a las reuniones con Mersenne. Mersenne pertenecía a una orden religiosa de Minims y su cuarto en París era un lugar frecuente de reuniones para Fermat, Pascal, Gassendi, y otros. A la edad de 16 años presentó sólo un trozo de papel con escritos a las reuniones con Mersenne. Contenía un número de teoremas de geometría proyectiva, incluyendo incluso el hexágono místico de Pascal. En 1642 construyó una máquina mecánica para realizar adiciones, llamada Pascaline (Pascalina), destinada a ayudar a su padre, alto funcionario de las finanzas nacionales. Pascal trabajó en las secciones cónicas y desarrolló importantes teoremas en la geometría proyectiva. En su correspondencia con Fermat dejó la creación de la Teoría de la Probabilidad. Fomentó estudios en geometría, hidrodinámica e hidroestática y presión atmosférica, dejó inventos como la jeringa y la presión hidráulica y el descubrimiento de la Ley de Presión de Pascal. Su más famoso trabajo en filosofía es Pensées, una colección de pensamientos personales del sufrimiento humano y la fe en Dios. ?Si Dios no existe, uno no pierde nada al creer en él, mientras que si existe uno pierde todo por no creer? . Pascal murió el 19 de Agosto de 1662, en París (Francia), a la edad de 39 años, después de sufrir un dolor intenso debido al crecimiento de un tumor maligno en su estómago que luego se le propagó al cerebro. Pascalina Fabricada en 1642 por el francés Blaise Pascal, a los 19 años, con la intención de ayudar a su padre, alto funcionario de las finanzas nacionales. Es la primera máquina sumadora mecánica. Estaba basada en un antiguo diseño de los griegos para calcular las distancias que recorrían los carruajes. El principio básico de esta máquina calculadora se usa todavía en nuestros días en algunos pluviómetros y cuentakilómetros. El mecanismo estaba operado por una serie de discos asociados a ruedas, que llevaban marcados los números desde el cero al nueve en sus circunferencias. Cuando una rueda daba una vuelta completa, avanzaba la otra rueda situada a su izquierda. Naturalmente había unos indicadores sobre los anteriores discos, que eran los encargados de dar la respuesta buscada. En conjunto el engranaje proporcionaba un mecanismo de respuesta idéntico al resultado que se puede obtener empleando la aritmética. No obstante, la Pascalina tenía varios inconvenientes, de los que el principal era, que sólo el mismo Pascal era capaz de arreglarla. Por otro lado, la Pascalina es el primer antecedente de tecnofobia, puesto que los matemáticos de la época se opusieron a ella, ante la eventualidad de que sus trabajos empezaran a no ser necesarios. Se construyeron 50 Pascalinas, algunas de las cuales pueden verse en la actualidad en el Museo de Ranquet en Clermond Ferrand (Francia). Paul Allen (1953- ) Nace en 1953 en Seattle y cursa la secundaria en un colegio de élite, el Lakeside School. El destino hizo que la escuela se convirtiera en una de las primeras de los Estados Unidos en tener acceso a una computadora. Allí conoció a un muchacho dos años menor que él, Bill Gates. En 1969, Paul, Bill y dos estudiantes más decidieron fundar una empresa. Hasta el año 1970, se dedicaron a testear las computadoras de la firma Computer Center Corporation sin cobrar, pero teniendo acceso gratuito a las máquinas. Mientras Gates era admitido en Harvard, Allen, hijo de una maestra y de un bibliotecario de la universidad, se tuvo que conformar con la más humilde universidad estatal de Washington. En cualquier caso ninguno de los dos acabaron su carrera; en 1975 decidieron escribir un sistema operativo para el Altair 8800 PC. Y ese mismo año fundaron Microsoft. Paul Allen fue quien transformó el sistema operativo QDOS (Quick and Dirty Operating System) en el primer bombazo de Microsoft: MS-DOS. Bill Gates fue quien lo vendió a IBM. Por eso Allen se hizo con un tercio de la compañía y Gates con el resto. Cosas que pasan. En 1982, cuando Allen tenía 29 años y la empresa marchaba viento en popa, se le manifestó un raro tipo de cáncer que afecta al sistema linfático conocido como enfermedad de Hodgkin. Inmediatamente comenzó un duro tratamiento basado en radiación que le obligó a apartarse de su labor en Microsoft en 1983. Se tomó dos años sabáticos. Para Bill Gates fue un duro golpe. Le pareció que su amigo lo había abandonado y tomó la decisión de que Allen no volviera a incorporarse a la firma. Eso sí, Allen salió de Microsoft mucho más millonario que Wozniak de Apple. Actualmente, según la revista Fortune, Allen es el tercer hombre más rico del mundo tras Gates y Larry Ellison. Aunque probablemente fue un escaso consuelo mientras luchaba contra el cáncer. Durante los años en los que Gates se convertía en un icono conocido mundialmente, Allen luchaba por vivir. Cuando Allen superó la enfermedad fundó Asymetrix, su propia compañia de software. En 1990, volvió a ocupar un puesto en el consejo de dirección de Microsoft y fundó Vulcan Ventures , un fondo de capital riesgo especializado sobre todo en negocios de cable y banda ancha. Desde entonces se ha dedicado a vivir la vida y a invertir en empresas. Hoy por hoy, Paul Allen participa en más de 140 compañías, entre las que destacan Metricom, Go2Net, Priceline, Dreamworks, Diller Networks y Oxygen. De momento ninguna de sus inversiones ha tenido un éxito espectacular. De hecho, su primera apuesta por la banda ancha de la mano de SkyPix acabó en bancarrota. Es famoso el episodio de su aventura con AOL. En 1993 pagó 40 millones de dólares por un 24,5% de la empresa, pero cuando quiso invertir otros 25 millones se lo negaron, al igual que un asiento en el consejo de dirección. La rabia y la frustración empujaron a Allen a deshacerse de su porcentaje un año más tarde. Eso sí, hizo un buen negocio, consiguió 140 millones de dólares. Hay dos inversiones que se escapan del ámbito tecnológico, y que responden a la pasión de Allen por los deportes. En 1988 pagó 70 millones de dólares por el equipo de la NBA Portland Trail Blazers, y más recientemente 200 millones por los Seattle SeaHawks. Además de los deportes, Allen es un gran amante de la música, en concreto del rock and roll. Toca la guitarra, tiene un estudio de grabación profesional en su casa y ha financiado el museo dedicado a Jimi Hendrix en Seattle. Una de las pocas entrevistas que ha concedido en su vida fue a la revista Rolling Stone. También tiene como afición millonaria la búsqueda de vida extraterrestre. Hace algunos años el proyecto SETI no se hundió gracias a él. Hace poco volvió a donarles 12,5 millones de dólares en colaboración con el CTO de Microsoft para que construyeran un supertelescopio. Por supuesto, también ha fundado varias organizaciones caritativas. A principios de septiembre del 2000, Paul Allen decidió abandonar completamente Microsoft y todos los cargos, más o menos cosméticos, que ocupaba. En un emotivo comunicado, firmado por el propio Gates, se reconocía la contribución de Allen al éxito de la compañía. En el futuro ejercerá como consejero estratégico. También accionarialmente se está desvinculando del gigante de Redmond: en lo que va de año Allen lleva vendidas acciones de Microsoft por más de 6.000 millones de dólares. El hombre que en 1976 tenía un 36% de Microsoft, ahora apenas posee el 4%. También Vulcan Ventures está abriendo sus horizontes. Desde 1990 hasta finales de 1997 Vulcan sólo había invertido 200 millones de dólares en empresas que no tuvieran que ver con el cable y la banda ancha. Pero sólo en los 18 meses siguientes este tipo de inversiones había ascendido hasta alcanzar los 1.200 millones. No parece haber sido una decisión errónea teniendo en cuenta que el valor de mercado de estos negocios ronda ahora los 5.500 millones de dólares, y eso sin contar los 1.000 millones de Starwave, vendido a Disney en 1997. Allen, que continúa soltero a sus 47 años, es terriblemente tímido (algunos periodistas lo han comparado a un manatí de grandes ojos azules) y muy apegado a su familia. Es director asociado de la biblioteca de Washington, a la que donó 10 millones en recuerdo a su padre. Su hermana Jody ocupa cargos directivos en empresas que él financia, su madre Faye vive en una mansión cuyo diseño está inspirado en una biblioteca. Seymour Cray (1925-1996) Seymour Cray nació en el año 1925, en una pequeña población del estado norteamericano de Wisconsin, y se graduó en ingeniería eléctrica y en matemáticas en la Universidad de Minnesota. Durante los años 50 trabajó en ERA -Engineering Research Associates- y en las compañías que la sucedieron, Remington Rand y Sperry Rand, donde fue uno de los principales responsables del diseño del ordenador UNIVAC 1103. En 1957, junto con otros ingenieros -entre ellos William Norris- fundó una nueva compañía denominada Control Data Corporation, en abreviatura CDC, para la cual construyó el CDC 1604, que fue uno de los primeros ordenadores comerciales que utilizaron transistores en lugar de tubos de vacío. En 1962, Seymour Cray persuadió a William Norris para que CDC creara un laboratorio para investigar cómo diseñar el ordenador más potente de la época, triunfo que consiguió con su equipo de 30 colaboradores en el año 1963, con el CDC 6600, que batió ampliamente en capacidad de cálculo y en coste al ordenador más potente de que disponía IBM en aquella época. A finales de la década, Control Data, después de haber sacado al mercado el modelo CDC 7600 -para muchos el primer supercomputador en sentido estrictocomenzó a perder interés en la supercomputación y Cray pensó en establecerse por su cuenta. En el año 1972 fundó Cray Research, con el compromiso de dedicarse a construir exclusivamente supercomputadores y además de uno en uno, por encargo. El primer producto salido de la factoría -CRAY-1, en 1976- tuvo como destino el laboratorio nacional de Los Alamos, y era único en su diseño ya que incorporaba el primer ejemplo práctico en funcionamiento de procesador vectorial, junto con el procesador escalar más rápido del momento, con una capacidad de 1 millón de palabras de 64 bits y un ciclo de 12,5 nanosegundos. Su coste se situaba en torno a los 10 millones de dólares. En el plazo de tres años, la compañía había vendido seis ordenadores CRAY-1, pero su fundador no se encontraba satisfecho técnicamente, pues pensaba que el diseño de ese sistema no era suficientemente revolucionario, y se embarcó en el diseño de una nueva máquina, el CRAY-2, entre 6 y 12 veces más rápido que su predecesor. Disponibe en 1985, disponía de 256 millones de palabras y 240.000 chips. Su empaquetamiento era tan ajustado que el calor generado por la electrónica podía fundir el ordenador, por lo cual su interior se encontraba inundado con líquido refrigerante, y ello provocó el simpático comentario de que el CRAY-2 era en realidad un computador dentro de un acuario. La compañía iba de viento en popa, y a mediados de los 80 controlaba el 70% del mercado de la supercomputación. Sin embargo su fundador se encontraba incómodo, pues la problemática empresarial le resultaba escasamente interesante y difícil de soportar. Por ello cedió la presidencia, y dejó la responsabilidad del desarrollo tecnológico de la línea CRAY-2 a un ingeniero lleno de talento, Steve Chen, que concibió y cosntruyó los primeros multiprocesadores de la firma, conocidos como serie X-MP. A su vez Seymour Cray, inició en 1985 el diseño de una nueva serie, CRAY-3, cuyo procesador no se construiría sobre chips de silicio sino de arsenuro de galio. Su entrega, inicialmente prevista para el año 1988 sufrió sucesivos retrasos debido a los problemas que causaba la nueva tecnología GaAs, y el proyecto finalmente se canceló. El inventor se desvinculó entonces de la firma que había fundado años atrás e inició a finales de esa década un nuevo proyecto, pero las condiciones del mercado hacían ya entonces insostenible el esfuerzo inversor necesario para fabricar un supercomputador que justificase su viabilidad comercial en términos coste/potencia, fundamentalmente debido a los progresos experimentados en las arquitecturas convencionales RISC y CISC. Para sacar al mercado sus nuevas generaciones de ordenadores Cray, invirtió grandes sumas de dinero, lo que le llevó en 1995 a la bancarrota. Su empresa, Cray Research, fue adquirida ese mismo año por Silicon Graphics.En ese último empeño le sobrevino el fin de su vida, a consecuencia de un accidente automovilístico. A los 71 años de edad y todavía activo en los negocios, la investigación y la ingeniería. En el año 1986, en la cúspide de la gloria de la supercomputación, existían en todo el mundo unos 130 sistemas de este tipo, de los cuales más de 90 llevaban la marca Cray. Stephen Wozniak (1950-) Nació el 11 de agosto de 1950 en California, en la zona que ahora conocemos como SiliconValley. Quizá influenciado por su padre, ingeniero en Lockheed, mostró una clara vocación científica desde niño. El pequeño Woz se divertía jugando con la electrónica y montando radios, voltímetros y calculadoras en casa. A este niño, extremadamente brillante, la escuela le aburría, y en la universidad no tuvo mejor suerte. Primero fracasó en la de Colorado y luego abandonó sus estudios en California para trabajar en Hewlett Packard. Wozniak conoció a Steve Jobs durante los primeros años 70, ambos pertenecían entonces al Homebrew Computer Club, donde pasaban las horas confeccionando cacharros. Pero a Jobs crear juguetitos electrónicos le sabía a poco, en parte por que no era especialmente brillante, y convenció a Wozniak para crear una computadora personal más asequible que la Altair 8800, la primera computadora personal aparecida en 1975. El primer prototipo de la Apple I fue concebido en el dormitorio de Jobs, y construido en su garaje. En 1976 Jobs se deshizo de su coche y Wozniak vendió su calculadora HP para conseguir 1.300 dólares, el capital inicial de Apple Computer Inc., nueva empresa dedicada a comercializar su Apple I por 666 dólares. Sólo el primer año las ventas ascendieron a 774.000 dólares. El mérito de la computadora pertenece más que a nadie a Wozniak, el de las ventas y la creación de la empresa a Jobs. Así que desde un principio ambos tuvieron señalado su papel: Jobs quedó encargado de las labores de marketing y Wozniak de continuar mejorando su máquina, dando lugar a Apple II apenas un año después. Siempre más interesado en los aspectos técnicos del negocio que en otra cosa, Wozniak fue quedando paulatinamente desplazado en la toma de decisiones mientras acumulaba millones de dólares. Todo cambió un día aciago de 1981 en el que Wozniak estrelló contra el asfalto el avión que pilotaba. El resultado, además de graves heridas, fue una amnesia de la que no se recuperó hasta 1983, año en el que volvió a Apple. Dos años más tarde abandonó la empresa por diferencias con la dirección y con más de 100 millones de dólares bajo el brazo. Después de retirarse de Apple, Wozniak ha declarado en varias ocasiones su descontento con el destino de la empresa que ayudó a fundar: "Apple no es la compañía que yo esperaba que fuese". Funda una nueva empresa. CL9,para construir aparatos inalámbricos por control remoto para televisores y electrodomésticos. CL9 cerró a finales de 1989. La verdadera vocación de este amante declarado de los niños y los perros ha resultado ser la enseñanza. Lo descubrió en 1991, mientras enseñaba a su hijo Jesse, de 9 años, el funcionamiento y montaje de un disco duro. Tras su accidente, Wozniak se planteó dos objetivos: terminar sus estudios universitarios de informática e ingeniería en Berkeley en honor a su padre y convertirse en maestro a jornada completa. Wozniak ha alcanzado ambas metas y ahora se dedica a enseñar informática a niños de quinto grado (10 y 11 años) en Los Gatos, California. Gracias a él, la escuela pública de Los Gatos es una de las más modernas del mundo, con 11 modernos laboratorios, distintas conexiones de alta velocidad y todo tipo de cursos tecnológicos para alumnos y profesores. También ha regalado cientos de portátiles y conexiones a Internet a los estudiantes, y aporta fondos a multitud de proyectos de investigación. En sus ratos libres asesora y anima a otras escuelas a informatizarse. Su amor por los niños también le empujó a financiar distintos museos, como el Tech Museum y el Childern? s Discovery Museum, y a intentar acercar el pueblo ruso al norteamericano y a las nuevas tecnologías patrocinando conciertos y convenciones, e invirtiendo en escuelas de informática en la antigua URSS. Todas estas iniciativas le han hecho acumular premios por su labor didáctica, y ser amado y agasajado por multitud de techies, ingenieros e internautas. Wozniak da la impresión de que se ha casado con todas las novias que ha tenido. Y con todas sus ex mujeres tiene una buena relación. Su primera esposa fue Alice Robertson, con la que se casó en 1980 y de la que separó amistosamente. La segunda boda fue en 1987 con Candice Clark, con la que tuvo tres hijos y con la que mantiene una buena relación. La tercera, y por ahora definitiva, en 1990 con Suzanne Mulkern, con la que también ha tenido tres retoños. Actualmente vive en Los Gatos con Suzanne y sus seis hijos. Su principal ambición en la vida es ser un buen padre. Steve Jobs (1955-) Toda la vida de Steve Jobs gira en torno a Silicon Valley (EE.UU.). Allí nació el pequeño Steven en febrero de 1955, allí creció tras ser adoptado por Paul y Clara Jobs y allí ha desarrollado su vida profesional y vive en compañía de su mujer y sus tres hijos. Jobs es uno de los principales nombres propios del panorama tecnológico. Algo digno de tener en cuenta ya que Apple, aunque es muy conocida, no es una empresa especialmente importante y Jobs no es un personaje demasiado extravagante, siempre que no se le compare con Gates. Toda la popularidad de Jobs y de Apple se debe a que son parte de la historia de la informática. Antes de crear Apple junto a Stephen Wozniak, Jobs pasó brevemente y con pocos resultados por el Reed College en Portland (Oregon), trabajó brevemente en Atari, empresa pionera en el mundo de los videojuegos, y en Hewlett-Packard. De la primera obtuvo el dinero suficiente para costearse un viaje a la India, en la segunda conoció a Wozniak. En 1974, de nuevo en California, pasó a formar parte del club de Wozniak Homebrew Computer Club. Pero a Jobs no le bastaba con crear juguetes electrónicos como al resto de los miembros, en parte porque no era demasiado bueno en esos menesteres, y convenció a Wozniak para que trabajase con él en la creación de una computadora personal. Ambos diseñaron el Apple I en el dormitorio de Jobs y construyeron el prototipo en su garaje. Decididos a crear una empresa dedicada a vender sus computadoras personales, consiguieron 1.300 dólares tras vender sus más preciadas posesiones. Jobs se deshizo de su Volkswagen y Wozniak de su calculadora científica HP. En 1976 comenzaron a comercializar su Apple I por 666 dólares. El primer año las ventas ascendieron a 774.000 dólares. En 1985 Apple se quedó sin sus cofundadores. Wozniak se embarcó en CL9 (Cloud 9) y Jobs cedió su puesto, que tras varios cambios lo obtuvo Gil Amelio, y creó la firma de software NeXT Corporation. Jobs está obsesionado por revolucionar el negocio de las computadoras personales, por innovar constantemente el diseño y prestaciones de sus productos, porque sean el resto los que les copien. Efectivamente, Jobs y Apple lo han conseguido má s veces que cualquier otra compañía: en los 70 con el Apple II, en los 80 con el Macintosh y en los 90 con el iMac y el iBook. Pero este empeño, loable en un mundo dominado por Microsoft y los PCs, también estuvo a punto de costarles la existencia. Este afán por innovar fue el que llevó a Jobs a impulsar Pixar Animation Studios, la empresa que abrió nuevos horizontes en el mundo de la animación con su éxito de 1995 Toy Story, el primer largometraje generado completamente por ordenador. Cuando se menciona a Pixar se suele hablar de su genio artístico, John Lasseter, y se olvida a Jobs. Un despiste imperdonable teniendo en cuenta que es su CEO y posee un 64% de la compañía. En 1997, cuando muchos daban por muerta a Apple, Jobs decidió volver a llevar el timón. Sobre todo gracias al iMac y a una fuerte apuesta por Internet, Apple volvió a despertar pasiones y ganar adeptos. Suyo es todo el mérito de la resurrección. Jobs, de 45 años de edad, ha tenido poca suerte en los diferentes retratos que se han hecho de él. Piratas de Silicon Valley es una película que se emitió hace algo más de un año en la televisión norteamericana y que narra la ascensión de Steve Jobs y Bill Gates, mostrando al CEO de Pixar y Apple como un feliz consumidor de diversas drogas en su juventud y un pomposo empresario algo más tarde. Pero fue mucho peor, sin ninguna duda, The Second Coming of Steve Jobs, un libro escrito por Alan Deutchsman que muestra a Jobs como un narcisista inseguro y tiránico, encantado de humillar a sus empleados siempre que puede, y que tras volver a hacerse cargo de su moribunda empresa implantó un reino de terror. Eso en Apple; en Pixar la situación era de lucha constante por imponer su autoridad a unos empleados completamente entregados a Lasseter. Test de Turing En 1950, Alan Turing publicó en la revista Mind el artículo Computing Machinery and Intelligence en el que introducía el concepto de Test de Turing. Este artículo puede considerarse el precursor de muchos de los desarrollos actuales en el campo de la Inteligencia Artificial. El test consistía en juzgar el nivel de inteligencia de una máquina. Se supone un juez situado en una habitación, y una máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitidos mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina. El límite temporal que Turing puso para que una máquina consiga superar el test engañando durante bastante tiempo a un buen interrogador, y no dejándole aclarar si se está dirigiendo a un ser humano o a una máquina, era el año 2000. Transistor En 1947, John Bardeen, Walter Brattain y William Shockley inventaron el transistor, recibiendo el Premio Nobel de Física por ello en 1956. Los microamplificadores, conocidos también como transistores, realizan todas las funciones de los tubos al vacío en el campo de la electrotermia y comunicaciones. Tan solo necesitan una fracción de la corriente y espacio de las viejas válvulas. Pueden fabricarse en diversos sólidos semiconductores. Operan siguiendo la corriente a través de hoyos en los cristales. Constituyen, además, un dispositivo de gran importancia para la fabricación de aparatos de radio y teléfono. El transitor en un dispositivo electrónico de estado sólido. La idea nació al intentar controlar la conducció n de un diodo de unión P-N (semiconductor). Se encontró que cuando sobre un semiconductor se ponían dos puntas metálicas y a una se le aplicaba una cierta tensión, la corriente en la otra venía influenciada por la de la primera; a la primera punta se la denomina emisor; al semiconductor , base y a la otra punta, colector. Posteriormente se encontró que igual fenómeno ocurría si se unían dos semiconductores polarizados en sentido inverso a otro de distinto tipo; así se construyen los transistores de unión, que son los más empleados. Segun la estructura de sus uniones, los transitores pueden se pnp o npn; sustituyen con ventajas a los triodos de vacío y válvulas termoionicas multielectródicas, al menos en lo que a bajas potencias se refiere. Los transitores pueden emplearse tanto en la tecnología analógica como en la digital; ésta debe a los transitores el impresionate auge alcanzado en el último decenio. Para poder entender un poco mejor el efecto del transistor, necesitamos entender como un transistor puede trabajar como un insulador y un conductor. Es la habilidad del transistor de cambiar entre estos dos estados que lo deja cambiar o amplificar. Insulación: Esta animación muesta al transitor en su efecto de cambio cuando el transistor esta hecho para alterar su estado de inicio de conductividad (encendido, la corriente al máximo) a su condicion final de insulacion (apagado y sin flujo de corriente). La animación comienza con la corriente fluyendo desde el emisor (punto E) al colector (punto C). Cuando un voltaje negativo se le aplica a la base (punto B), los electrones en la región base son empujados (dos cargas que se repelen, en este caso dos negativas) creando la insulación. La corriente que fluía desde el punto E al punto C se detiene. Conductividad: Esta animacion muestra muestra el efecto del transistor cuando pasa de su estado de insulación (apagado y sin flujo de corriente) a su estado final de conductividad (prendido, la corriente al maximo). La animacion comienza con el transistor trabajando como un insulador. Para que pueda tener conductividad, voltaje positivo tiene que ser aplicado a la base (punto B). Como las cargas positivas se atraen (en este caso, positivo y negativo), los electrones se halados fuera de los limites y deja que siga el flujo de corriente como lo muestra la figura. El transistor se cambio de insulador a conductor. UNIVAC (Universal Automatic Computer) La construcción de UNIVAC fue comenzada por una corporación formada por J. Presper Eckert, Jr y John W. Mauchly. Debido a problemas financieros para terminar su proyecto de Univac, Eckert y Mauchly se vieron obligados a vender su compañía a a Remington Rand Corp. Trabajando para esta compañía fue que se concluyó el proyecto Univac, en 1951. Univac I fue la primera computadora que se fabricó comercialmente, así como la primera en utilizar un compiler (compilador o autoprogramador) para traducir idioma de programa en idioma de máquinas. Sus principales avances eran el sistema de cintas magnéticas que podían leerse hacia adelante y hacia atrás, con un sistema de zonas tampón y procedimientos de comprobación de errores. Era una máquina decimal con 12 dígitos por palabra, instrucciones de una sola dirección y dos instrucciones por palabra. Su memoria era todavía de líneas de retardo de mercurio y tecnología a válvulas. Su sucesor, el UNIVAC II, sustituiría aquella memoria por una de núcleos de ferrita. El UNIVAC 1103 era una máquina de 36 bits, aritmética por complemento a uno y de punto flotante y, por primera vez, con capacidad de interrupciones. En 1960 Grace Murray Hooper presentó su primera versión del lenguaje COBOL (Common Business- Oriented Language) para UNIVAC. Una UNIVAC I fue vendida por Eckert y Mauchly a la Oficina del Censo para tratar el de 1950. En 1952, Univac (no el modelo original sino otra) se utilizó para computar el resultado de las elecciones presidenciales entre Eisenhower y Adlai Stevenson. El resultado (victoria de Eisenhower) se supo 45 minutos después de que cerraron los colegios electorales. John Louis Von Neumann (1903-1957) Este científico matemático ocupa un lugar privilegiado en la historia de la computación debido a sus múltiples e importantísimos aportes a las computadoras de la primera generación. Nació el 28 de Diciembre de 1903 en Budapest (Hungría), llegando a ser uno de los más brillantes matemáticos de la era de la computación. Von Neumann fue un niño prodigio que a la edad de 6 años podía dividir mentalmente cifras de 8 dígitos. Recibió una temprana educación en su ciudad natal, bajo el tutelaje del matemático M. Fekete conjuntamente con el cual publicó su primer trabajo a la edad de 18 años. En 1921 ingresó a la facultad de Química de la Universidad de Budapest, pero decidió continuar sus estudios en Berlin y Zurich, graduándose de Ingeniero Químico en 1925. Inmediatamente después de graduado volvió a sus investigaciones y estudios de las matemáticas de las cuales fue un apasionado, logrando un doctorado en 1928. Rápidamente ganó una reputación como un excelente matemático y en 1930 fue invitado a visitar la Universidad de Princeton (USA). Al fundarse el Instituto de Estudios Avanzados en 1933, Von Neumman fue elegido como uno de sus únicos 6 profesores matemáticos, actividad que realizó el resto de su vida. A través de los años desempeñó muchas cátedras en universidades de prestigio en todo el mundo, tales como Harvard, Pensilvania, Princeton, Roma, Amsterdam, etc. En 1956 fue elgido miembro ho norario de la Academia de Ciencias Exactas en Lima, Perú. Entre sus trabajos teóricos podríamos citar los relativos a lógica matemática, axiomática de teoría de conjuntos, espacios de Hilbert, álgebras de operadores, teoría de la medida, teoría ergódica, etc. Por otro lado, podrían merecer la calificación de aplicaciones, la fundamentación matemática de la mecánica, la creación de la teoría de juegos, o sus notables aportaciones a las teorías de sistemas y autómatas. Durante la segunda guerra mundial fueron aprovechados sus conocimientos en hidrodinámica, balística, meteorología, teoría de juegos y estadísticas. En 1944 contribuyó en forma directa en los diseños de fabricación de computadoras, asesorando a Eckert y John Mauchly, creadores de la ENIAC y que construyeron además la UNIVAC en 1950. Durante esa década trabajó como consultor para la IBM colaborando con Howard Aiken para la construcción de la computadora Mark I de Harvard. En 1946, en colaboración con Arthur W. Burks y Herman H. Goldstine, Von Neumann escribió uno de los artículos más influyentes en la moderna historia de los computadores: Preliminary Discussion of the Logical Design of an Electronic Computing Instrument. Las ideas que contiene este artículo, que de forma conjunta se conocen con el nombre de Máquina de Von Neumann o Arquitectura Von Neumann, han proporcionado los fundamentos para la construcción y el desarrollo de todos los computadores hasta el momento. Se supone que las radiaciones que estuvo expuesto durante sus trabajos sobre la bomba atómica fueron la causa de su muerte por cáncer el 8 de Feberero de 1957 en Washington DC. Walter Brattain (1902-1987) Brattain nació en Amoy (China), en 1902. Llevó a cabo su preparación académica en Estados Unidos, en las universidades de Oregón y Minnesota, y obtuvo el doctorado en Ciencias. La Universidad de Portland, en 1929, le concedió el título de doctor honoris causa. Su vida profesional incluye el desempeño de diversos cargos en el National Bureau of Standards de Estados Unidos, en los laboratorios de la Compañía Telefónica Bell y en la Universidad de Columbia. Habiendo dedicado su actividad científica al campo de la investigación termoiónica y de los semiconductores, hizo notables aportaciones para el rápido progreso de la ciencia en el sector de la física de estados sólidos, y junto con sus colaboradores Shockley y Bardeen, pudo crear el transistor. Los principios físicos en que éste se funda eran conocidos desde los comienzos de la radiotelefonía; pero el perfeccionamiento que hizo posible su empleo culminó en 1948, cuando los tres científicos estadounidenses, tras arduas experimentos e investigaciones, pudieron crear el llamado transistor de punto de contacto. El empleo de este tipo de transistor, que se generalizó a partir de 1952, representa uno de los más notables progresos en electrónica y constituye uno de los más grandes avances científicos de este siglo. Así, en 1956, le fue concedido el premio Nobel de Física, honor que compartió con sus compatriotas, doctores William B. Shockley y John Bardeen, por los trabajos que llevaron a cabo en la Bell Telephone Co., y que culminaron con la invención del transistor, así como por sus ulteriores perfeccionamientos. William Gates (1955- ) Mary Maxwell y Bill Gates Jr tuvieron a su primera hija Kristi en 1954 y el 28 de octubre de 1955, en Seattle, poco después de las 9 de la noche, nació William Henry Gates III, conocido mundialmente como Bill Gates. Pero en su familia nunca nadie lo llamó así. Desde que su abuela le puso como apodo Trey, porel número III, este se convirtió en su verdadero nombre. Mary pertenecía a una prominente familia del noreste de los Estados Unidos. Fue maestra de escuela y llegó a ser directora de la Universidad de Washington. Participó del directorio de distintas organizaciones, incluyendo United Way International. Bill Jr empezó su carrera como asistente del fiscal público de Bremerton, hasta convertirse en un prestigioso abogado. A los 9 años nació su hermana menor Libby. Por entonces uno de los pasatiempos favoritos de Bill era leer la enciclopedia por estricto orden alfabético. Cuando estaba en sexto grado Bill Gates se encerraba en el sótano. Un día su madre preocupada le preguntó que hacía. El le contestó lacónicamente :"Estoy pensando". "¿Estás pensando?", insistió Mary. El, fastidiado respondió: "Si mamá, estoy pensando. ¿Alguna vez trataste de pensar?. Desorientados, sus padres lo mandaron al psicólogo, pero éste simplemente dijo que debían adaptarse al chico. En 1967, al terminar séptimo grado lo sacaron de la escuela pública y lo enviaron para que cursara la secundaria en un colegio de élite, el Lakeside School. El destino hizo que el año siguiente la escuela se convirtiera en una de las primeras de los Estados Unidos en tener acceso a una computadora. Al poco tiempo Bill se convirtió en un adicto a la computadora, pasando todo su tiempo libre en aquel lugar. Allí conoció a un muchacho dos años mayor que él, Paul Allen. En 1969, Bill, Paul y dos estudiantes más decidieron fundar una empresa. Hasta el año 1970, se dedicaron a testear las computadoras de la firma Computer Center Corporation sin cobrar, pero teniendo acceso gratuito a las máquinas. En 1973, luego de terminar el colegio se inscribe en la universidad de Harvard, donde comenzó sus estudios de ingeniería electrónica, cursando matemáticas, física y computación. Antes de abandonar la universidad consiguió un trabajo y fundó la empresa Traf-O-Data, que sería el precursor de Microsoft. Publicó el número de teléfono de su flamante empresa en el periódico universitario y tuvo suerte, alguien lo llamó y le encargo un programa para analizar el tráfico de unas cuantas ciudades pequeñas cercanas a Seatle. A los 18 años y tras dos semanas de trabajo, presentó su trabajo y cobró 20.000 dólares, con los que compró un Ford Mustang rojo que costó 3.000 dólares. En enero de 1975, Paul Allen, lo llamó con urgencia para que viera la tapa de la revista Popular Electronics. Allí aparecía el prototipo de la primera computadora hogareña, la MITS- Altair 8800. Allen le dijo: "Bill, no podemos quedarnos al margen". Gates y Allen fundaron una nueva firma, Microsoft. Su objetivo era participar en forma activa en el desarrollo de la era de las computadoras. La computadora hogareña existía, pero no existía un lenguaje para una máquina tan pequeña. Entonces Gates llamó por teléfono a Ed Roberts, el presidente del MITS y le dijo que había creado una forma del lenguaje BASIC para una microcomputadora. Roberts le contestó: "Traígamelo y usted será el primero en hacer el negocio". Bill y Paul no tenían la menor idea de cómo iban a adaptar el BASIC al microchip. Empezaron a trabajar como poseídos y no dormían más de dos horas por día. Bill estuvo escribiendo el programa prácticamente hasta el último momento. En febrero de 1975, Paul Allen viajó a Albuquerque a llevarle el BASIC al presidente del MITS y funcionó. En abril firmaron un contrato entre Microsoft y MITS. Allen se instaló en Albuquerque y estableció el cuartel general de Microsoft en un motel de la legendaria Ruta 66. Gates iba y venía de Harvard, hasta que en enero de 1977, a la edad de 21 años, decidió abandonar la Universidad, para dedicarse definitivamente a Microsoft. Gates adquirió un 64 % de la empresa y Allen un 36%. El 1 de enero de 1979 se trasladaron a Seattle, para estar mas cerca de sus familias. La relación entre los socios era de constantes peleas, pero la química entre ambos funcionaba a la perfección: Gates era adicto al trabajo y Allen era un soñador. En 1980 le solicitó a su ex compañero de cuarto en la facultad, Steve Ballmer, que se convirtiera en vicepresidente de ventas. Ese año IBM decidió subirse al tren de las PC. Necesitaban un sistema operativo. Gates, Allen y Ballmer no tenían tiempo para crear un nuevo sistema. La computadora debía salir a la venta a mediados de 1981. Gates recordó que Tim Paterson de la firma Seattle Computers había creado el Q-DOS (Quick n? Dirty Operating System). Gates fue a hablar con Patterson y le preguntó si sería posible facilitarle la licencia a un cliente. Este consintió sin saber de que clientes se trataba. Luego siguieron negociando y finalmente Microsoft adquirió todos los derechos del Q-DOS por 75.000 dólares. Le cambió el nombre por MS-DOS (Microsoft Disk Operating System). En febrero de 1981 se cargó por primera vez una versión del MSDOS en una IBM y aunque estaba repleta de errores salió a la venta en julio. En 1983, Paul Allen fue diagnosticado con la temible enfermedad de Hodgkin. Allen abandonó Microsoft argumentando que no soportaba la constante presión de la empresa. Se tomó dos años sabáticos. Para Bill Gates fue un duro golpe. Le pareció que su amigo lo había abandonado y tomó la decisión de que Allen no volviera a incorporarse a la firma. Cuando Allen superó la enfermedad fundó Asymetrix, su propia compañia de software. En una conferencia de computación conoció a la empresaria de software, Ann Winblad. Comenzaron a salir y a tener citas muy particulares. Por ejemplo iban a ver la misma película al mismo tiempo, cada uno en una ciudad distinta. Al terminar la proyección se hablaban a traves de sus celulares para comentar lo que habían visto. Cuando se iban de vacaciones se llevaban gigantescos libros de física para leer juntos. El 13 de marzode 1986 pusieron a la venta las acciones de Microsoft en la bolsa. Bill Gates se convirtió ese mismo día en el multimillonario más joven de los Estados Unidos. Paul Allen, con menos acciones también se volvió millonario. Juntos donaron 2.2 millones de dólares al colegio Lakeside para construir un edificio para ciencias y matemáticas al que se denominó Allen Gates Hall. En 1987 terminó su relación con Ann porque ella, cinco años mayor que él, quería casarse. En 1992 recibió de manos del presidente norteamericano George Bush, la Medalla Nacional de Tecnología. El 1 de enero de 1994 se casó en Lanai, Hawaii, con Melinda French, una manager de Microsoft. El padrino de la boda fue su amigo Steve Ballmer. Comenzó a edificar su futura residencia en Seattle con un costo estimativo de 40 millones de dólares. Estará poblada de pantallas digitales que cambiarán automáticamente a gusto de la persona. Podrá ver sus imágenes favoritas, acompañadas de su música predilecta. Ese mismo año murió su madre y en su homenaje llamaron con su nombre la calle de Seattle en donde vive el padre de Bill. En noviembre pagó 32.5 millone s de dólares por un manuscrito de 72 páginas, original de Leonardo Da Vinci., por el que su antiguo dueño Armand Hammer había pagado apenas 5 millones en 1980. El 24 de agosto de 1995 salió a la venta en los Estados Unidos, el WINDOWS 95, arrasando con todas las expectativas de venta. Apenas salió al mercado se agotó y es hasta hoy en día el más importante producto de software de Microsoft. Escribió el libro Camino al Futuro que estuvo primero en la lista de best sellers durante 7 semanas. Sus regalías las donó a una fundación internacional de maestros que trabajan con computadoras en clase. Se asoció con Steven Spielberg en DreamWorks, compró el 80% de Ticketmaster, el 20% de America Online y metió baza en los imperio de Time-Warner y TCI.. El 26 de abril de 1996 nació su hija Jennifer Katherine Gates. Bill Gates es hoy por hoy el hombre más rico del mundo pero su idea es dirigir Microsoft por sólo 10 años más para luego dedicarse a la filantropía. Piensa dejarle a su familia sólo el 2% de su fortuna y regalar el 98% restante. William Shockley (1910-1989) William Bradford Shockley nació en Londres el 13 de febrero de 1910, aunque sus padres eran norteamericanos y sólo 3 años después de su nacimiento se lo llevaron a vivir a Palo Alto, California. Su padre era un ingeniero y su madre una topógrafa de minas. Considerando que le podrían dar a su hijo una mejor educación en casa, los Shockleys mantuvieron a William sin ir a la escuela hasta que cumplió 8 años. Aunque su educación probaría más tarde ser de excelente nivel, este aislamiento hizo que el pequeño William tuviera muchos problemas para adaptarse a su entorno socia l. La madre de William le enseñaba matemáticas, y ambos padres le motivaban sus intereses científicos, aunque una influencia particularmente importante para él en esos días fue su vecino Perley A. Ross, que era profesor de física en Stanford. A los 10 años de edad, William visitaba constantemente la casa de Ross, y jugaba con las 2 hijas del profesor. Shockley pasó 2 años en la Academia Militar de Palo Alto antes de ingresar a la Preparatoria de Hollywood en Los Angeles. Durante un corto tiempo asistió también a la Escuela de Entrenamiento de los Angeles, en la que estudió física. Fue ahí que descubrió que tenía un talento innato para esa disciplina: solía encontrar con cierta facilidad formas de resolver problemas que diferían de las soluciones tradicionales que proporcionaban sus maestros. Pese a ser el mejor estudiante de física de su escuela, Shockley se decepcionó al no recibir el premio en esta disciplina al graduarse, pues éste le fue negado por haber tomado clases de física en otra escuela. En el otoño de 1927 ingresó a la Universidad de California en Los Angeles, pero tras sólo un año ahí ingresó al prestigioso Instituto de Tecnología de California (Cal Tech), en Pasadena. William terminó su licenciatura en física en 1932, y posteriormente obtuvo una beca para estudiar en el Instituto Tecnológico de Massachusetts (MIT), de donde se doctoró en 1936. Después de doctorarse, Shockley tenía ofertas para trabajar en General Electric y la Universidad de Yale, pero eligió los Laboratorios Bell de Murray Hill, New Jersey, porque eso le permitiría colaborar con C. J. Davisson, cuyo trabajo en la difracción de los electrones le valdría obtener más tarde el Premio Nobel. A su entrada a Laboratorios Bell, Shockley tuvo cortas estancias en diferentes departamentos a fin de que pudiera adquirir un conocimiento tecnológico más general. Posteriormente se unió al departamento de tubos de vacío, encabezado por Davisson. Una preocupación del director de investigación de Laboratorios Bell de aquella época (Mervin J. Kelly) era que con los años crecería la demanda del sistema telefónico, y que los relevadores no serían suficientes, por lo que creía que debía hallarse una manera de controlar el equipo telefónico de manera electrónica. Esa conversación tuvo una gran influencia sobre Shockley, a pesar de que Kelly pensaba erróneamente que los tubos de vacío serían los sustitutos de los relevadores. Durante la Segunda Guerra Mundial, Shockley no se involucró en física en lo más mínimo. Abandonó temporalmente Laboratorios Bell para servir como director de investigación del Grupo Anti-Submarinos de Investigación de Operaciones de Guerra entre 1942 y 1944, y como asesor experto para la Oficina de la Secretaría de Guerra en 1944 y 1945. En la estación de campo de Bell en Whippany, New Jersey, realizó el diseño electrónico del equipo de radar. Shockley obtuvo la condecoración civil más elevada de la época: la Medalla al Mérito. La mayor parte de sus contribuciones tuvieron que ver con el uso del radar en los bombarderos B-29. Shockley regresó a Laboratorios Bell después de la Segunda Guerra Mundial, para continuar con su trabajo en física del estado sólido, con la esperanza de encontrar una alternativa a los tubos de vacío, usando ahora los nuevos descubrimientos en física cuántica que lo motivaron a investigar los intrigantes semiconductores. En julio de 1945 Shockley se volvió codirector del programa de investigación en física del estado sólido. El trabajo realizado a principios de los 40s por Russell S. Ohl (otro empleado de Laboratorios Bell) en los semiconductores convenció a Shockley que debía ser posible producir una nueva forma de amplificación usando la física del estado sólido. De hecho, ya en 1939 Shockley había intentado producir, junto con Walter Brattain (un investigador veterano de Laboratorios Bell) un amplificador de este tipo usando óxido de cobre, pero sin tener éxito. Fue John Bardeen el que logró descrifrar el enigma, y en 1947 logró construir junto con Brattain el primer amplificador funcional usando germanio. Los Laboratorios Bell acordaron otorgar licencias para el uso del transistor a cualquier firma a cambio de un pago de regalías. Sólo los fabricantes de aparatos para la sordera no tenían que pagar dichas regalías, como un tributo a la memoria de Alexander Graham Bell que en vida ayudó tanto a los sordos. Los transistores fueron usados por el público por primera vez en 1953, en la forma de amplificadores para los aparatos contra la sordera. En 1954 se desarrolló la radio de transistores y en febrero de 1956 el Laboratorio de Computadoras Digitales de MIT empezó a desarrollar en colaboración con IBM una computadora transistorizada. En 1957 y 1958 UNIVAC y Philco produjeron las primeras computadoras comerciales de transistores. Shockley fue nombrado Director de Investigación de la Física de los Transistores en Laboratorios Bell en 1954. Shockley decidió independizarse en 1955, y fundó el Laboratorio de Semiconductores Shockley en una ladera de Mountain View, al sur de Palo Alto, California. La empresa de Shockley fue el origen de lo que hoy se conoce como el Valle del Silicio, y a pesar de lograr atraer a algunos de los científicos más connotados de su época, eventualmente fracasó debido a su falta de tacto para con sus empleados. El punto de quiebra vino en 1957, cuando sus 8 ingenieros principales se molestaron con él porque se negó a concentrarse en los transistores de silicio, que ellos creían que serían más fácil de comercializar que los de germanio. Ante la negativa de Shockley, lo s "8 traidores", como él los llamaría después, decidieron renunciar y fundaron su propia empresa, llamada Fairchild Semiconductor, que recibió apoyo financiero del industrial Sherman Fairchild. El tiempo le daría la razón a los empleados de Shockley, y eve ntualmente la mayor parte de las firmas de semiconductores del Valle del Silicio se derivarían a la exitosa Fairchild Semiconductor. Shockley hubo de vender su empresa a Clevite Transistor en abril de 1960, quedándose como asesor. En 1958 comenzó a dar clases en Stanford, y en 1963 fue nombrado el primer Presor Alexander M. Poniatoff de Ingeniería y Ciencias Aplicadas. Como científico, hizo todavía varias aportaciones más a la electrónica y campos afines, y llegó a acumular más de 90 patentes a lo largo de su vida. En sus ratos libres gustaba del alpinismo, y llegó a escalar algunas de las montañas más elevadas de los Alpes, incluyendo la Jungfrau y Mt. Blanc (con su hija Alison en 1953). Más tarde se aficionó a la vela, aunque un serio accidente automovilístico acaecido el 23 de julio de 1961 lo obligó a retirarse del deporte. En 1965 regresó a Laboratorios Bell como asesor de tiempo parcial, y se retiró de ese empleo en febrero de 1975, y de Stanford en septiembre del mismo año. Un día Shockley leyó cómo el dueño de una panadería había quedado ciego a consecuencia del ácido que un adolescente con un CI (Coeficiente Intelectual) de 70 le había arrojado. Este adolescente era uno de los 17 hijos que tenía una señora con un CI de 55. El artículo lo afectó tanto que a partir de ese momento entonces comenzó a incursionar en el controversial campo de la disgenia, que es algo así como la evolución inversa (o involución) causada por la reproducción excesiva de los que tienen desventajas genéticas. Shockley propuso que las fundaciones privadas ofrecieran dinero a aquellas personas con hemofilia, epilepsia, y bajo CI que accedieran a ser esterilizadas. Esto contribuiría, según él, a detener "el brutal mecanismo de eliminación de la evolución". En particular, Shockley dirigió sus ataques contra los negros, a los cuales él consideraba "más aptos para labores físicas", pero inferiores intelectualmente, pues según él, obtenían consistentemente puntuaciones más bajas que sus compañeros blancos en la pruebas de CI. Resulta innecesario decir las controversias que estas declaraciones originaron. Su efigie fue quemada públicamente en Stanford, su coche fue pintado con spray, sus clases fueron interrumpidas por estudiantes vestidos con sábanas blancas, y en diversos medios de comunicación se le calificó de racista. Aún en el ojo del huracán, Shockley no cesó su campaña, y llegó incluso a lanzarse como candidato a senador por el partido republicano en 1982, quedando en octavo lugar. Ante la controversia tan enconada, la misma Academia Nacional de las Ciencias de Estados Unidos hubo de intervenir. Aunque la controversia en torno a la disgenia continúa hasta nuestros días, la vida de Shockley se apagó el sábado 12 de agosto de 1989, cuando éste murió de cáncer de la próstata en su casa en el campus de Stanford a los 79 años de edad. Sin embargo, tal vez no hemos oído todo lo que tenía que decir, pues se sabe que el controversial científico logró convencer al multimillonario Robert K. Graham de patrocinar un banco de esperma de ganadores de premios Nobel, en un intento por "controlar la producción de genios en el mundo, para balancearlo y protegerlo de los menos dotados intelectualmente". Adivine quién fue el primero en donar esperma a este banco. Z3 (1941) Durante 1936 y 1939, en Alemania, Konrad Zuse construyó la primera computadora electromecánica binaria programable, la cual hacía uso de relés eléctricos para automatizar los procesos. Sin embargo, tan sólo fabricó un prototipo para pruebas al cual llamó Z1, el cual nunca llegó a funcionar debido a la falta de perfeccionamiento en sus elementos mecánicos. En 1940, Zuse terminó su modelo Z2, el cual fue la primera computadora electromecánica completamente funcional del mundo. Al año siguiente, en 1941, fabricó su modelo Z3 pare el cual desarrolló un programa de control que hacía uso de los dígitos binarios. Sin embargo esta computadora fue destruida en 1944 durante un bombardeo. Konrad Zuse se había basado para el diseño de sus computadores en los recientes trabajos de Alan Turing. La Z3, programada mediante una cinta perforada, tenía 2000 relés (electroimanes), un peso de 1000 Kg, una memoria de 64 palabras de 22 bits (equiv. a 176 bytes) y un consumo de 4000 watts. Una adición demoraba 0,7 segundo y una multiplicación o división 3 segundos.