Historia de la Informática http://www.informatica-pc.net/historia/historia.php El origen de la informática hay que buscarlo en el inicio del desarrollo de métodos de cómputo o cálculo por parte del hombre y el ingenio de diversos personajes históricos (unos, avanzados para su tiempo y otros, que encontraban inspiración en sus antecesores). Los saltos en el tiempo entre los avances históricos hay que entenderlos analizando las circunstancias: los científicos veían muchas veces cómo se frustraban sus intentos de materializar las ideas debido a las limitaciones y/o necesidades de su época. 1.Primeros instrumentos de cálculo. Hace 5.000 años los egipcios ya utilizaban las decenas numericas en los jeroglíficos y es en esa época cuando se estima que surge el primer instrumento de cálculo del que se tiene constancia, el ábaco. Su procedencia originaria es muy discutida. En un principio se hacían los cálculos (sumas y restas) sobre unas líneas hechas en la arena y utlizando piedras o semillas (Sáhara) o desplazando estos mismos elementos por el interior de una caña abierta, como en la antigua Mesopotamia. El intercambio cultural que se producía debido a la expansión del comercio entre los pueblos y las conquistas bélicas llevaría a la modificación o perfeccionamiento del ábaco. El formato con marco de madera, varitas metálicas o hilos y bolitas móviles fue creado en China y modificado en Japón y en Rusia. La dimensión que adquiere el ábaco dentro de la historia del cómputo es comprensible cuando se tiene en cuenta que, incluso tras el paso de cinco milenios, en la actualidad sigue siendo un objeto de uso común en China, Japón y Rusia, sobre todo en algunas escuelas primarias. 1 2. Mentes precursoras. En 1614 el escocés John Napier (1550-1617) publica una obra en la que se explica por vez primera el uso de logaritmos, funciones matemáticas que permiten transformar las multiplicaciones en sumas y las divisones en restas, y en 1617 da a conocer el ábaco rabdológico cuya función era calcular productos y cocientes. Estaba compuesto por una tabla numerada en un lateral y varias varillas de marfil. La peculiar tonalidad de este material hizo que el invento recibiera el apelativo de huesos de Napier. Unos pocos años más tarde, entre 1620 y 1630, aparece la regla de cálculo, invento que se atribuye a William Oughtred (1574-1660), reconocido matemático de la época y amigo de John Napier. La regla de cálculo permite realizar operaciones aritméticas mediante escalas basadas en los logaritmos: se emplean líneas superpuestas de números que se desplazan, permitiendo realizar los cálculos. En 1623 el astrónomo alemán Wilhelm Schickard (1592-1635) inventa la primera máquina de cálculo, a la que llamó reloj calculador y que fue ideada para ser usada por su amigo astrónomo Johannes Kepler, a quien escribió unas cartas en las que adjuntaba diversos bocetos del invento y detallaba su funcionamiento (usaba discos dentados), lo que sirvió para hacer 2 una reconstrucción a escala que está expuesta en el Museo de la Ciencia de Munich. Esto fue posible gracias al historiador Franz Hammer que, en 1935 y revisando la correspondencia que se conservaba de Kepler descubrió el invento de Shickard perfectamente detallado. El físico y matemático francés Blaise Pascal (1623-1662) desarrolló en 1642 un calculador mecánico, primeramente llamado Máquina aritmétca, y después Pascalina, para realizar sumas que usaba un sistema de ruedas dentadas similar al que ideó Schickard. Durante mucho tiempo se le consideró erróneamente el inventor de la primera máquina de cálculo, e incluso en la actualidad muchas fuentes lo citan como tal, obviando la creación de su antecesor. Incluso uno de los primeros lenguajes de programación informática lleva su nombre: el lenguaje Pascal (1970). Gottfried Wilhelm Leibniz (1646-1716), filósofo, matemático, físico, jurista y político alemán, máximo exponente del pensamiento barroco, tiene también un lugar importante dentro de la historia de la informática. Aparte de la creación, 3 paralelamente a Newton, del cálculo infinitesimal, descubrió el cálculo diferencial y fue el precursor de la lógica matemática, proponiendo un sistema binario para la realización de cálculos. También inventó una máquina de cálculo que se llamó calculadora universal, capaz de realizar sumas, restas, multiplicaciones, divisiones e, incluso, raíces cuadradas. su elemento característico era un tambor cilíndrico con nueve dientes de longitud variable, llamado rueda escalonada o rueda de Leibniz, que se encuentra en prácticamente todas las calculadoras mecánicas posteriores, incluso en algunas del siglo XX. En 1801 el francés Joseph Marie Jacquard (1752-1834) inventó un mecanismo para maquinaria textil que se basaba en el uso de tarjetas perforadas. Unas placas o moldes metálicos perforados, unidos por medio de correas, permitían contolar la creación de complejos diseños textiles que confeccionaban las máquinas de tejer. Posteriormente se utilizaría este sistema para reproducir música en pianolas y organillos, y diversos juguetes mecánicos. 4 El matemático e ingeniero británico Charles Babbage (17911871) es considerado el auténtico padre de los ordenadores. Debido a los numerosos errores que se producían en el cálculo de tablas matemáticas, tuvo la idea de crear una máquina que ejecutara ese trabajo, eliminando el error humano, y facilitando la tarea de realizar operaciones repetitivas. En 1822 presentó un proyecto para el desarrollo de una máquina diferencial, como él la llamó, en la Royal Astronomical Society, capaz de resolver polinomios de segundo grado mediante un método numérico diferencial. Recibió una subvención para construir un modelo más grande, tarea que acabó abandonando por los problemas ocasionados en la fabricación de las piezas y sus ocasionales cambios de diseño para intentar merjorar la máquina. En 1833, Charles Babbage se centró en un nuevo proyecto: una máquina que tuviera un propósito general, capaz de resolver múltiples problemas matemáticos. La llamaría máquina analítica. Funcionaba a vapor y constaba de un mecanismo de entrada y salida mediante tarjetas perforadas basadas en el modelo de Jacquard, una memoria para 1.000 números de 50 cifras, una unidad de control para que las operaciones se realizasen en el orden correcto y una unidad aritmético-lógiaca para los cálculos. Incluso disponía de un sistema de impresión en papel similar al que se usaba en varias décadas del siglo XX. Este invento es considerado el primer ordenador de la historia. Babbage contó con la colaboración de la matemática Ada Augusta Byron (1815-1852), Condesa de Lovelace e hija de Lord Byron, quien, fascinada por el trabajo del inventor, participó en el patrocinio y la promoción de la máquina analítica, para la cual escribió diversos programas para resolver ecuaciones trascendentes e integrales definidas. De este modo se considera a Ada Byron (también conocida como Ada Lovelace) como la primera programadora de ordenadores del mundo. En su honor se llamó Ada al lenguaje de programación multipropósito desarrollado en 1979 a instancias del Departamento de Defensa de los Estados Unidos, que buscaba estandarizar los numerosos programas que existían. Charles Babbage murió sin lograr terminar de construir su gran invento, pero sus ideas y diseños sentarían las bases para el desarrollo, décadas después, de los ordenadores modernos. 5 George Boole (1815-1864), matemático y filósofo británico, hizo público en 1854 un estudio sobre las leyes del pensamiento en las que se basan las teorías matemáticas de la lógica y la probabilidad, aplicando símblos a operaciones lógicas estructurados según el álgebra convencional. Surge así el álgebra de la lógica (álgebra de Boole), que el siglo siguiente sería aplicado en la construcción de ordenadores y circuitos. Herman Hollerith (1860-1929), ingeniero neoyorquino de origen alemán, consiguió por vez primera automatizar el procesamiento de grandes cantidades de información con la ayuda de un aparato de propia creación: la máquina censadora o tabuladora. En 1879 Hollerith comenzó a trabajar como asistente para la oficina del censo. Ahí pudo comprobar la precariedad del sistema manual que se utilizaba para censar a la población: en 1880 la población de Estados Unidos llegaba a los 50 millones de personas, y el trabajo para hacer el recuento llevó 7 años y medio. Eso le llevó a desarrollar un sistema de cómputo automatizado, y lo hizo diseñando una máquina que utilizaba tarjetas en las que se representaba la información (nombre, dirección, sexo, edad, raza...) mediante perforaciones, que eran detectadas por la máquina, clasificando (tabulando) debidamente la información según la lógica de Boole. El censo de 1890 se logró completar en 2 años y medio, a pesar de que la población había aumentado en más del 20%. En 1896 Hollerith fundó su propia compañía, Tabulating Machine Company, que en 1911 se fusionó con otras dos empresas, formando así la Computing Tabulating Recording Company (CTR), esta a su vez pasa a manos de Thomas Watson en 1914 y, diez años más tarde, en 1924, toma el nombre de International Business Machines (IBM). 6 3. Primeros avances en el siglo XX. En el año 1900 se celebró en París el Congreso Internacional de Matematicas, donde el matemático ruso David Hilbert formuló una pregunta clave: ¿existe un método definido que pueda aplicarse a cualquier sentencia matemática y que nos diga si esa sentencia es cierta o no? En agosto de 1936, Alan Mathison Turing (1912-1954) publicó un artículo que venía a dar respuesta a la pregunta formulada por David Hilbert mediante el concepto de la Máquina de Turing: una máquina teórica que sería capaz de transformar con precisión operaciones elementales previamente definidas en símbolos en una cinta de papel. Prácticamente al mismo tiempo, en Estados Unidos, Alonzo Church (1903-1995) dió a conocer el cálculo lambda, un trabajo equivalente, naciendo así la Tesis de Church-Turing. De esta forma, Turing y Church son considerados unos de los padres de la Ciencia de la Computación y la Inteligencia Artificial. Basándose en esos fundamentos, el ingeniero alemán Konrad Zuse (1910-1995) construyó en 1938 la Z1, un prototipo de computadora electromecánica de sistema binario que podía ser programada de forma limitada y que usaba relés eléctricos para automatizar los procesos, leyendo las instrucciones de una cinta perforada. No llegó a funcionar correctamente debido a la imperfección de alguna de sus piezas mecánicas. En 1940 concluyó la construcción de la Z2, modelo perfeccionado con relevadores telefónicos, y en 1941 creó la Z3, que disponía de una memoria de 64 palabras, un procesador con dos registros, una unidad de lectura de cinta perforada y una unidad de control que decodificaba una instrucción leída en la cinta perforada y transfería estos datos dentro de la máquina y los dispositivos de entrada/salida. En el bombardeo aliado sobre Berlín en 1944, la Z3 original fue destruida. Konrad Zuse no recibió el apoyo del régimen Nazi, por lo que tuvo que financiarse todos sus proyectos y, en su momento, tampoco obtuvo el reconocimiento del exterior que sí recibieron otros contemporáneos. Aún así, fundó varias empresas propias y, en 1950, realiza la primera venta de un ordenador de la historia, el modelo Z4, a una compañía suiza. El ingeniero electrónico y doctor en física teórica estadounidense de origen búlgaro John Vincent Antanasoff (1903-1995) es considerado el inventor del ordenador digital 7 electrónico, después de una resolución judicial en la que se vió envuelto indirectamente. Como le ocurrió a Konrad Zuse, Antanasoff quería encontrar una manera de agilizar los numerosos cálculos que debía realizar, así que comenzó a desarrollar ideas para la construcción de una máquina para tal fin, más eficiente y rápida que las del momento. Según relató, Antanasoff concibió la idea final en una taberna de Iowa (invierno de 1937), donde estableció los cuatro principios básicos en los que se fundamentaría su invento: el uso de electricidad y componentes electrónicos, un sistema binario, condensadores como elementos de memoria y un sistema lógico para el cómputo y no la enumeración, como ocurría con las máquinas análogas. La construcción se realizó entre 1937 y 1942, y Antanasoff contó con la ayuda de Clifford Edward Benning, un alumno de ingeniería eléctrica recomendado por un profesor. En diciembre de 1939 habían terminado un prototipo que funcionaba correctamente y al que llamarían ABC (Antanasoff Berry Computer). En 1940, Atanasoff asiste a una lectura del Dr. John William Mauchly y le muestra su máquina. Mauchly copia muchas ideas de la ABC para diseñar junto con John Presper Eckert la ENIAC, considerada la primera computadora digital electrónica del mundo, hasta que en 1967 un litigio entre dos compañías, Honeywell y Sperry Rand Corporation (que había adquirido la patente sobre la ENIAC), provocó que el juez llamara a declarar a Antanasoff, de quien encontró referencias durante el proceso y quien nunca supo del uso de sus diseños por parte de Mauchly y Eckert para el desarrollo de la ENIAC. Tras seis años de litigio entre las dos empresas, el que salió vencedor fue Atanasoff, quien no había demandado a nadie ni tenía interés en el asunto y resultó ser el principal perjudicado por las grandes compañías. El juez Earl R. Larson, de Minneapolis, sentenció el 19 de octubre de 1973 que la patente del ENIAC no era válida. En 1938 se publicó la tesis del ingeniero eléctrico y matemático estadounidense Claude Elwood Shannon (1916-2001), sobre la teoría matemática de la comunicación, en la que demostró cómo el álgebra de Boole se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales y cómo la combinación de circuitos podía representar operaciones aritméticas y lógicas complejas, relacionando así lógica y electrónica. Las aportaciones de Shannon serían fundamentales también en el desarrollo de la criptografía y los sistemas de compresión de datos. En febrero de 1944, el ingeniero estadounidense Howard Hathaway Aiken (1900-1973), financiado por IBM, termina la construcción del ordenador electromecánico MARK I, basándose 8 en los diseños de la máquina analítica de Charles Babbage. Tenía unas dimensiones gigantescas: medía unos 15,5 metros de largo, unos 2,40 metros de alto y unos 60 centímetros de ancho, su peso era de unas cinco toneladas y en su interior se repartía un cableado de unos 800 kilómetros de longitud con casi 3 millones de conexiones. Estaba compuesta por unas 750.000 piezas, cerca de 1500 interruptores rotatorios de diez posiciones. Hacía uso del sistema decimal en lugar del binario, y contenía 72 registros mecánicos, cada uno de los cuales podía almacenar 23 dígitos decimales más un dígito para el signo. Para la compañía IBM fue el comienzo de su larga y de sobra conocida trayectoria como fabricante de ordenadores. En febrero de 1944, un proyecto secreto británico durante la Segunda Guerra Mundial derivó en la construcción de Colossus, un ordenador digital destinado a leer y descifrar los códigos alemanes, quienes utilizaban la máquina encriptadora Enigma para el envío de instrucciones al frente. Hasta entonces no se había encontrado un sistema de descifrado eficaz contra la máquina alemana. Colossus fue diseñado por el ingeniero británico Thomas Harold Flowers (1905-1998) y estaba compuesta originalmente por 1.500 válvulas electrónicas (tubos de vidrio al vacío), un lector fotoeléctrico que recibía los datos mediante una cinta perforada, poseía una memoria de cinco caracteres de cinco bits, su velocidad de proceso era de 5.000 hercios y empleaba el sistema binario. Tenía unas medidas de 2,25 metros de alto, 3 metros de largo y 1,20 metros de ancho. Hasta el final de la guerra se construyeron varios modelos más de Colossus, contando con la participación de Alan Turing. 4. Primera generación: tubos de vacío (1946-1959). 9 El 15 de febrero de 1946 se hace una presentación pública en la Universidad de Pennsylvania del ENIAC, acrónimo inglés de Electronic Numerical Integrator And Computer (integrador electrónico numérico y computador). Fue el primer computador digital electrónico de propósito general, construido conjuntamente por el ingeniero John Presper Eckert (1919-1995) y el físico John William Mauchly (1907-1980). Pesaba 32 toneladas y medía 2,40 metros de ancho por 30 de largo. Estaba compuesto por 17.460 válvulas, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de soldaduras, produciendo tal calor que la temperatura de la sala en que se encontraba llegaba a los 50ºC. Disponía de capacidad para resolver en un segundo 5.000 sumas y 360 multiplicaciones, aunque para reprogramarla era preciso cambiar de posición las conexiones de los cables, lo que requería un trabajo muy laborioso. El Ejército de los Estados Unidos hizo uso del ENIAC para el cálculo de tablas balísticas. En 1951 hace aparición la UNIVAC, acrónimo de Universal Automatic Computer (computadora automática universal), creada por Eckert y Mauchly. Se fabricó comercialmente, siendo vendida a la Oficina de Censos de los Estados Unidos. Estaba constituida por 5.200 válvulas, tenía una velocidad de proceso de 2,25 megahercios y una memoria de 1.000 palabras de 12 caracteres. Su peso superaba las 13 toneladas. 10 En 1952 se concluyó la construcción del EDVAC, siglas inglesas de significado Electronic Discrete Variable Automatic Computer (computadora electrónica automática de variabe discreta). Diseñada por Mauchly y Eckert, a quienes se unió el matemático húngaro John von Neumann (1903-1957), esta computadora contaba por primera vez con capacidad de almacenamiento de memoria para los programas, lo que evitaba el tedioso trabajo de reconexión que era necesario en la máquina ENIAC. La memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, donde un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los ceros y unos, empleabando así números binarios. Constaba de 4.000 válvulas y 10.000 diodos de cristal, con una autonomía de hasta 8 horas sin errores. Disponía de un lector-grabador de cinta magnética. 5. Segunda generación: circuitos transistorizados (1957-1964). El transistor (palabra surgida por la contracción de Transfer Resistor), elemento de silicio o germanio inventado por los Laboratorios Bell Telephone en 1947, acabó sustituyendo a los tubos de vacío (o válvulas), debido a la gran diferencia de sus prestaciones: tamaño minúsculo, menor coste y menor consumo eléctrico, generando así también menos calor. La vida útil del transistor no tiene comparación tampoco, ya que es prácticamente ilimitada, mientras que las válvulas debían ser reemplazadas con mucha frecuencia. Las primeras computadoras construidas completamente a base de transistores fueron introducidas por las compañías NCR (NCR 304, en 1957) y RCA (RCA 501, en 1958). Sin embargo, IBM creó los modelos más populares, logrando una cuota de mercado del 70% en la década de los 60. El primer modelo de IBM que empleaba transistores fue el IBM 7090, creado a finales de 1958. 11 Durante el período que engloba la segunda generación tiene lugar también la ampliación de las memorias internas, la generalización del concepto de arquitectura modificable y el uso de periféricos de gran masa de memoria como los tambores y discos magnéticos. Aparecen los lenguajes ensambladores que traducen las instrucciones del código máquina, llegando a generar ya lenguajes de alto nivel como: FORTRAN, contracción de las palabras inglesas Formula Translator (traductor de fórmulas), lenguaje empleado sobre todo en aplicaciones científicas, fue desarrollado entre 1954 y 1957 por la compañía IBM. LISP, acrónimo de LISt Processing (procesamiento de listas), creado en 1958 por John McCarthy en el Instituto Tecnológico de Massachusetts (MIT). McCarthy introdujo en 1956, en una conferencia en Dartmouth, el concepto de Inteligencia Arificial. COBOL, acrónimo de COmmon Business Oriented Language (lenguaje común orientado a negocios), orientado hacia la informática de gestión empresarial y que se desarrolló con la intención de lograr un lenguaje estándar, debido a las múltiples incompatibilidades de los equipos de la época. ALGOL, que proviene del inglés Algorithmic Language (lenguaje algorítmico). Su uso era bastante extendido en las universidades pero no tuvo aceptación como lenguaje de utilización comercial. En 1963 el Comité Estadounidense de Estándares (ASA, que en 1969 tomaría el nombre de Instituo Estadounidense de Estándares Nacionales, o ANSI) aprueba el código ASCII, acrónimo inglés de American Standard Code for Information Interchange (código estándar americano para el intercambio de información), basado en el uso anglosajón del alfabeto latino. Su origen se encuentra en los conjuntos de códigos usados hasta entonces en telegrafía. En 1967 se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII. 6. Tercera generación: el circuito integrado (1964-1974). 12 En 1959, el ingeniero eléctrico estadounidense Jack St. Claire Kilby (1903-2005) inventó el circuito integrado monolítico cuando trabajaba para la empresa Texas Instruments, logro que sentó los cimientos conceptuales y técnicos para todo el campo de la microelectrónica y que en los años 80 llevaría al desarrollo de los microprocesadores. El invento original de Kilby era un dispositivo creado con un monocristal de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase. Esto permitió por un lado abaratar costos y por el otro aumentar la capacidad de procesamiento reduciendo el tamaño físico de las máquinas. Por su contribución al desarrollo de la tecnología de la información, en el año 2000 Kilby fue galardonado con el Premio Nobel de Física. Se considera como inicio de la tercera generación el año 1964, cuando el 7 de abril se presenta el IBM S/360, construido con un circuito integrado de pequeña escala, con la posibilidad de elegir entre seis modelos (30, 40, 50, 60, 62 y 70) de diferentes prestaciones con compatibilidad de software y periféricos. Tenía la capacidad de realizar tanto análisis numéricos como administración y procesamiento de archivos y contaba con unidades de cinta magnética de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares. La serie 360 fue la primera también en utilizar un Sistema Operativo, el OS/360, en diferentes versiones según el modelo, dotando así a la máquina de capacidad de multiprogramación, al permitir ejecutar más de un programa simultáneamente. Durante el período que representa la tercera generación se estandarizaron los lenguajes de programación más utilizados como el FORTRAN (1966), el ALGOL (1968) y el COBOL (1970). También aparecieron lenguajes nuevos, como el BASIC (1964) o el PASCAL (1970). 13 A finales de la década de los sesenta comienzan a aparecer ordenadores de tamaño mediano, menor coste y mayor facilidad de manejo, las entonces llamadas minicomputadoras, con circuitos de mediana escala (MSI), destinadas a abastecer la demanda de medianas y grandes empresas. Se distribuían en varias terminales organizadas en redes. La ya desaparecida empresa DEC (Digital Equipment Corporation) dominaba el mercado de estas máquinas con sus series PDP-8 y PDP-11. El 21 de noviembre de 1969 se realiza la primera interconexión de computadoras a través de una red, entre la Universidad de California y el Instituto de Investigaciones de Stanford. Fue un proyecto llamado ARPANET (Advanced Research Projects Agency Network), desarrollado por la DARPA (Agencia de Investigación de Proyectos Avanzados de Defensa). El 5 de diciembre de ese mismo año lograron interconectar cuatro nodos: el Instituto de Investigaciones de Stanford, la Universidad de California de Los Ángeles, la Universidad de California Santa Bárbara y la Universidad de Utah. 1969 es la fecha también del desarrollo final del sistema operativo UNIX, cuyas siglas provienen de UNiplexed Information and Computing System, ejecutado por primera vez en 1970 en una máquina PDP 11/20. El proyecto estaba liderado por el científico Kenneth Lane Thompson y el físico Dennis MacAlistair Ritchie, quien escribiría en 1972 el lenguaje de programación C para el sistema, lo que le daría portabilidad para ser instalado en diferentes ordenadores, con unos pequeños cambios. En 1973, el presidente de Intel, Gordon Moore, postula la famosa ley de Moore que predecía que el número de transistores en las CPU se duplicarían cada 18 meses, lo que se fue cumpliendo durante más de 20 años. 7. Cuarta generación: el microprocesador (1974-...) La cuarta generación de ordenadores se considera iniciada con la aparición del microprocesador, invento que permitiría luego la creación del ordenador personal (PC). En 1974, la empresa estadounidense Intel Corporation presentó el modelo de microprocesador 8080. Contenía 4.500 transistores y podía manejar 64k de memoria RAM a través de un bus de datos de 8 bits. El 14 8080 fue el cerebro del primer ordenador personal (PC), el Altair 8800, fabricado por la compañía MITS (Micro Instrumentation Telemetry Systems), promoviendo un gran interés en hogares y pequeños negocios a partir de enero de 1975, cuando apareció publicitada en la revista Popular Electronics y se vendía como un kit. El primer modelo no contaba con monitor ni teclado, tan sólo con luces LED y pequeñas palancas o switches para facilitar la programación. La información era almacenada en cassettes de grabadoras y era visualizada en aparatos de televisión. El primer lenguaje de programación para la máquina fue el Altair BASIC, escrito por William Henry Gates y Paul Allen, quienes inmediatamente después fundarían Microsoft. El Sistema Operativo que utilizaba el Altair 8800 era el CP/M (Control Program for Microcomputers), escrito por Gary Kildall. En 1976, los amigos y aficionados a la electrónica Steve Wozniak (entonces ingeniero en Hewlett-Packard) y Steve Jobs (que trabajaba en Atari) fabrican en el garaje de su casa la microcomputadora Apple I. Steven Jobs convenció a Wozniak (que se encargó de la construcción) para continuar la fabricación para la venta al público y, así, en abril de 1976 nació la empresa Apple Computers. El Apple I se construía manualmente, y no llegó a ser vendido masivamente, pero con el desarrollo a partir de 1977 del Apple II, la compañía de Wozniak y Jobs llegó a tener una alta cuota de mercado, solamente superada por IBM. En 1978 aparece la primera aplicación para procesar textos (WordStar), diseñada para el sistema operativo CP/M, poco después estaría disponible también para el DOS, y sería el precursor de WordPerfect. Un año después, en 1979, vio la luz VisiCalc, la primera hoja de cálculo, desarrollada por Dan Bricklin para el Apple II. 15 En 1980 Tim Paterson, programador de SCP (Seattle Computer Products), desarrolló un sistema operativo conocido como 86DOS (Disk Operating System, sistema operativo de disco). En un principio se le llamó QDOS (Quick and Dirty Operating System, sistema operativo rápido y sucio), se basaba en el CP/M para un procesador Intel 8086. Acabaría siendo comprado por 50.000 dólares por Microsoft, empresa encargada por IBM para la creación de un sistema operativo para su novedoso modelo IBM PC, proyecto que Microsoft no fue capaz de cumplir, por lo que reescribió para tal fin el QDOS, convirtiéndose así en el PC-DOS para los modelos de IBM y MS-DOS para otras marcas a las que suministraría Microsoft el producto. En 1984 eran ya 200 las marcas que habían adquirido una licencia de MS-DOS, lo que supondría el principio del casi-monopolio de Microsoft. IBM, por su parte, acrecentó su liderazgo en el mercado con su PC (Personal Computer, ordenador personal), vendiendo más de 65.000 unidades el primer año y acercando la figura del ordenador a la sociedad y a los hogares con los modelos sucesivos. La privatización masiva que estaba sufriendo el software en la época llevó a Richard Matthew Stallman a desarrollar, a partir de 1983, un proyecto de creación y difusión de software libre, denominado GNU (acrónimo de GNU is Not UNIX, GNU no es UNIX). Su finalidad era el desarrollo de un sistema operativo totalmente libre. En 1985 promovería el nacimiento de la FSF (Free Software Foundation, fundación para el software libre). En noviembre de 1985 aparece la primera versión del sistema operativo Windows (1.0), que posibilitaba el uso de una interfaz gráfica para los PC's de IBM, que desde hacía un año ya ofrecían los modelos Macintosh (Mac) de Apple. El precio de Windows 1.0 era de 100 dólares de la época. Microsoft siguió lanzando al mercado sucesivas versiones del sistema operativo, como Windows NT (1992), Windows 95 (1995), Windows 98 (1998), Windows 2000 (2000), Windows XP (2001) y Windows Vista (2007). Actualmente se estima que alrededor del 95% de los ordenadores usan alguno de estos sistemas operativos. 16 1992 fue el año de dos grandes eventos. El desarrollo, por parte del ingeniero informático finlandés Linus Benedict Torvalds del sistema operativo Linux, cuyo código fuente es de libre acceso, supuso un hito para el movimiento del software libre, y el sistema sigue en uso actualmente gracias, sobre todo, a las constantes mejoras y cambios del código por parte de los programadores de todo el mundo, surgiendo así también diversas versiones. El otro hecho digno de mención de ese año fue la presentación pública del sistema global de hipertextos iniciado por el físico inglés Timothy John Berners-Lee mientras trabajaba en proyectos de investigación en el CERN de Ginebra (Conseil Européen pour la Recherche Nucléaire, consejo europeo para la investigación nuclear), denominado world wide web (www), desarrollándose así Internet tal y como lo conocemos hoy en día. Surge así una nueva era de comunicación para la humanidad, que acabaría por estar interconectada globalmente. 17 Cronología de los Orígenes de la Computación 3500 a.c. 1617 1621 1624 1639 1673 1800 1822 1830 Se inventa el ábaco (en Babilonia), primera "máquina" para realizar cálculos. Ábaco chino John Napier inventa sus varillas de numeración (o huesos de Napier). Invención de la regla de cálculo. Regla de cálculo Wilhelm Schickard construye la primera calculadora mecánica. Blaise Pascal inventa y fabrica una sumadora mecánica llamada la Pascalina. Gottfried Wilhelm Leibniz diseña y construye una máquina mecánica para realizar cálculos aritméticos. El sistema diseñado por Leibniz se usó en años posteriores para fabricar calculadoras mecánicas. Tarjetas perforadas de Jacquard. Tarjeta perforada Charles Babbage presenta su proyecto de la máquina en diferencias, para evaluar polinomios. Babbage presenta las bases de la informática en su 18 1854 1885 1894 1924 1930 1937 proyecto de la máquina analítica, que nunca se llegó a construir. George Boole desarrolla el álgebra que lleva su nombre: álgebra booleana. Herman Hollerith construye la máquina censadora o tabuladora, que por medio de tarjetas perforadas reducía el tiempo al realizar el censo. Máquina censadora Leonardo Torres Quevedo presenta su máquina algebraica. T. J. Watson renombra el empresa CTR, por International Business Machines (IBM) Logo de IBM en 1924 Vannevar Bush diseña una máquina analógica que resolvía ecuaciones diferenciales: el Analizador Diferencial. Inicio de la teoría de la computabilidad con la descripción de la máquina de Turing. 19 Primera Generación 1938 1939 1939 1940 1941 1942 1943 1943 1944 1944 1945 1946 1947 1948 1948 1949 1950 Konrad Zuse construye la primera de sus computadoras: la Z1. George R. Stibitz empieza el desarrollo de la Complex Calculator. Nace la Z2 de Zuse. Tesis de Claude Shannon sobre teoría matemática de la comunicación. Primera computadora funcional del mundo controlada por programas, la Z3 de Zuse. Atanasoff desarrolla el ABC, máquina electrónica digital para la resolución de sistemas lineales. Un equipo dirigido por Alan Turing construye el Colossus para descifrar los mensajes de Enigma. Se empieza la construcción del ENIAC, por John W. Mauchly y John Eckert. Howard Hathaway Aiken termina la construcción de la Harvard Mark I. Zuse termina de construir la Z4. Primer "bug" informático. Primer "bug" Nace una de las primeras computadoras no diseñadas con un propósito militar: la UNIVAC. Nace la cibernética, vocablo designado por Norbert Wiener, uno de sus padres. Nace el proyecto de la Manchester Mark I en donde Alan Turing partició activamente. Los laboratorios Bell crean el MODEM. La compañía de Mauchly y Eckert construye una "pequeña" computadora: la BINAC. Alan Turing publica su artículo "Computing Machinery and Inteligence". 20 Segunda Generación 1952 1952 1952 1956 1960 John von Neumann hace realidad su sueño: se pone en marcha el EDVAC. Shannon desarrolla un ratón eléctrico capaz de salir de un laberinto. Primera red neuronal. Empieza la fabricación industrial y comercialización de ordenadores. Conferencia de Darthmouth, en donde nace la inteligencia artificial. Nace el primer lenguaje de programación de inteligencia artificial: el LISP. Tercera Generación 1964 1968 1969 1971 1972 1972 IBM empieza a comercializar los 360. Robert Noyce y Gordon Moore fundan Intel Corporation. Kenneth Thompson y Dennis Ritchie crean el sistema operativo Unix, en los laboratorios AT&T . IBM crea el disquete de 8 pulgadas. Aparecen los disquetes de 5.25 pulgadas. Seymour Cray considera que el software pordría ser más potente en ordenadores monoprocesadores por medio de el procesamiento en paralelo. Nace así el CRAY 1. Cuarta Generación 1975 1975 1976 1977 Se comercializan el Altair 8800, considerado el primer ordenador personal. Bill Gates y Paul Allen fundan Microsoft. Steve Jobs y Steve Wozniac fundan la Apple Computer, Inc. Se presenta la Apple II, el segundo ordenador personal de la historia. 21 Quinta Generación 1981 1981 1984 Se comercializa el IBM PC. Microsoft presenta el sistema operativo MS-DOS (Microsoft Disk Operating System). Sony crea disquetes de 3.5 pulgadas. Aparece el primer clónico del IBM PC. Feynmann propone la mecánica cuántica como herramienta de computación. Primer ordenador personal con interfaz gráfico, el Lisa de Apple. Sony y Philips crean CD-Rom para los ordenadores. 1985 CD-Rom para PC Microsoft anuncia Windows 1.0. 1981 1982 1982 1983 1988 1989 1994 1995 Windows W. H. Sim funda Creative Labs. Creative Labs presenta la tarjeta de sonido Sound Blaster. Shor describe un algoritmo cuántico que permitiría factorizar enteros en tiempo polinomial. Se supera el teraflop en computación en paralelo. 22 Introducción A través de una pequeña investigación conocer el significado de la palabra informática la cual no es lo mismo que computación, además de conocer las seis generaciones de las computadoras, sus precursores, desde el hombre primitivo hasta nuestros días. Como sabemos la informática es un tratamiento con pasos a seguir por a través de un proceso de información para tener conocimiento automático. Y la computación es aquello que ayuda a la informática a obtener información más rápido a través de la computadora. Por ello sabemos que la informática se refiere a los conocimientos científicos estudiando la comunicación, mientras la computación estudia la historia, así como los avances de la computadora. Sobre las computadoras sacamos podemos decir que ha tenido muchos avances, desde la época de los 40 han cambiado mucho dándole un gran giro a nuestra vida ya que en esa época eran lentas, de gran tamaño y tenían el problema del sobre calentamiento hoy en día ya no los tenemos, pues cada día que pasa son mas pequeñas, las cuales las vuelve más rápidas y portátiles. Hoy podemos decir que las computadoras son un instrumento de trabajo necesario para casi cualquier actividad en nuestra vida cotidiana, pues gracias a la informática, las computadoras e Internet podemos estar en constante comunicación con personas de todo el mundo, y que cada día que pasa habrán nuevas cosas y nuevas generaciones de computadoras. ANTECEDENTES HISTÓRICOS DE LA INFORMÁTICA DEFINICIÓN DE INFORMÁTICA A la ciencia que estudia los sistemas inteligentes se información se le denomina informática. En otras palabras, la informática es la ciencia enfocada al estudio de las necesidades de información, de los mecanismos y sistemas requeridos para producirla y aplicarla, de la existencia de insumos y de la integración coherente de los diversos elementos informativos que se necesitan para comprender una situación. La definición del IBI (Oficina Intergubernamental para la Informática) es: "La aplicación racional y sistemática de la información en los problemas económicos, sociales y políticos"; también señala que la informática es la "ciencia de la política de la información". 23 PRECURSORES DEL COMPUTADOR Carles Babbage es considerado como el padre de la informática. DESARROLLO DEL COMPUTADOR *Charles Babbage GENERACIONES Y TECNOLOGÍAS El avance de la tecnología de las computadoras, a partir de los primeros años del siglo XX ha sido sorprendente. El descubrimiento de los nuevos dispositivos electrónicos, los grandes avances de la programación y el acelerado desarrollo de los nuevos sistemas operativos, han marcado fechas que permiten clasificar a las computadoras de acuerdo a sus componentes y a su capacidad de procesamiento, agrupándolas por generaciones. Hay quienes ubican a la primera a partir de 1937, otros desde 1951 que fue cuando apareció la primera computadora comercial la UNIVAC (Universal Automatic Computer), pero no es conveniente tomar partido por alguna de estas teorías, sino considerar a las fechas en que se dieron los grandes cambios, como parámetros para determinar el fin de una etapa y el comienzo de otra. Primera generación Las computadoras de esta generación se caracterizaron por estar constituidas de relevadores (relés) electromecánicos como la MARK I, o de tubos de vacío como la ENIAC. Eran de un tamaño tan grande que ocupaban espaciosos salones en las universidades donde fueron desarrolladas. Su capacidad de almacenamiento en la memoria era muy reducida, como en el caso de la ENIAC que almacenaba 1kB. La cantidad de condensadores, resistencias y válvulas de vació propiciaba un consumo excesivo de energía eléctrica, por lo que se calentaban demasiado. Esto obligó a incluir en las salas de computación costosos sistemas de enfriamiento; para la entrada de datos era por medio de tarjetas perforadas y la programación solamente se desarrollaba en lenguaje de máquina o binario, los trabajos para construir estas primeras computadoras comenzaron con la máquina analítica de Babbage. La fecha final de esta etapa es en la década de los cincuenta, ya que en 1947 se descubre el primer transistor (Transfer Resistance), elemento que dio origen a las primeras computadoras de la segunda generación. 24 Segunda generación En la segunda generación de computadoras la característica principal en cuanto a los equipos (hardware) es la inclusión de transistores. Respecto a la programación o software, siguen dominando los sistemas de tarjeta o cinta perforada para la entrada de datos. Los laboratorios Bell logran avances muy significativos como la construcción en 1954, de la primera computadora transistorizada, la TRADIC (Transistorized Airborne Digital Computer). Otro gran logro de esta época es el desarrollo del primer lenguaje de alto nivel, el FORTRAN (FORmula TRANslator), el cual es muy apropiado para trabajos científicos, matemáticos y de ingeniería. Un año después, John McCarthy desarrolla el lenguaje LISP (acrónimo de LISt Processor), que aporta grandes avances en la investigación sobre Inteligencia Artificial por la facilidad con que permite el manejo de símnbolos y listas. Uno más de los asombrosos descubrimientos en el ámbito del software entre 1959 y 1960 es el lenguaje de programación COBOL (COmmon Business Oriented Language). La inclusión de memorias de ferrita en estas computadoras hizo posible que se redujeran de tamaño considerablemente, reduciendo también su consumo de energía eléctrica. Esto significó una notable baja de la temperatura y, aunque necesitaban todavía sistemas de enfriamiento, podían estar más tiempo operando sin presentar problemas. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961). Tercera generación Lo siguiente fue la integración a gran escala de transistores en microcircuitos llamados procesadores o circuitos integrados monolíticos LSI (Large Scale Integration), así como la proliferación de lenguajes de alto nivel y la introducción de sistemas operativos (comunicación entre el usuario y la computadora). El descubrimiento en 1958 del primer Circuito Integrado (chip) por el ingeniero Jack S. Kilby, así como los trabajos del DR. Robert Noyce de Fairchild Semiconductors, acerca de los circuitos integrados, dieron origen a la tercera generación. IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). También en ese año, Control Data Corporation presenta la supercomputadora CD 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo. 25 Se empieza a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables. Cuarta generación Una fecha en la cual de manera inobjetable todos están de acuerdo, e el final de la tercera generación marcado claramente por la aparición del primer microprocesador. En 1971, Intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bit, que en un espacio de aproximadamente 4 x 5 mm contenía 2250 transistores. Este primer microprocesador fue bautizado como el 4004. Esta generación se caracterizó por grandes avances tecnológicos realizados en un tiempo uy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las mas famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Business Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer; se incluyo un sistema operativo estandarizado, el MS-DOS (MicroSoft Disk Operating System). Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficosa grandes velocidades, lo cual permite utilizar las interfaces gráficas de usuario, que son pantallas con ventanas, iconos y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús. Quinta generación Hay quienes consideran que la cuarta y quinta generaciones han terminado , y las ubican entre los años 1971-1984 la cuarta y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha. Hay que mencionar dos grandes avances tecnológicos que quizás sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992. Según este proyecto, la característica principal sería la aplicación de la inteligencia artificial. Las computadoras de esta generación contiene una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. 26 El almacenamiento de información de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de vídeo y sonido. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Scale Integration) y ULSI (Ultra Large Scale Integration). El único proceso que se venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras. Sexta generación Supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventa. Esta generación cuenta con arquitecturas combinadas Paralelo/Vectorial, con ciento s de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. 27 HISTORIA CRONOLÓGICA DE LAS COMPUTADORAS Por toda la historia, el desarrollo de máquinas matemáticas ha ido de mano en mano con el desarrollo de computadoras. Cada avance en uno es seguido inmediatamente por un avance en el otro. Cuando la humanidad desarrolló el concepto del sistema de conteo en base diez, el ábaco fue una herramienta para hacerlo más fácil. Cuando las computadoras electrónicas fueron construidas para resolver ecuaciones complejas, campos como la dinámica de fluidos, teoría de los números, y la física química floreció. 500 a.C. - 1822 d.C. Esta sección comienza desde la aparición del ábaco en China y Egipto, alrededor de 500 años a.C. hasta la invención del Motor Diferencial por Charles Babbage, en 1822. El descubrimiento de los sistemas por Charles Napier, condujo a los avances en calculadoras. Por convertir multiplicación y división en suma y resta, un número de máquinas (incluyendo la regla deslizante) puede realizar estas operaciones. Babbage sobrepasó los límites de la ingeniería cuando inventó su motor, basado en este principio. En esta etapa se inventaron las siguientes: El ábaco El ábaco fue la primera máquina conocida que ayudaba a ejecuta computaciones matemáticas. Se piensa que se originó entre 600 y 500 a.C., o en China o Egipto. Pelotas redondas, usualmente de madera, se resbalaban de un lado a otro en varas puestas o alambres, ejecutaban suma y substracción. Como una indicación de su potencial, se usa el ábaco todavía en muchas culturas orientales hoy en día. Napier Bones Justo antes de morir en 1617, el matemático escocés John Napier (mejor conocido por su invención de logaritmos) desarrolló un juego de palitos para calcular a las que llamó "Napier Bones." Así llamados porque se tallaron las ramitas de hueso o marfil, los "bones" incorporaron el sistema logarítmico. Los Huesos de Napier tuvieron una influencia fuerte en el desarrollo de la regla deslizante (cinco años más tarde) y máquinas calculadoras subsecuentes que contaron con logaritmos. Regla deslizante 28 En 1621 la primera regla deslizante fue inventada por el del matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Uno de los primeros aparatos de la informática analógica, la regla deslizante se usó normalmente (en un orden lineal) hasta que a comienzos de 1970, cuando calculadoras portátiles comenzaron a ser más popular. Calculadora mecánica En 1623 la primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamado "El Reloj Calculador", la máquina incorporó los logaritmos de Napier, hacia rodar cilindros en un albergue grande. Se comisionó un Reloj Calculador para Johannes Kepler, el matemático famoso, pero fue destruido por fuego antes de que se terminara. Pascalina En 1642 la primera calculadora automática mecánica fue inventada por el matemático francés y filósofo Blaise Pascal. Llamado la "Pascalina", el aparato podía multiplicar y substraer, utilizando un sistema de cambios para pasar dígitos. Se desarrolló la máquina originalmente para simplificar al padre de Pascal para la recolección del impuesto. Aunque la Pascalina nunca fue un éxito comercial como Pascal había esperado, el principio de los cambios era fue útil en generaciones subsecuentes de calculadoras mecánicas. La máquina de multiplicar En 1666 la primera máquina de multiplicar se inventó por Sir Samuel Morland, entonces Amo de mecánicas a la corte de Rey Charles II de Inglaterra. El aparato constó de una serie de ruedas, cada representaba, dieses, cientos, etc. Un alfiler del acero movía los diales para ejecutar las calculaciones. A diferencia de la Pascalina, el aparato no tenía avanzó automático de en columnas. Máquina calculadora 29 La primera calculadora de propósito general fue inventada por el matemático alemán Gottfried von Leibniz en 1673. El aparato era una partida de la Pascalina, mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de engranaje. Aunque el aparato podía ejecutar multiplicación y división, padeció de problemas de fiabilidad que disminuyeron su utilidad. El jugador de ajedrez automático En 1769 el Jugador de Ajedrez Autómata fue inventado por Barón Empellen, un noble húngaro. El aparato y sus secretos se le dieron a Johann Nepomuk Maelzel, un inventor de instrumentos musicales, quien recorrió Europa y los Estados Unidos con el aparato, a finales de 1700 y temprano 1800. Pretendió ser una máquina pura, el Autómata incluía un jugador de ajedrez "robótico". El Automatón era una sensación dondequiera que iba, pero muchas comentaristas, incluso el Edgar Allen Poe famoso, ha escrito críticas detalladas diciendo que ese era una "máquina pura." En cambio, generalmente, siempre se creyó que el aparato fue operado por un humano oculto en el armario debajo del tablero de ajedrez. El Autómata se destruyó en un incendio en 1856. La máquina lógica Se inventó la primera máquina lógica en 1777 por Charles Mahon, el Conde de Stanhope. El "demostrador lógico" era un aparato tamaño bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas. Jacquard Loom El "Jacquard Loom" se inventó en 1804 por Joseph-Marie Jacquard. Inspirado por instrumentos musicales que se programaban usando papel agujereados, la máquina se parecía a una atadura del telar que podría controlar automáticamente de dibujos usando una línea tarjetas agujereadas. La idea de Jacquard, que 30 revolucionó el hilar de seda, estaba formar la base de muchos aparatos de la informática e idiomas de la programación. Calculadoras de producción masiva La primera calculadora de producción masiva se distribuyó, empezando en 1820, por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro Parisienses, el "aritmómetro" de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862. Artefacto de la diferencia En 1822 Charles Babbage completó su "Artefacto de la Diferencia," una máquina que se puede usar para ejecutar calculaciones de tablas simples. El Artefacto de la Diferencia era una asamblea compleja de ruedas, engranajes, y remaches. Fue la fundación para Babbage diseñar su "Artefacto Analítico," un aparato del propósito genera que era capaz de ejecutar cualquiera tipo de calculación matemática. Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de computaciones que ahora se consideran al corazón de informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora moderna digital que estaba a seguir. Se construyó el artefacto analítico finalmente por un equipo de ingenieros en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento Babbage hoy se sabe como el "Padre de Computadoras Modernas". 1823 - 1936 Durante este tiempo, muchas de las culturas del mundo fueron avanzando desde sociedades basadas en la agricultura a sociedades basadas industrialmente. Con estos cambios vinieron los avances matemáticos y en ingeniería los cuales hicieron posible máquinas electrónicas que pueden resolver argumentos lógicos complejos. Comenzando con la publicación de Boolean Algebra de George Boole y terminando con la fabricación del modelo de la Máquina de Turín para máquinas lógicas, este período fue muy próspero para computadoras. En esta etapa se inventaron las siguientes: 31 Algebra de Boole En 1854 el desarrollo del Algebra de Boolean fue publicado por el lógico Inglés George S. Boole. El sistema de Boole redujo argumentos lógicos a permutaciones de tres operadores básicos algebraicos: "y", "o", y "'no". A causa del desarrollo de el Algebra de Boolean, Boole es considerado por muchos ser el padre de teoría de la información. Máquina lógica de Boolean En 1869 la primera máquina de la lógica a usar el Algebra de Boolean para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el Piano Lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismos complicados. Calculadora guiada por teclas En 1885 la primera calculadora guiada por teclas exitosas, se inventó por Dorr Eugene Felt. Para preservar la expansión del modelo del aparato, llamado el "Comptómetro", Felt compró cajas de macarrones para albergar los aparatos. Dentro de los próximos dos años Felt vendió ocho de ellos al New York Weather Bureau y el U.S. Tresury. Se usó el aparato principalmente por contabilidad, pero muchos de ellos fueron usados por la U.S. Navy en computaciones de ingeniería, y era probablemente la máquina de contabilidad más popular en el mundo en esa época. Sistema de tarjetas agujeradas En 1886 la primera máquina tabuladora en usar una tarjeta agujerada de entrada del datos fue inventado por Dr. Herman Hollerith. Fue desarrollada por Hollerith para usarla en clasificar en 1890 el censo en U.S., en que se clasificó una población de 62,979,766. Su ponche dejó que un operador apuntara un indicador en una matriz de agujeros, después de lo cual se picaría en una tarjeta pálida un agujero al inverso de la máquina. Después del censo Hollerith fundó la Compañía de las Máquinas de Tabulación, que, fusionando adquiere otras compañías, llegó a ser qué es hoy Máquinas del Negocio Internacionales (IBM). Máquina de multiplicar En 1893 la primera máquina exitosa de multiplicación automática se desarrolló por Otto Steiger. "El Millonario," como se le conocía, automatizó la invención de Leibniz de 1673, y fue fabricado por Hans W. Egli de Zurich. Originalmente hecha 32 para negocios, la ciencia halló inmediatamente un uso para el aparato y varios miles de ellos se vendieron en los cuarenta años que siguió. Tubo al vacío En 1906 el primer tubo al vacío fue inventado por un inventor americano, Lee De Forest. "El Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de computadoras, a comienzos de 1930. Flip-flop En 1919 el primero circuito multivibrador bistable (o flip-flop) fue desarrollado por inventores americanos W.H. Eccles y F.W. Jordan. El flip-flop dejó que un circuito tuviera uno de dos estados estables, que estaban intercambiables. Formó la base por el almacenamiento del bit binario estructura de computadoras de hoy. Computadora analógica (para ecuaciones diferenciales) En 1931 la primera computadora capaz de resolver ecuaciones diferenciales analógicas fue desarrollada por el Dr. Vannevar Bush y su grupo de investigación en MIT. "El Analizador Diferencial", como se llamaba, usaba engranajes diferenciales que fueron hechos rodar por motores eléctricos. Se interpretaron como cantidades los grados de rotación de los engranajes. Computaciones fueron limitadas por la precisión de medida de los ángulos. Programa mecánico En 1933 el primer programa mecánico fue diseñado por Wallace J. Eckert. El programa controló las funciones de dos de las máquinas en unísono y operadas por un cable. Los trabajos de Eckert sembraron la fundación para las investigaciones informático-científica de la Universidad de Colombia. Máquina lógica En 1936 el primer modelo general de máquinas de la lógica fue desarrollado por Alan M. Turing. El papel, tituló "En Números calculables," se publicó en 1937 en la Sociedad de Procedimientos Matemáticos de Londres y describió las limitaciones de una computadora hipotética. Números calculables eran esos números que eran números reales, capaz de ser calculados por medios del lo finito. Turing ofreció prueba que mostró que al igual cuando usa un proceso finito y definido por resolver un problema, problemas seguros todavía no se pueden resolver. La noción de las limitaciones de tal problema tiene un impacto profundo en el desarrollo futuro de ciencia de la computadora. 33 1937 - 1949 Durante la segunda guerra mundial, estudios en computadoras fueron de interés nacional. Un ejemplo de ello es el "Coloso", la contra inglés a la máquina Nazi de códigos, el "Enigma". Después de la guerra, el desarrollo empezó su nido, con tecnología eléctrica permitiendo un avance rápido en computadoras. En esta etapa se inventaron las siguientes: Las funciones de cambio En 1937 Claude F. Shannon dibujó el primer paralelo entre la Lógica de Boolean y cambió circuitos en la tesis del patrón en MIT. Shannon siguió desarrollando sus teorías acerca de la eficacia de la información comunicativa. En 1948 formalizó estas ideas en su "teoría de la información," que cuenta pesadamente con la Lógica de Boolean. Electrónica digital En 1939 la primera computadora electrónica digital se desarrolló en la Universidad del Estado de Iowa por Dr. John V. Atanasoff y Clifford Baya. El prototipo, llamó el Atanasoff Berry Computer (ABC), fue la primera máquina en hacer uso de tubos al vacío como los circuitos de la lógica. Computadora programable En 1941 la primera controladora para computadora para propósito general usada se construyó por Konrad Zuse y Helmut Schreyer. El "Z-3," como se llamó, usaba retardos electromagnéticos y era programada usando películas agujereadas. Su sucesor, el "Z-4," fue contrabandeado fuera de Berlín cuando Zuse escapo de los Nazis en Marzo de 1945. Electrónica ingles 34 En el diciembre de 1943 se desarrolló la primera calculadora inglesa electrónica para criptoanálisis. "El Coloso," como se llamaba, se desarrolló como una contraparte al Enigma, La máquina codificación de Alemania. Entre sus diseñadores estaban Alan M. Turing, diseñador de la Máquina Turing, quien había escapado de los Nazis unos años antes. El Coloso tenía cinco procesadores, cada uno podría operar a 5,000 caracteres por segundo. Por usar registros especiales y un reloj interior, los procesadores podrían operar en paralelo (simultáneamente) que esta le daba al Coloso una rapidez promedio de 25,000 caracteres por segundo. Esta rapidez alta era esencial en el esfuerzo del desciframiento de códigos durante la guerra. El plan del Coloso era quedar como información secreta hasta muchos años después de la guerra. Mark I ASCC En 1944, el primer programa controlador americano para computadora fue desarrollado por Howard Hathaway Aiken. La "Calculadora Automática Controlada por Secuencia (ASCC) Mark I," como se llamaba, fue un parche de los planes de Charles Babbage por el artefacto analítico, de cien años antes. Cintas de papel agujereados llevaban las instrucciones. El Mark que midió cincuenta pies de largo y ocho pies de alto, con casi quinientas millas de instalación eléctrica, y se usó a la Universidad de Harvard por 15 años. El primer error de computadora (bug) El 9 de septiembre de 1945, a las 3: 45 p.m., el primer caso real de un error que causa un malfuncionamiento en la computadora fue documentado por los diseñadores del Mark II. El Mark II, sucesor al ASCC Mark que se construyó en 1944, experimentó un falló. Cuando los investigadores abrieron caja, hallaron una polilla. Se piensa ser el origen del uso del término "bug" que significa insecto o polilla en inglés. El ENIAC En 1946 la primera computadora electrónica digital a grande escala llegó a ser operacional. ENIAC (Integrado Electrónico Numérico y Calculadora) usó un sistema de interruptores montados externamente y enchufes para programarlo. El instrumento fue construido por J. Presper Eckert Hijo y John Mauchly. La patente por el ENIAC no fue aceptada, de cualquier modo que, cuando se juzgó como se derivó de una máquina del prototipo diseñado por el Dr. John Vincent Atanasoff, quien también ayudó a crear la computadora Atanasoff-Berry. Se publicó trabajo este año que detalla el concepto de un programa guardado. Se completa sucesor a ENIAC, el EDVAC, en 1952. El transistor 35 En 1947 se inventó la primera resistencia de traslado, (transistor) en Laboratorios Bell por John Bardeen, Walter H. Brattain, y William Shockley. Los diseñadores recibieron el Premio Nóbel en 1956 por su trabajo. El transistor es un componente pequeño que deja la regulación del flujo eléctrico presente. El uso de transistores como interruptores habilitaron computadoras llegar a ser mucho más pequeño y subsiguientemente llevó al desarrollo de la tecnología de la "microelectrónica". La computadora "Guarda Programas" En 1948 la primera computadora de guardado de programa se desarrolló en la Universidad Manchester por F.C. y Williams T. Kilburn. El "Manchester Marca I", como se llamaba, se construyó para probar un tubo CRT de la memoria, inventada por Williams. Como tal, era una computadora escala. Una computadora a gran escala de guardado de programas se desarrolló un año más tarde (EDSAC) por un equipo encabezado por Maurice V. Wilkes. Memoria En 1949 la primera memoria fue desarrollada por Jay Forrester. Empezando en 1953, la memoria, que constó de una reja de anillos magnéticos en alambre interconectados, reemplazó los no confiables tubos al vacío como la forma predominante de memoria por los próximos diez años. 1950 - 1962 Desde 1950 hasta 1962, un número de desarrollos avanzaron en tecnología de computadoras. Una vez que la tecnología electrónica ha sido aplicada a máquinas de computo, computadoras pudieron avanzar lejos de sus habilidades previas. Guiadas por el modelo de Turín para máquinas lógicas, estudiosos de las computadoras integraron lógica en sus máquinas. Programadores fueron capaces de explotar estas utilidades mejor una vez que los primeros lenguajes de programación, COBOL, fueron inventados. En esta etapa se inventaron las siguientes: Computadora Interactiva 36 En 1950 la primera computadora interactiva en tiempo real, fue completada por un plan de diseño en MIT. La "Computadora del Torbellino," como se llamaba, fue adoptada para proyectos en el desarrollo de un simulador de vuelo por la U.S. Navy. El Torbellino usó un tubo de rayo de cátodo y una pistola de la luz para proveer interactividad. El Torbellino se conectaba a una serie de radares y podría identificar un avión poco amistoso e interceptores a su posición proyectada. Esta sería el prototipo para una red de computadoras y sitios de radar (SAGE) como un elemento importante de la defensa aérea de EUA por un cuarto-siglo después de 1958. UNIVAC En 1951 se entregó la primera computadora comercialmente disponible al Escritorio del Censo por el Eckert Mauchly Corporación de la Computadora. El UNIVAC (Computadora Universal Automática) fue la primera computadora que no era un solo disponible para laboratorios. El UNIVAC llegó a ser una casera en 1952 cuando se televisó en un reportaje de noticias para proyectar el ganador del Eisenhower-Stevenson raza presidencial con exactitud estupenda. Ese mismo año Maurice V. Wilkes (diseñador de EDSAC) creó la fundación de los conceptos de microprogramación, que sería el modelo de los diseñadores y constructores de la computadora. Circuito Integrado En 1958 el primer circuito integrado se construyó por Jack S. Kilby. Se hizo el circuito de varios elementos individuales de silicona congregados juntos. El concepto proveyó la fundación para el circuito integrado, que dejó grandes adelantos en la tecnología microelectrónica. También ese año, vino el desarrollo de un idioma de programación, llamado LISP (Procesador de Lista), para permitir la investigación en inteligencia artificial (IA). COBOL En 1960 el primer idioma de programación de alto nivel transportable entre modelos diferentes de computadoras se desarrolló por un grupo en el departamento de defensa patrocinada en la Universidad de Pennsylvania. El idioma era COBOL (Idioma Común Orientada al Negocio), y uno de los miembros del equipo de desarrollo era Grace Hopper (quien también escribió el primer programa recopilador práctico). Se introdujo este año el primer láser también, por Theodore H. Maiman en los Laboratorios Investigativos de Hughes. El láser (amplificación ligera por estimuló emisión de radiación) podría emitir luz coherente de un cristal de rubí sintético. 37 Cuaderno Gráfico En 1962 los primeros programas gráficos que dejan que el usuario dibujara interactivamente en una pantalla fueron desarrollados por Iván Sutherland en MIT. El programa, llamado "Sketchpad," usó una pistola de luz para la entrada de gráficos en una pantalla CRT. 1963 - 1971 Una vez que la primera mini computadora fue construida en 1963, y luego la primera triunfante en los negocios la supercomputadora en 1964, la revolución de la computadora comenzó. Con la creación de cables de fibra óptica, semiconductores, láseres y bases de datos relacionados, la barrera fue derribada para los programadores. No sería hasta doce años después cuando la computadora, llega a los hogares. En esta etapa se inventaron las siguientes: La minicomputadora En 1963 el primer miniordenador comercialmente exitoso fue distribuido por Corporación del Equipo digital (DEC). El DEC PDP-8 fue el sucesor al PDP-1, la primera computadora demostró por el DEC viejo en 1959. El advenimiento de la minicomputación comercial fue el de tener una influencia significante en el desarrollo de secciones en la ciencia de la informática universitaria. La distribución de la Computadora 12-bit PDP-8 abrió las compuertas del comercio de miniordenador en otras computadoras. Sistema IBM 360 En 1964 la familia de computadoras Sistema/ 360 fue lanzada por IBM. El Sistema/ 260 reemplazó transistores con circuito integrado, o lógica sólida, 38 tecnología. Mas de treinta mil unidades se vendieron, y una era nueva en tecnología de computadoras había empezado. Un mes después Sistema/ se introdujo 360, se corrió el primer programa BASIC a la Universidad de Dartmouth por su inventores, Tomás Kurtz y John Kemeny. BASIC sería el idioma introductorio por una generación entera de usuarios de la computadora. Supercomputadora En 1964 la primera supercomputadora a estar comercialmente disponible se envió por la Corporación de Datos de Mando. El CDC 6600 tenía varios datos devana bancos y estaba a quedar en la computadora más poderosa por muchos años después de su desarrollo. El programa de ajedrez En 1967 los primeros programas exitosos de ajedreces fueron desarrollados por Richard Greenblatt en MIT. El programa, llamado MacHack, fue presentado en un torneo de ajedrez a la categoría del novicio y ganó. El desarrollo futuro de tecnología de la inteligencia artificial (IA) era contar pesadamente en tales softwares de juego. Minicomputadora de 16-bit En 1969, la primera minicomputadora de 16-bit fue distribuida por Data General Corporation. La computadora, llamada la Nova, fue un mejoramiento en velocidad y poder sobre las minicomputadoras de 12-bit, PDP-8. Fibra óptica En 1970 el primer cable de fibra óptica fue comercialmente producido por Corning Glass Works, Inc. El cables de fibra óptica de vidrio dejaron que más datos transmitiera por ellos más rápido que por alambre o cable convencional. El mismo año, circuitos ópticos fueron mejoraron más allá, por el desarrollo del primer láser semiconductor. Base de datos relacional 39 En 1970 el primer modelo de banco de datos relacional se publicó por E.F. Codd. Un banco de datos relacional es un programa que organiza datos, graba y deja que atributos similares de cada registro comparen. Un ejemplo es una colección de registros personales, donde los últimos nombres o se listan sueldos de cada persona. La publicación de Codd, tituló "Un modelo relacional de Datos para banco de datos grandes compartidos", abrió un nuevo campo entero en desarrollo de banco de datos. Chip microprocesador En 1971 el primer chip microprocesador fue introducido por Intel Corporación. El chip 4004 era un procesador 4-bit con 2250 transistores, capaz de casi el mismo poder como el 1946 ENIAC (que llenó un cuarto grande y tenía 18,000 tubos al vacío). El chip 4004 medía 1/ 6-pulgada de largo por 1/ 8-pulgada de ancho. Computadora personal En 1971 se construyó y distribuyó la primera computadora personal por John Blankenbaker. La computadora, llamada el Kenbak-1, tenía una capacidad de memoria de 256 bytes, desplegaba datos como un juego de LED pestañeantes y era tedioso programarlo. Aunque sólo 40 computadoras Kenbak-1 se vendieron (a un precio de $750), introdujo la revolución de la computadora personal. 1972 - 1989 Una vez que la PC fue llegando a los hogares, la revolución de PC comienza. La competencia de los mercados entre manufactureros como IBM y Apple Computer avanzaron rápidamente en el campo. Por primera vez la habilidad de cálculos de alta calidad, estaba en la casa de cientos miles de personas, en vez que solo algunos privilegiados. Las computadoras finalmente se convirtieron en herramienta de la gente común. En esta etapa se inventaron las siguientes: Altair En el enero de 1975 Micro Instrumentation Telemetry Systems (MITS) introdujeron el Altair. Una minicomputadora mas personal, el Altair era barato ($350) del 40 sistema que no tenía teclado, amonestador, o aparato del almacenamiento de la memoria, pero llevó el microprocesador 8-bit Intel 8080. Cuando se actualizó la computadora con 4 kilobyte de expansión de la memoria, Paul Allen y Bill Gates (que más tarde fundaron Microsoft Corporation) desarrollaron una versión de BASIC como un idioma de la programación por la computadora. Computadoras personales En 1977, la primera computadora personal ensamblada fue distribuida por Commodore, Apple Computer, y Tandy. Dentro de unos años el PC (computadora personal) había llegado a ser un pedazo de la vida personal de cada uno de sus usuarios, y aparecería pronto en bibliotecas públicas, escuelas, y lugares de negocio. Fue también durante este año que la primera área comercialmente disponible Local Area Network (LAN) fue desarrollado por Datapoint Corporation, llamada ARCnet. Procesador RISC En 1980 el primer prototipo de Computadora de Instrucción Reducida (RISC) fue desarrollado por un grupo de investigación en IBM. El miniordenador 801 usó un juego simple de instrucciones en idioma de la máquina, que se puede procesar un programa muy rápido (usualmente dentro de un ciclo de la máquina). Varios vendedores mayores ahora ofrecen computadoras RISC. Es pensado por muchos que el RISC es el formato futuro de procesadores, debido a su rapidez y eficacia. Microprocesador de 32-bit En 1980 se desarrolló el primer microprocesador de 32-bit en un solo chip en Laboratorios Bell. El chip, llamado el Bellmac-32, proporcionó un mejor poder computacional sobre los procesadores anteriores de 16-bit. IBM PC-XT En 1981 la revolución de la computadora personal ganó impulso cuando IBM introdujo su primera computadora personal. La fuerza de la reputación de IBM era un factor importante en legitimar PC para uso general. La primera IBM PC, era un sistema basado de un floppy el cual usó el microprocesador 8088 de Intel. Las unidades originales tenían pantallas de sólo texto, gráficos verdaderos eran una alternativa que llegó más tarde. Se limitó memoria también, típicamente sólo 128K, o 256K de RAM. La máquina usó un sistema operativo conoce como DOS, un 41 sistema de la línea de comandos similar a los más antiguo sistemas CP/M. IBM más tarde lanzó el IBM PC/ XT. Éste era una máquina extendida que añadió una unidad de discos duros y gráficos CGA. Mientras la máquina llegó a ser popular, varias otras compañías empezaron a lanzar imitaciones del IBM PC. Estos temprano "clones" se distinguieron por incompatibilidades debido a su incapacidad a reproducir debidamente el IBM BIOS. Se comercializaron éstos normalmente como" 90% compatible." Se superaría Este problema pronto y la competición serviría para empujar la tecnología y precios de la unidad abajo. Procesamiento paralelo En 1981 la primera computadora del proceso comercial paralela fue distribuida por BBN Computers Advanced, Inc. La computadora, llamada la "Mariposa", era capaz de asignarles a partes de un programa hasta 256 diferentes procesadores, en consecuencia de esto la velocidad del proceso y eficacia incrementan. Macintosh En 1984 el primer Macintosh personal computer fue distribuido por Apple Computer, Inc. El Macintosh, el cual tenía una capacidad de la memoria de 128KB, integró un monitor, y un ratón, fue la primera computadora en legitimar la interfaz gráfica. La interfase de Mac era similar a un sistema explorado por Xerox PARC. En lugar de usar una interfase de línea de comando que era la norma en otras máquinas, el MacOS presentó a los usuarios con "iconos" gráficos, sobre las ventanas gráficas, y menús deslizantes. El Macintosh era un riesgo significante por Apple en que el nuevo sistema era incompatible con cualquiera otro tipo de software, o su propia Apple ][, o el IBM PC línea. Se plagó la máquina más allá por memoria limitada y la falta de una unidad de discos duros.. La máquina pronto llegó a ser una norma por artistas gráficos y publicadores. Ésta dejó que la máquina creciera en una plataforma más establecida. IBM PC-AT En 1984 IBM distribuido el IBM PC-AT, la primera computadora usaba el chip microprocesador Intel 80286. La serie Intel 80x86 adelantó el poder del procesador y flexibilidad de las computadoras IBM. IBM introdujo varios cambia en esta línea nueva. Se introdujo ése un sistema de los gráficos nuevo, EGA, dejó que 16 colores de gráficos a resoluciones más altas (CGA, el sistema más antiguo 42 que sólo tenía cuatro colores). La máquina también incorporó un bus de datos de 16-bit, y mejorado del el 8-bit bus de XT. Esto permitió la creación de tarjetas de expansión más sofisticadas. Otro mejora incluyeron un teclado extendido, un mejor suministro de energía y una caja del sistema más grande. 1990 - Presente Por este tiempo, las computadoras han sido adaptadas a casi cada aspecto de la vida moderna. Desde controlar motores de automóviles hasta comprar en los supermercados. Cada vez máquinas más rápidas y nuevas, son creadas. Esto hace que las casas de programas tomen ventaja de estas nuevas máquinas. Aunque estas tecnologías son las últimas son las máquinas viejas del futuro. En esta etapa se inventaron las siguientes: Computadoras ópticas En 1990 se construyó el primer procesador óptico en At&T Laboratorios de Bell. El procesador emplea pequeños, láseres semi-conductores para llevar información y guardar circuitos ópticos y procesan la información. Usar luz, en lugar de electricidad, para llevar datos podía teóricamente hacer de las computadoras miles de veces más rápido. Interruptor de un solo átomo En 1991 la primera demostración de un interruptor cuenta con se dio el movimiento de un átomo se dio a conocer en IBM Almaden Research Center. Un átomo Xenón se colocó en una superficie cristalina, el cual puede ser observado por microscopio. Reemplazar interruptores electrónicos con interruptores atómicos podía hacer tales interruptores un milésimo de su tamaño del presente. Virus Miguel Ángel Temprano en 1992 un virus fue descubierto, el cual estaba programado para activarse el 6 de marzo, el cumpleaños de Miguel Ángel. Se esperó que el virus extendido dañara o destruyera archivos de usuario en la unidad de disco duro. Recibió cobertura de las noticias nunca visto, sobre la advertencia a las personas de los pasos necesitaron proteger su sistema. Aunque se diseñó el virus para ser destructivo, realmente tenía un efecto positivo. Las noticias alertaron a personas sobre los peligros de los virus e informado a ellos de precauciones para proteger sus sistemas. Nuevos microprocesadores 43 En 1992 varios microprocesadores nuevos llegaron a ser disponibles los cuales mejorarían dramáticamente el desempeño de computadoras de escritorio. El Intel 80486 llegó a ser la norma nueva para las PC sistemas y Motorola 68040 dio energía similar a otra estación. Procesadores más nuevos como el Pentium, i860, y el chip PowerPC RISC les promete aun a más grandes ganancias en energía del proceso y rapidez. Nuevos sistemas operativos 1992 fue un año del estampido para los sistemas operativos nuevos. En abril Microsoft S.A. lanzó Windows v3.1. Otro programas nuevos incluyen IBM OS/ 2 v2.0, y Apple System 7.1. Todas las versiones nuevas fueron una versión revisada de sistemas más viejos. Agregaron cosas como tipos de letra y mejoramiento de vídeo. Miniaturización Avances en tecnología de la miniaturización han habilitado a fabricantes de computadoras continuar a suministrar máquinas de la calidad más alta en conjuntos más pequeños. El poder del proceso el cual, hace veinte años, habría ocupado la computadora del equipo central un cuarto entero, hoy día se puede llevar alrededor de en una computadora de libreta que pesa sólo seis o siete libras. Palmtop, pequeña bastante como para encajar en un bolsillo, tiene más rapidez y poder que las supercomputadoras de los 1950. Redes Redes de Área Local, o LANs, están entre las técnicas más rápidas desarrolladas para comunicación entre las oficinas hoy día. Recientemente, avances tecnología LAN han incluido comunicando computadoras con luces infrarrojas y ondas de radio. Estos sistemas inalámbricos permiten a los LAN a ser usado sin instalar cable y permitir a los LAN a ser personalizado fácilmente e ingresar mas estaciones sin cables. Guardado de información 44 Entre los muchos adelantos recientes para tecnología de la computadora son esos sistemas almacenamiento de la información de las máquinas modernas. Tipos de disquetes los cuales alguna vez mantuvieron 128 kilobytes de información, ahora pueden guardar 1.2 megabytes de información. Adelantos tal como "flóptical" que usa sincronización del láser de los discos del floppy, puede mejorar, en otros tiempos, capacidades inimaginables. CD-ROM, capaces de guardar 500 megabytes de información, llega a ser miniaturizados mientras discos más pequeños pueden retener más información. 45 Personajes Históricos Howard Aiken Charles Babbage George Boole Vannervar Bush Ada Byron, Condesa de Lovelace John Eckert Gottfried Wilhelm Leibniz John Mauchly Grace Murray Hooper Blaise Pascal 46 Wilhelm Schickard Claude Shannon George Stibitz Leonardo Torres Quevedo Alan Turing John von Neumann Norbert Wiener Konrad Zuse 47 Howard Hathaway Aiken (1900 - 1973) Nació en Nueva Jersey (EE.UU), se crió en Indianápolis, donde estudió el Arsenal Technical School, graduándose en 1919. Tras ello estudió en la universidad de Wisconsin, en donde se espcecializó en electrónica. Mientras estudiaba estuvo trabajando como ingeniero operario en la Madison Gas and Electric Company desde 1919 a 1923. Se graduó como ingeniero electrónico en 1923. Tras esto trabajó en la Westinghouse Electric Manufacturing Company, mientras se preparaba para su postgraduado en la universidad de Harvard, donde obtuvo su M.A en 1937 y el Ph.D en en física en 1939. Aiken permaneció en Harvard para enseñar matemáticas, primero como instructor de facultad (de 1939 a 1941), y después como profesor asociado. En 1937, antes de la guerra, Aiken presentó el proyecto de construcción de una computadora, para el que obtuvo el apoyo de IBM. Así nació la MARK I (o IBM ASCC), termindada en 1944 con un coste de 250000$. Inmediatamente finalizada la marina de los EE.UU requisó tanto a la máquina como a su inventor para usarlos durante la Segunda Guerra Mundial, Aiken alcanzó el grado de Comandandte, y la MARK I se usó para el cálculo de las tablas navales de Artillería. Para el diseño de la MARK I, Aiken estudió los trabajos de Charles Babbage, y pensó en el proyecto de la MARK I como si fuera la terminación del trabajo de Babbage que no concluyó, la máquina analítica, con la que la MARK I tenía mucho en común. Además de la MARK I, Aiken construyó más computadoras: MARK II (1947), MARK III y MARK IV (1952). Tras la guerra, en 1946, Aiken volvió a Harvard como profesor de matemáticas. Además, fue nombrado director de los nuevos laboratorios de informática de la universidad en 1947, Aiken contó con la colaboración de Grace Hooper, encargada de la programación de la MARK I. En 1964, Aiken recibió el premio Memorial Harry M. Goode, de la Computer Society, por su contribución al desarrollo de las computadoras automáticas, y por la construcción de la MARK I. 48 Charles Babbage (1791 - 1871) Nació en Teignmouth (Inglaterra), fue un niño enfermizo. Su padre era rico por lo que Babbage estudió en las mejores escuelas privadas. Enseguida mostró interés por las matemáticas. Antes de entrar en la universidad estudiaba en su casa con la ayuda de un tutor de Oxford, para así lograr el nivel universitario. Así en 1810 ingresó en la Universidad de Cambridge. En 1812 crea la Sociedad Analítica junto con otros estudiantes de Cambridge y en 1816 ingresa en la Real Sociedad de Matemáticas de Londres. Durante una de las reuniones de la Sociedad Analítica en 1812, fue cuando a Babbage se le ocurrió la idea de que era posible diseñar una máquina capaz de realizar cálculos. En un principio no se dedicó a esta idea, pero en 1819 ya empezó a diseñar y construir su primera máquina, que terminó en 1822, fue un pequeño motor en diferencias. La presentó en la Real Sociedad Astronómica de Londres, recibiendo por ella la medalla de oro de dicha sociedad. Fue entonces cuando obtuvo una subvención para diseñar y construir una máquina en diferencias más grande, Babbage esperaba terminarla en 3 años pero la construcción se alargó en el tiempo. En 1834 se paró la construcción de la máquina en diferencias. Su trabajo con la máquina en diferencias le condujo a nuevas ideas, y así en 1834 ya tenía realizados los primeros bocetos de la máquina analítica, que nunca llegó a construirse pero su diseño sentó las bases de la computadora actual. En 1840 Babbage dio una conferencia en Turín sobre el motor analítico, presenciando dicha conferencia estaba un matemático italiano llamado Menabrea que realizó un informe en francés sobre todo lo expuesto por Babbage. Dicho informe lo tradujo al inglés Ada Lovelace, incorporando varias ideas suyas así como diversos programas para realizar cálculos complejos con la máquina. A pesar de que Babbage no pudo construir la máquina analítica, su proyecto supuso sentar las bases de la informática y todos los conceptos por él expuestos en su diseño se demostraron que eran correctos años más tarde. 49 George Boole (1815 - 1864) Boole fue un niño inteligente, y su primer interés fue hacia los idiomas, siendo capaz de dominar el latín completamente con 12 años. Aunque no había estudiado para ello, empezó dedicándose a la enseñanza siendo a los 16 años profesor auxiliar en un colegio. También pensó realizar la carrera eclesiástica, pero en 1835 decidió abrir su propio colegio y fue cuando empezó a estudiar matemáticas por su cuenta, estudiando los trabajos de Laplace y Lagrange. Se encaminó hacia el Álgebra publicando una aplicación de métodos algebraicos para la resolución de ecuaciones diferenciales por el que recibió la medalla de la Real Sociedad Matemática de Londres. En 1849 fue nombrado catedrático de matemáticas en el Queens College, donde ejerció la enseñanza el resto de su vida. En 1854 publicó sus estudios sobre las teorías matemáticas de lógica y probabilidad. Boole redujo la lógica a una álgebra sencilla, naciendo así lo que se conoce como álgebra booleana, la cual influyó en el desarrollo de la informática. Boole murió a los 49 años por causa de una pulmonía. Aunque Boole tiene otros muchos estudios en el universo de las matemáticas sin duda alguna se le recordará por su álgebra, que fue un paso fundamental en el desarrollo de las computadoras. 50 Vannevar Bush (1890 - 1974) Nació en Massachussets (EE.UU), fue un niño enfermizo pero con un gran espíritu de superación. En la escuela ya desmostraba su gran aptitud para las matemáticas. Ingresó en el Tufts College para estudiar ingeniería, sus estudios los pagó la mitad con una beca y la otra mitad trabajando como asistente en el departamento de matemáticas. Obtuvo el master en el tiempo en el que normalmente se conseguía la licenciatura. Estando en la universidad ya realizó sus primeros inventos. Tras graduarse en la universidad trabajó para General Electric, de donde le despidieron cuando se produjo un incendio en su planta. En 1914 dio clases en el Tufts College. En 1915 ingresó en el MIT (Massachussets Institute Tecnology), en donde obtuvo su doctorado, tras lo cual regresó a Tufts College para ejercer como profesor auxiliar. Durante la Primera Guerra Mundial, un grupo de científicos interesados en ayudar al gobierno norteamericano formó el Consejo de Investigación Nacional (NRC), cuyo propósito era mejorar el armamento. Una de sus tareas fue el desarrollo de dispositivos para la detección de submarinos, que fue desarrollado por Bush a partir de 1917. Al finalizar la guerra Bush volvió al MIT para dedicarse al desarrollo de computadoras. En 1927 desarrolló su primera máquina analógica para resolver sencillas ecuaciones. Bush continuó con sus ideas y así en 1930 desarrolló el Analizador Diferencial, un dispositivo mecánico para la resolución de ecuaciones diferenciales. En 1935, Bush desarrolló una segunda versión, cuyos componentes eran electromecánicos, y la entrada de instrucciones a través de tarjetas perforadas. Durante la Segunda Guerra Mundial, Bush trabajó como consejero para el presidente de los EE.UU Roosevelt para la investigación militar. En 1945, publicó un artículo titulado "Como podemos pensar", en donde describe un máquina teórica llamada "memex", que se considera como la base teórica del hipertexto, el lenguaje de programación de internet. A lo largo de su vida obtuvo muchos premios y reconocimientos, como por ejemplo la Medalla Nacional de Ciencia que le fue entregada en 1964 51 Ada Byron, Condesa de Lovelace (1815 - 1852) Ada Byron nació el 10 de diciembre de 1815. Hija del poeta Lord Byron, su madre hizo todo lo posible para que no siguiera los pasos de su padre por lo que desde pequeña la guió por el camino de las ciencias y las matemáticas. Con 17 años Ada conoció a Mary Sormerville que la animó en sus estudios matemáticos. Durante una cena organizada por Sormerville en noviembre de 1834, Ada oyó a Charles Babbage hablar de sus ideas sobre la máquina analítica, y a partir de ahí surgió la colaboración entre ambos. Babbage trabajó sobre este proyecto y realizó una conferencia sobre sus trabajos en un seminario de Turín (Italia) en 1840, y un matemático italiano llamado Menabrea escribió un articulo en francés sobre todo lo dicho por Babbage. Ada, que estaba casada desde 1843 con el Conde de Lovelace y era madre de 3 niños, tradujo este artículo, y cuando se lo enseñó a Babbage éste le sugirió que añadiera sus propias ideas. El resultado fue que las notas que añadió Ada eran tres veces más del artículo original. En dichas notas, que fueron publicadas en 1843, ella predijo que la máquina de Babbage podría ser usada tanto para un uso práctico como científico. Ada sugirió a Babbage escribir un "plan" para que la máquina calculase números de Bernuilli, este "plan" es considerado el primer "programa de ordenador", y por ello se considera a Ada el primer programador de la historia. Existe un lenguaje de programación desarrollado por el departamento de defensa de USA en 1979 que lleva su nombre: ADA. Fue una mujer adelantada a su tiempo, que lamentablemente murió muy joven (con 37 años). 52 John Presper Eckert (1919 - 1995) Nació en Filadelfia (EE.UU), en 1937 ingresó en la Universidad de Pensylvania para estudiar ingeniería eléctrica, terminando la carrera en 1941 con excelentes calificaciones. Tras su graduación le dieron un puesto como instructor de cursillos de electrónica para las investigaciones que se llevaban a cabo con motivo de la Segunda Guerra Mundial. Uno de sus alumnos es dichos cursillos fue John Mauchly (que era 12 años mayor que Eckert). Eckert enseguida se interesó por las ideas que tenía Mauchly sobre la construcción de una computadora. De la colaboración de ambos surgió el proyecto ENIAC. En Mayo de 1943 designaron a Eckert ingeniero principal del proyecto cuya tarea especifica era diseñar los circuitos electrónicos. Uno de los problemas que solucionó fue conseguir que las 18000 válvulas de las que estaba compuesto el ENIAC tuvieran una vida larga para que así el ENIAC fuera viable. También se encargó del diseño de las calculadoras en base 10 para el ENIAC. En octubre de 1946 Eckert abandonó la universidad de Pensylvania, al igual que Mauchly. Creando juntos la empresa "Control Electrónico" (Eckert-Mauchly Corporation) construyendo diversas computadora como el BINAC (Computadora Binaria Automática) en la que los datos eran almacenados en cintas magnéticas, o el UNIVAC (Computadora Universal Automática) que fue la primera que se comercializó en EEUU. Pero tuvieron problemas económicos con lo que su empresa fue absorbida en 1950 la Rand Remington Corporation, Eckert permaneció en la compañía pasando a ser un ejecutivo de la misma. Se fusionaron con Burroughs Corporation creándose así Unisys. Eckert se retiró de Unisys en 1989, aunque siguió ejerciendo como consultor para distintas empresas. Eckert tenía muchas patentes sobre electrónica. Y recibió numerosos premios por su trabajo pionero en el mundo de las computadoras, como la Medalla Nacional de Ciencia en 1969 (el más prestigioso en EEUU). 53 Gottfried Wilhelm Leibniz (1646 - 1716) Filósofo, matemático y estadista alemán. Estudió en las universidades de Leizpig, Jena y Altdof. En 1666 obtuvo un doctorado en leyes dedicándose a tareas legales, políticas y diplomáticas. En 1673 se trasladó a París realizando constantes viajes a Inglaterra, en esa época fue cuando más se dedicó a estudiar matemáticas y ciencias. Fue cuando empezó a interesarse por la mecanización del cálculo como demuestran sus palabras: "Es despreciable que excelentes hombres pierdan horas trabajando como esclavos en las tareas de cálculo, las cuales podrían ser relegadas con toda seguridad a cualquier otra persona si las máquinas fueran usadas". Diseñó una máquina capaz de realizar cálculos matemáticos siendo unas de las primeras de la historia. En un principio durante uno de sus viajes a Londres mostró a la Real Sociedad de Matemáticas su calculadora incompleta. Algunos miembros de dicha Sociedad mostraron sus dudas sobre su calculadora. Esto produjo que Leibniz se esforzará más prometiendo a la Real Sociedad que terminaría la calculadora. Algo que consiguió y con ello el reconocimiento de la Real Sociedad. Leibniz desarrolló varios aspectos de la lógica simbólica como la formulación de las propiedades principales de la suma lógica y la multiplicación lógica, entre otras muchas. Su contribución más notable a las matemáticas fue la creación, junto con Newton, del cálculo infinitesimal. Dentro de la filosofía, al igual que el filósofo y teólogo español Ramón Llull, Leibniz tenía la idea de que era posible que las máquinas generaran ideas automáticamente, es decir por si solas. Estaba convencido de que el pensamiento era fruto de la realización de un cálculo. Desde 1676 hasta que murió trabajó como bibliotecario y consejero privado en la corte de Hannover (Alemania). 54 John W. Mauchly (1907 - 1980) Aunque consiguió una beca para estudiar ingeniería, se dedicó a estudiar física obteniendo el doctorado en 1932. En 1940, cuando estaba dando clases de física en el Colegio Ursinos en Filadelfia, empezó a interesarse por el mundo de la computadora empezando a investigar el desarrollo de circuitos eléctricos. En 1941, en plena Segunda Guerra Mundial, Mauchly recibió un cursillo sobre electrónica para utilizarla para la defensa (ejército) en la universidad de Pensylvania. Mauchly empezó a desarrollar ideas para la construcción de computadoras, y fue entonces cuando John Eckert (que fue uno de sus instructores en el cursillo) se interesó por dichas ideas, y en 1943 se aprobó la construcción del computador ENIAC (en donde colaboró activamente Eckert), cuya función específica sería el cálculo de trayectorias de las bombas. Hasta 1946 no se terminó de construir. Mauchly y Eckert abandonaron la universidad de Pensylvania en 1946 fundando la empresa "Control Electrónico" (Eckert-Mauchly Corporation) . La compañía aérea Northrop les encargó la "Computadora Binaria Automática" (BINAC) construida en 1949. En el BINAC los datos eran almacenados sobre cinta magnética en vez de en tarjetas perforadas. Otra de las computadoras que construyeron fue la "Computadora Universal Automática" (UNIVAC), que fue la primera computadora que se comercializó en EEUU (se vendieron 46 unidades). Pero Mauchly y Eckert eran mejores ingenieros que economistas por lo que su empresa fue absorbida por otra compañía. En 1965 Mauchly abandonó la empresa. En 1966 recibió el premio concedido por la Computer Society por su aportación al desarrollo de las computadoras. 55 Grace Murray Hopper (1906 - 1992) Nació en Nueva York (EE.UU), desde muy pequeña demostró una gran aptitud para las ciencias y las matemáticas. Y tanto su abuelo como su padre siempre la animaron a que las estudiara. También le atrajo mucho cualquier tipo de dispositivo mecánico, y así lo demuestra cuando con 7 años desarmó todos los relojes de su casa para ver si podía así entender su funcionamiento. En el colegio ya destacaba como alumna en matemáticas. Su padre siempre motivó a su hija para que estudiara y llegará a la universidad para así ser autosuficiente. Hopper estudió en varias escuelas privadas para mujeres, y en 1924 ingresó en Vassar College en Nueva York, donde cursó estudios en matemáticas y física, graduándose con honores en 1928. A continuación obtuvo una beca para cursar un master en matemáticas en la universidad de Yale, de donde se graduó en 1930. Vassar College le ofreció un puesto como asistente en su departamento de matemáticas, en donde permaneció hasta 1943 mientras continuaba sus estudios en Yale, obteniendo el doctorado en matemáticas en 1934. En 1943 decidió unirse a las fuerzas armadas en plena Segunda Guerra Mundial, para lo cual tuvo que obtener un permiso especial. Asistió a la Escuela de cadetes navales para Mujeres, graduándose la primera de su clase en 1944 y obteniendo el rango de teniente. Fue enviada a Harvard para trabajar en el Proyecto de Computación que dirigía el comandante Howard Aiken, la construcción de la Mark I. Tras el final de la Segunda Guerra Mundial Hooper quiso seguir en la Armada pero como ya había cumplido los 40 años en 1946 (el límite eran 38) fue rechazada permaneciendo en la reserva. Por lo que siguió en Harvard como Investigadora junto a Aiken. Desarrolló varias aplicaciones contables para la Mark I, que estaba siendo utilizada por una compañía de seguros. Permaneció en Harvard hasta 1949, cuando Hopper empezó a trabajar en la Eckert - Mauchly Corporation en Filadelfia (compañía fundada por los inventores del ENIAC, Eckert y Mauchly), que en esos momentos estaban desarrollando las computadoras BINAC y UNIVAC I. Trabajó en esa compañía y en sus sucesoras hasta su retiro en 1971. Allí fue donde Hopper realizó sus mayores contribuciones a la programación moderna. En 1952, desarrolló el primer compilador de la historia, llamado A-0, y en 1957 realizó el primer compilador para procesamiento de datos que usaba comandos en inglés, el B-0 (FLOW-MATIC), cuya aplicación principal era el cálculo de nóminas. 56 Tras su experiencia con FLOW-MATIC, Hopper pensó que podía crearse un lenguaje de programación que usara comandos en inglés y que sirviera para aplicaciones de negocios. La semilla de COBOL había sido sembrada, y 2 años después se creó el comité que diseño el famoso lenguaje. Aunque Hopper no tuvo un papel preponderante en el desarrollo del lenguaje, fue miembro del comité original para crearlo, y el FLOW-MATIC fue una influencia tan importante en el diseño de COBOL, que se considera a Hopper como su creadora. Hooper trabajando con la UNIVAC Hopper permaneció en la reserva de la Armada hasta 1966, cuando tuvo que retirarse con el grado de Comandante, por haber alcanzado el límite de edad nuevamente. Pero este retiro duró poco ya que la Armada la volvió a llamar en 1967 para que estandarizara los lenguajes de alto nivel que usaban. Se reincorporó y permaneció en el servicio durante 19 años más. En 1986, Hopper se retiró de la Armada de manera definitiva, siendo en ese momento la oficial de más edad de la Armada de los EE.UU. Tras su retiro, se incorporó como asesora en Digital Equipment Corporation, participando en foros industriales, dando unas 200 conferencias por año y participando en programas educativos hasta 1990, cuando la "increíble Grace", que era como la conocían sus amistades, se retiró definitivamente. A lo largo de su vida, Hopper recibió numerosos reconocimientos, que incluyen más de 40 doctorados honoris causa, la Medalla Nacional de Tecnología, la Medalla Wilbur Lucius Cross de Yale, el rango de Comodore en 1983 y el de contra-almirante en 1985. 57 Blaise Pascal (1623 - 1662) Nacido en Clermont (Francia), quedó huérfano de madre a los 3 años. En 1632 se trasladó a vivir a París. El padre de Pascal tenía unas opiniones poco ortodoxas sobre la educación, por lo que él se dedicaba a enseñar a su propio hijo. Unas de dichas opiniones era que Pascal no debía estudiar matemáticas, pero esto produjo en Pascal curiosidad que le llevó a estudiarlas a espaldas de su padre. En 1639 la familia Pascal se trasladó a vivir a Rouen, donde habían destinado al padre como recaudador de impuestos. Para ayudar a su padre en su trabajo, Pascal inventó uno calculadora mecánica. Trabajó varios años en este proyecto hasta perfeccionarla, a la máquina se la conoció como la Pascalina. Se construyeron y comercializaron varios ejemplares de la máquina que estaba pensada para cálculos con la moneda francesa. Esto hace que Pascal fuera la segunda persona tras Schickard en inventar una calculadora mecánica. La Pascalina Otro de los campos en los que estudió Pascal fue la física, y más concretamente sobre la presión atmosférica publicando en 1653 el Tratado sobre el equilibrio de líquidos. En 1654 formuló, junto con Pierre de Fermat, la teoría matemática de la 58 probabilidad. Pascal fue un hombre profundamente religioso, y esto se reflejaba es sus trabajos filosóficos, como el que publicó en 1656 Pensées, en donde dice: "Si Dios no existe, uno no perderá nada creyendo en él, mientras que si él existe, uno perderá todo por no creer". 59 Wilhelm Schickard (1592 - 1635) Nació en Herrenberg (Alemania), estudió en la universidad de Tübingen hasta 1613 habiendo cursado teología y lenguas orientales. En 1613 fue nombrado ministro Luterano, cargo que ocupó hasta 1619 cuando pasó a ejercer de profesor de hebreo en la universidad de Tübingen. En 1631 cambió y empezó a enseñar astronomía en la misma universidad. Fue entonces cuando se ampliaron sus investigaciones al universo de las matemáticas; inventó numerosas máquinas como por ejemplo para el cálculo de fechas astronómicas. Otro campo en donde realizó progresos fue en la cartografía. Actualmente se reconoce a Schickard como el primero en construir una máquina mecánica de calcular, según consta en unas cartas enviadas a su a amigo Kepler en 1624, en donde le explica el diseño y funcionamiento de una máquina que había construido a la que denominó reloj calculante. La carta iba acompañada de varios bocetos, y explicaba que la máquina fue destruida en un misterioso incendio ocurrido en la casa de Schickard: "... Te haré en otra ocasión un diseño más cuidadoso de la máquina aritmética; en resumidas cuentas, mira lo siguiente: aaa son los botones de los cilindros verticales que llevan las cifras de la tabla de multiplicación, que aparecen a la voluntad en las ventanas de las correderas bbb. Los discos ddd son solidarios con ruedas dentadas interiores, de diez dientes, engranadas entre sí de manera que, si la rueda de la derecha da diez vueltas su vecina de la izquierda sólo da una; y que si la primera de la derecha da cien vueltas la tercera de la izquierda da una, y así sucesivamente. Todas ellas giran en el mismo sentido por lo que es necesaria una rueda de reenvío del mismo tamaño engranando permanentemente con su vecina de la izquierda, aunque no con la de la derecha, lo que requiere un cuidado especial en la fabricación. Las cifras marcadas en cada una de las ruedas se leen en las aberturas ccc de la plancha central. Finalmente, sobre el zócalo se encuentran los botones eee que sirven para inscribir en las aberturas fff las cifras que se hayan de anotar en el curso de las operaciones. Sería muy prolijo completar esta rápida descripción que se comprendería mejor con la práctica. Te había hecho fabricar un ejemplar de esta máquina por J. Pfister, que vive aquí; pero ha sido destruido hace tres días junto con algunas de mis pertenencias... en un incendio nocturno..." 60 Diseño de la máquina de Schickard Gracias a toda la información que dejó Schickard se ha podido reconstruir algunos ejemplares, habiendo uno, por ejemplo, en el Museo de la Ciencia de Munich. Reconstrucción de la máquina de Schickard 61 Claude Shannon (1916 - 2001) Nació en Michigan (EE.UU), tras obtener los títulos en Matemáticas e Ingeniería en la universidad de Michigan, ingresó en el MIT (Massachusset Institute of Technology) para continuar en sus estudios. Fue allí donde realizó una tesis con respecto el uso del álgebra de Boole para la construcción de máquinas lógicas. En 1940 obtuvo el doctorado en Matemáticas, pasando a trabajar durante un año en el Instituto de Estudios Avanzados de Princeton. Transcurrido dicho año entró a trabajar en la Bell Telephone en New Jersey, realizando investigaciones para obtener mejoras en la transmisión de información a través de las líneas telefónicas a larga distancia. En 1948 publicó "Una teoría matemática de la comunicación" que estableció las bases de la comunicación actual. Shannon estaba muy interesado en la idea de que las máquinas pudieran aprender, y por ello en 1952 inventó un ratón eléctrico capaz de encontrar el camino correcto en un laberinto. Siendo uno de los padres de lo que conocemos por inteligencia artificial. 62 George R. Stibitz (1904 - 1995) Nació en Pensylvania (EE.UU), se graduó como doctor en matemáticas Aplicadas por la universidad de Denison en 1926. Recibió un M.S del Union College en 1927, y el doctorado en física por la universidad de Cornell en 1930. Al finalizar sus estudios entró a trabajar en los Laboratorios Bell como consultor matemático. En 1937, desarrolló una máquina digital basada en relés, y válvulas, a la que llamó "Model K" (K de kitchen, cocina en inglés, ya que la fabricó encima de la mesa de la cocina), una réplica de esta máquina se encuentra en el museo Smithsonian. En 1939, para realizar cálculos aritméticos con números complejos necesarios en trabajos de filtrado de señales, empezó la construcción de una máquina llamada "Complex Number Calculator", realizando una espectacular demostración en 1940. De 1940 a 1945, trabajó en la Oficina estadounidense de Investigación y desarrollo Científico. Durante la Segunda Guerra Mundial, fue consultor en matemáticas para varias agencias del gobierno norteamericano. En 1964 se unió al Departamento de Filosofía en la Facultad de medicina de Dartmouth, para trabajar en la investigación del uso de la física, las matemáticas y las computadoras en sistemas biofísicos. A partir de 1966 se dedicó a ejercer la enseñanza. 63 Leonardo Torres Quevedo (1852 - 1936) Nació en Santa Cruz de Iguña (Santander), fue el ingeniero español más reconocido. Gran científico, desarrolló numerosos inventos reconocidos internacionalmente, sobre todo en el campo de la automática, considerándosele como precursor de la informática. En su juventud residió en Bilbao en donde en 1868 acaba sus estudios de Bachillerato marchándose a Paris durante dos años para continuar con sus estudios. En 1870 se trasladó, junto con su familia, a vivir a Madrid, y un año más tarde ingresó en la Escuela Oficial del Cuerpo de Ingenieros de Caminos, finalizando sus estudios en 1876. Al término de dichos estudios se dedicó a ejercer la ingeniería y a viajar por toda Europa adquiriendo más conocimientos. En 1885 regresó a España iniciando así su gran trayectoria científica e inventiva. En 1887 Torres Quevedo empiezó la investigación y desarrollo de un trasbordador, realizando el primero en su propia casa. En 1907 construyó el primer trasbordador apto para el transporte humano, lo hizo en el Monte Ulía (San Sebastián). A partir de aquí construyó muchos otros, mediante la Sociedad de Estudios y Obras de Ingeniería de Bilbao, por ejemplo en Chamoix, o Río de Janeiro. Pero el más famoso fue el construido sobre las Cataratas del Niágara llamado "Spanish Aerocar", que se inauguró en pruebas en 1916, siguiendo hoy en día en pleno funcionamiento. En 1894 presentó a la Real Academia de Ciencias una memoria sobre las máquinas algebraicas, incorporando el diseño de una, que más adelante construyó. Una máquina analógica que resolvía ecuaciones algebraicas, y para la que inventó un "husillo sin fin". En 1902 presentó en las Academias de Ciencias de Madrid y Paris un nuevo modelo de dirigible, con muchas mejoras respecto a los ya existentes. En 1905 construyó el primer dirigible español, llamado el "España". En 1903, Torres Quevedo diseñó y construyó el primer aparato de radiocontrol del mundo, el telekino, presentándolo en la Academia de Ciencias de Paris. Otros de los inventos de Torres Quevedo fueron los jugadores ajedrecistas, que se consideran como precursores de la inteligencia artificial. Construyó dos, el primero en 1912 que fue expuesto en Paris, y el segundo en 1920 con la ayuda de su hijo. En 1914 publicó una memoria titulada "Ensayos sobre Automática". Con este 64 trabajo Torres Quevedo muestra la posibilidad de diseñar un computador digital electromecánico 20 años antes de que se empezaran a construir. En 1920 construyó el "aritmómetro electromecánico", que era una máquina calculadora junto con una máquina de escribir, que se puede considerar antecesora de la calculadora digital. A lo largo de su vida recibió varios premios y reconocimientos, entre ellos: 1916. Se le concede la Medalla Echegaray de manos de Alfonso XIII. 1918. Rechaza el cargo de Ministro de Fomento. 1920. Ingresa en la Real Academia Española sustituyendo a Benito Pérez Galdós. 1922. Es nombrado Doctor Honoris Causa por la Universidad de la Sorbona. 65 Alan Mathison Turing (1912 - 1954) Nació en Londres (Gran Bretaña), desde muy temprana edad Turing demostró su inteligencia. Alos 3 años tenía una inusual capacidad para recordar palabras y a los 8 años se interesó por la química montando un laboratorio en su casa. Con 13 años ingresó en la escuela Sherborne, en la que ya demostraba su facilidad para las matemáticas, teniendo una gran capacidad para realizar cálculos mentalmente. Obtuvo una beca para estudiar en la universidad de Cambridge, en donde se graduó de la licenciatura de matemáticas con honores en 1934. En abril de 1936, publicó el artículo "On computable numbers, with an application to the Entscheidungsproblem" en el que introduce el concepto de algoritmo y de máquina de Turing. Este artículo da respuesta (negativa) al problema de la decisión formulada por Hilbert en 1900, probando que existen problemas sin solución algorítmica y es uno de los cimientos más importantes de la teoría de la computación. En septiembre de 1936, Turing ingresó en la universidad de Princeton (EE.UU). Su artículo atrajo la atención de uno de los científicos más destacados de la época, John von Neumann, quien le ofreció una beca en el Instituto de Estudios Avanzados. Turing obtuvo su doctorado en matemáticas en 1938. Tras su graduación, von Neumann le ofreció una plaza como su asistente, pero Turing rechazó la oferta y volvió a Inglaterra, en donde vivió de una beca universitaria mientras estudiaba filosofía de las matemáticas entre 1938 y 1939. En 1939, con el comienzo de la Segunda Guerra Mundial, Turing fue reclutado por el ejército británico para descifrar los códigos emitidos por la máquina Enigma utilizada por los alemanes. En el deseo de obtener mejores máquinas descifradoras, se comenzó a construir la primera computadora electrónica, llamada Colossus, bajo la supervisión de Turing, se construyeron 10 unidades, y la primera empezó a operar en 1943. Por su trabajo en el Colossus, Turing recibió la Orden del Imperio Británico en 1946. En 1944, Turing fue contratado por el Laboratorio Nacional de Física (NLP) para competir con el proyecto americano EDVAC, de von Neumann. Turing ejerció como Oficial Científico Principal a cargo del Automatic Computing Engine (ACE). Hacia 1947, Turing concibió la idea de las redes de cómputo y el concepto de subrutina y biblioteca de software. También describió las ideas básicas de lo que hoy se conoce 66 como red neuronal. Abandonó la NLP en 1948. Turing se adelantó al proyecto de construcción de un ordenador de acuerdo con la arquitectura de von Neumann. El Manchester Mark I, estuvo acabado en 1948 antes que el EDVAC. Turing diseñó para esta máquina un lenguaje de programación basado en el código empleado por los teletipos. Otro de los campos de investigación de Turing fue la inteligencia artificial, se puede decir que esta disciplina nació a partir del artículo titulado "Computing Machinery and Inteligence" publicado por Turing en 1950. Es muy famosa la primera frase de este artículo: " Propongo considerar la siguiente cuestión: ¿Pueden pensar las máquinas? ". Turing propuso un método llamado el test de Turing para determinar si las máquinas podrían tener la capacidad de pensar. En 1951, es nombrado miembro de la Sociedad Real de Londres por sus contribuciones científicas. Y en su honor, la Association for Computing Machinery llama "Turing Award" a su premio más importante, el cual se otorga desde 1966 a los expertos que han realizado las mayores contribuciones al avance de la computación 67 Alan Mathison Turing (1912 - 1954) Nació en Londres (Gran Bretaña), desde muy temprana edad Turing demostró su inteligencia. Alos 3 años tenía una inusual capacidad para recordar palabras y a los 8 años se interesó por la química montando un laboratorio en su casa. Con 13 años ingresó en la escuela Sherborne, en la que ya demostraba su facilidad para las matemáticas, teniendo una gran capacidad para realizar cálculos mentalmente. Obtuvo una beca para estudiar en la universidad de Cambridge, en donde se graduó de la licenciatura de matemáticas con honores en 1934. En abril de 1936, publicó el artículo "On computable numbers, with an application to the Entscheidungsproblem" en el que introduce el concepto de algoritmo y de máquina de Turing. Este artículo da respuesta (negativa) al problema de la decisión formulada por Hilbert en 1900, probando que existen problemas sin solución algorítmica y es uno de los cimientos más importantes de la teoría de la computación. En septiembre de 1936, Turing ingresó en la universidad de Princeton (EE.UU). Su artículo atrajo la atención de uno de los científicos más destacados de la época, John von Neumann, quien le ofreció una beca en el Instituto de Estudios Avanzados. Turing obtuvo su doctorado en matemáticas en 1938. Tras su graduación, von Neumann le ofreció una plaza como su asistente, pero Turing rechazó la oferta y volvió a Inglaterra, en donde vivió de una beca universitaria mientras estudiaba filosofía de las matemáticas entre 1938 y 1939. En 1939, con el comienzo de la Segunda Guerra Mundial, Turing fue reclutado por el ejército británico para descifrar los códigos emitidos por la máquina Enigma utilizada por los alemanes. En el deseo de obtener mejores máquinas descifradoras, se comenzó a construir la primera computadora electrónica, llamada Colossus, bajo la supervisión de Turing, se construyeron 10 unidades, y la primera empezó a operar en 1943. Por su trabajo en el Colossus, Turing recibió la Orden del Imperio Británico en 1946. En 1944, Turing fue contratado por el Laboratorio Nacional de Física (NLP) para competir con el proyecto americano EDVAC, de von Neumann. Turing ejerció como Oficial Científico Principal a cargo del Automatic Computing Engine (ACE). Hacia 1947, Turing concibió la idea de las redes de cómputo y el concepto de subrutina y biblioteca de software. También describió las ideas básicas de lo que hoy se conoce 68 como red neuronal. Abandonó la NLP en 1948. Turing se adelantó al proyecto de construcción de un ordenador de acuerdo con la arquitectura de von Neumann. El Manchester Mark I, estuvo acabado en 1948 antes que el EDVAC. Turing diseñó para esta máquina un lenguaje de programación basado en el código empleado por los teletipos. Otro de los campos de investigación de Turing fue la inteligencia artificial, se puede decir que esta disciplina nació a partir del artículo titulado "Computing Machinery and Inteligence" publicado por Turing en 1950. Es muy famosa la primera frase de este artículo: " Propongo considerar la siguiente cuestión: ¿Pueden pensar las máquinas? ". Turing propuso un método llamado el test de Turing para determinar si las máquinas podrían tener la capacidad de pensar. En 1951, es nombrado miembro de la Sociedad Real de Londres por sus contribuciones científicas. Y en su honor, la Association for Computing Machinery llama "Turing Award" a su premio más importante, el cual se otorga desde 1966 a los expertos que han realizado las mayores contribuciones al avance de la computación. 69 Alan Mathison Turing (1912 - 1954) Nació en Londres (Gran Bretaña), desde muy temprana edad Turing demostró su inteligencia. Alos 3 años tenía una inusual capacidad para recordar palabras y a los 8 años se interesó por la química montando un laboratorio en su casa. Con 13 años ingresó en la escuela Sherborne, en la que ya demostraba su facilidad para las matemáticas, teniendo una gran capacidad para realizar cálculos mentalmente. Obtuvo una beca para estudiar en la universidad de Cambridge, en donde se graduó de la licenciatura de matemáticas con honores en 1934. En abril de 1936, publicó el artículo "On computable numbers, with an application to the Entscheidungsproblem" en el que introduce el concepto de algoritmo y de máquina de Turing. Este artículo da respuesta (negativa) al problema de la decisión formulada por Hilbert en 1900, probando que existen problemas sin solución algorítmica y es uno de los cimientos más importantes de la teoría de la computación. En septiembre de 1936, Turing ingresó en la universidad de Princeton (EE.UU). Su artículo atrajo la atención de uno de los científicos más destacados de la época, John von Neumann, quien le ofreció una beca en el Instituto de Estudios Avanzados. Turing obtuvo su doctorado en matemáticas en 1938. Tras su graduación, von Neumann le ofreció una plaza como su asistente, pero Turing rechazó la oferta y volvió a Inglaterra, en donde vivió de una beca universitaria mientras estudiaba filosofía de las matemáticas entre 1938 y 1939. En 1939, con el comienzo de la Segunda Guerra Mundial, Turing fue reclutado por el ejército británico para descifrar los códigos emitidos por la máquina Enigma utilizada por los alemanes. En el deseo de obtener mejores máquinas descifradoras, se comenzó a construir la primera computadora electrónica, llamada Colossus, bajo la supervisión de Turing, se construyeron 10 unidades, y la primera empezó a operar en 1943. Por su trabajo en el Colossus, Turing recibió la Orden del Imperio Británico en 1946. En 1944, Turing fue contratado por el Laboratorio Nacional de Física (NLP) para competir con el proyecto americano EDVAC, de von Neumann. Turing ejerció como Oficial Científico Principal a cargo del Automatic Computing Engine (ACE). Hacia 1947, Turing concibió la idea de las redes de cómputo y el concepto de subrutina y biblioteca de software. También describió las ideas básicas de lo que hoy se conoce 70 como red neuronal. Abandonó la NLP en 1948. Turing se adelantó al proyecto de construcción de un ordenador de acuerdo con la arquitectura de von Neumann. El Manchester Mark I, estuvo acabado en 1948 antes que el EDVAC. Turing diseñó para esta máquina un lenguaje de programación basado en el código empleado por los teletipos. Otro de los campos de investigación de Turing fue la inteligencia artificial, se puede decir que esta disciplina nació a partir del artículo titulado "Computing Machinery and Inteligence" publicado por Turing en 1950. Es muy famosa la primera frase de este artículo: " Propongo considerar la siguiente cuestión: ¿Pueden pensar las máquinas? ". Turing propuso un método llamado el test de Turing para determinar si las máquinas podrían tener la capacidad de pensar. En 1951, es nombrado miembro de la Sociedad Real de Londres por sus contribuciones científicas. Y en su honor, la Association for Computing Machinery llama "Turing Award" a su premio más importante, el cual se otorga desde 1966 a los expertos que han realizado las mayores contribuciones al avance de la computación. 71 John von Neumann (1903 - 1957) Nació en Budapest (Hungría), su nombre verdadero es Margittai Neumann János (los húngaros colocan sus apellidos antes que el nombre) que se puede traducir como János Neumann de Margitta, que se transformó en Jhohann Neumann von Margitta cuando se trasladó a Alemania y que luego se lo recortaron quedándose en Johann von Neumann, para finalmente conocérsele mundialmente como John von Neumann, al llegar a EE.UU. John von Neumann fue un niño prodigio, con una gran memoria fotográfica y una gran habilidad para los idiomas. A los 10 años ingresó al Gimnasio Luterano, en donde destacó por su talento para las matemáticas. Ingresó en la universidad de Budapest en 1921 para estudiar matemáticas, aunque sólo iba a la universidad cuando tenía que hacer los exámenes, en cambio si asistía a clases de química en Berlín, entre 1921 y 1923. Su padre no quería que estudiase matemáticas, ya que pensaba que no era una carrera con la que que luego pudiera ganar dinero, por eso von Neumann ingresó en Eidgenssische Technische Hochschule (ETH) en Zurcí para estudiar ingeniería química, sin darse de baja en la universidad de Busapest. En 1925 obtuvo la licenciatura en ingeniería química, y en 1926 el doctorado en matemáticas. De 1926 a 1927 trabajó en la universidad de Göttingen gracias a una beca. En 1927 fue nombrado conferenciante en la universidad de Berlín. En 1930, fue invitado para trabajar como profesor visitante en la universidad de Princeton (EE.UU), y durante 3 años von Neumann pasaba medio año enseñando en Princeton y medio año enseñando en Berlín. En 1933 fue contratado por el Instituto de Estudios Avanzados (IEA) y en 1937 se nacionalizó norteamericano. Al comenzar la Segunda Guerra Mundial comenzó a trabajar para el Gobierno de los EE.UU, hacia 1943 von Neumann empezó a interesarse por la computación para ayudarse en su trabajo, en aquellos años había numerosas computadoras en construcción, como por ejemplo la Mark I (Howard Aiken) o Complex Computer (George Stibiz), pero con la que von Neumann se involucró fue el ENIAC (junto con John Presper Eckert y John W. Mauchly). Una vez finalizada la construcción del ENIAC y viendo sus limitaciones, decidieron definir todo un nuevo sistema lógico de computación basado en las ideas de Turing y se enfrascaron en el diseño y la construcción de una computadora más poderosa el EDVAC (Electronic Discrete Variable Arithmetic Computer). Pero hubo problemas legales con la titularidad de lo que hoy conocemos como Arquitectura de von Neumann. Esto produjo que el diseño se hiciera público, al final Eckert y Mauchly siguieron su camino y von Neumann 72 regresó a Princeton con la idea de construir su propia computadora. En los años 50 construyó la computadora IAS, cuyo diseño ha sido una de las bases de la computadora actual, conociéndose como "arquitectura de von Neumann". Otras de sus contribuciones en computación fueron por ejemplo el uso de monitores para visualizar los datos y el diagrama de flujo. También colaboró en el libro "Cibernética: control y comunicación en el animal y en la máquina" escrito junto con Norbert Wiener, en donde se explica la teoría de la cibernética. En 1954 empezó a trabajar para la Comisión de Energía Atómica. A lo largo de su vida von Neumann obtuvo numerosos reconocimientos por su labor científica, como varios doctorados Honoris Causa, la medalla presidencial al mérito, y el premio Albert Einstein. También recibió en 1956 el premio Enrico Fermi de la Comisión de Energía Atómica por sus "notables aportaciones" a la teoría y diseño de las computadoras electrónicas. 73 Norbert Wiener (1894 - 1964) Nació en Columbia (EE.UU), fue un niño prodigio y a los 11 años ingresó en la universidad; estudió en las universidades de Cornell, Cambrigde, Göttingen y Harvard, en esta última obtuvo su doctorado en matemáticas con 19 años. Durante la Segunda Guerra Mundial, Wiener trabajó para su gobierno en proyectos relacionados con la defensa antiaérea. Fue cuando se dio cuenta de la necesidad de mejorar las computadoras que había en aquella época, se encaminó hacia la comunicación de información y para ello en el desarrollo de los sistemas de redes. Tras la guerra Wiener continuó constribuyendo con nuevas ideas en diversos campos, incluyendo la teoría de la predicción matemática y la teoría cuántica (debatiendo con físicos como Niels Bohr y Albert Einstein). En 1942, durante un congreso en Nueva York, conoció al científico Rosenblueth y empezó a investigar acerca de los robots y sistemas automáticos, sentando así los fundamentos de una nueva ciencia: la cibernética, vocablo adoptado por Wiener en 1947, y que procede del griego "kybernetes" y que significa piloto. En 1948 publicó su obra "Cibernética: control y comunicación en el animal y en la máquina", en donde desarrolla toda la teoría de la cibernética. Fue profesor de matemáticas en el Instituto Tecnológico de Massachussets (MIT) desde 1932 hasta 1960, también impartió cursos por numerosas universidades del mundo (México, India,...). Poco antes de morir en 1964 recibió la Medalla Nacional de EE.UU en ciencia de manos del presidente Lindon B. Johnson. Existe un premio que lleva su nombre y se entrega desde 1987 por la CPSR (Computer Profesional for Social Responsibility) anualmente a aquellas personas que se dedican a difundir e incrementer el uso de la nuevas tecnologías. 74 Konrad Zuse (1910 - 1995) Nació en Berlín - Wilmersdorf (Alemania), a los 9 años ingresó en el Gymnaisum Hosianum; durante toda su vida como estudiante siempre fue alrededor de 2 años más joven que sus compañeros de clase. A los 14 años Zuse cambió de escuela e ingresó en Realgymnasium. Zuse ingresó en la Technische Hochschule en Berlín con 17 años para estudiar ingeniería mecánica, aunque luego se cambió a arquitectura y acabó por graduarse como ingeniero civil en 1935. Fue mientras estudiaba, cuando se le ocurrió la idea de construir una máquina para realizar cálculos. Entre 1935 y el inicio de la Segunda Guerra Mundial (1939), Zuse construyó dos máquinas, la Z1 y la Z2. La Z1 era un sistema mecánico, pero Zuse se dio cuenta de las limitaciones por lo que la rediseñó usando relés telefónicos naciendo así la Z2. Ya durante la Segunda Guerra Mundial, Zuse quiso construir una computadora utilizando tubos de vacío, y a pesar que en plena guerra era muy difícil obtener las piezas, Zuse logró construir la Z3, que él mismo denominó la "primera computadora funcional del mundo", en 1941 se mostró la Z3 al Instituto de Investigaciones Aeronáuticas de Alemania (DVL). La demostración fue un éxito y la DVL le ofreció un contrato a Zuse para que construyera la Z4. La Z3 fue destruida durante uno de los bombardeos a Berlín, pero debido a su importancia histórica fue reconstruida 20 años después para el Deutsches Museum de Munich. Al igual que para la Z3, la construcción de la Z4 fue dificultoso por la escasez de piezas. Y fue milagrosamente salvada de los constantes bombardeos, en los cuales se destruyeron todas las máquinas de Zuse. Con la ayuda del gobierno alemán, se trasladó la Z4 hasta una granja en los Alpes junto a Zuse y su familia. Al finalizar la guerra, y con la llegada de los aliados, la Z4 fue examinada por británicos y norteamericanos, y fue cuando Zuse oyó hablar por primera vez de las computadoras Mark I y ENIAC. Increíblemente el trabajo de Zuse y la Z4 fue ignorado. Entre 1945 y 1946 Zuse desarrolló el Plankalkül, o cálculo de planes, que se considera el primer lenguaje algorítmico del mundo. En 1947, mientras Alemania se recuperaba de la guerra, Zuse fundó la compañía Zuse-Ingenieurbüro (que más adelante pasaría a ser la ZUSE-KG); IBM intentó tentar a Zuse pero no lo consiguió. En cambio si que llegó a un acuerdo con la Remington Rand para desarrollar nuevas computadoras como la Z4, que fue usada desde 1950 hasta 1954 por el Instituto Federal Suizo de Tecnología. 75 En los años 50, se desarrolló la Z5, la última de las grandes máquinas de cómputo basada en relés. Otras de las computadoras que desarrolló fueron la Z11, la Z22 (de tubos de vacío) o la Z23 (de transistores). La ZUSE KG creció hasta tener cerca de 1000 empleados pero a pesar de ello al final acabó en la bancarrota en 1957, subsistiendo con dificultad. En 1958, Zuse desarrolló y construyó un graficador (o plotter) controlado por computadora, el Z64 o Graphomat. En 1964 la ZUSE KG fue vendida a la Brown, Boveri and Company. En 1966 Zuse fue nombrado profesor honorario de la universidad de Göttingen y en 1967 la ZUSE KG fue finalmente absorbida por la empresa Siemens, trabajando Zuse durante varios años como consultor para ella. Al final de su vida se dedicó su otra gran pasión: la pintura. Debido a la Segunda Guerra Mundial y a que era alemán, Konrad Zuse permaneció muchos años en el anonimato, pero a pesar de ello Zuse demostró durante toda su vida su genialidad mediante sus ideas y máquinas, por eso es sin duda alguna uno de los pioneros de la informática. 76 Lenguajes de Programación Tras el desarrollo de las primeras computadoras surgió la necesidad de programarlas para que realizaran las tareas deseadas. Los lenguajes más primitivos fueron los denominados lenguajes máquina. Como el hardware se desarrollaba antes que el software, estos lenguajes se basaban en el hardware, con lo que cada máquina tenía su propio lenguaje y por ello la programación era un trabajo costoso, válido sólo para esa máquina en concreto. El primer avance fue el desarrollo de las primeras herramientas automáticas generadoras de código fuente. Pero con el permanente desarrollo de las computadoras, y el aumento de complejidad de las tareas, surgieron a partir de los años 50 los primeros lenguajes de programación de alto nivel. Con la aparición de los distintos lenguajes, solían aparecer diferentes versiones de un mismo lenguaje, por lo que surgió la necesidad de estandarizarlos para que fueran más universales. Las organizaciones que se encargan de regularizar los lenguajes son ANSI (Instituto de las Normas Americanas) y ISO (Organización de Normas Internacionales). Evolución de los lenguajes de programación: 1950 Lenguaje Ensamblador (lenguaje máquina) Lenguajes experimentales de alto nivel 1955 77 1956 FORTRAN ALGOL 58 y 60 COBOL LISP 1960 1961 FORTRAN IV COBOL 61 Extendido ALGOL 60 Revisado SNOBOL BASIC APL (como notación sólo) PL/I 1965 1966 APL/360 FORTRAN 66 (estándar) COBOL 65 (estándar) ALGOL 68 SNOBOL 4 SIMULA 67 1970 78 1971 COBOL 74 PASCAL 1975 1976 ADA FORTRAN 77 PROLOG C Modula-2 1980 1980 C++ JAVA 2000 79 Componentes 1897 Primer tubo electrónico (de rayos catódicos). 1904 El físico inglés John Ambrose Fleming inventa el diodo de vacío (llamado válvula de vacío), que reemplaza a los relés electromecánicos (relés telefónicos) y como dispositivo biestable (con dos estados). Vávula de vacío 1906 Se obtienen diodos de silicio (semiconductores).Se construye el triodo (equivalente al transistor pero en válvula de vacío). 1612 Construcción de la radio por Marconi. 1929 Se desarrolla el tiratron, comienzo de la electrónica de potencia. 1947 Walter Brattain, John Barden y W. Shockley inventan en los laboratorios Bell el transitor, que sustituyó a la válvula de vacío por su mayor fiabilidad, su menor tamaño y su menor coste. 80 Primer transistor 1950 Aparece el transistor bipolar. 1953 Shockly propone el transistor de efecto de campo (FET). Memorias de ferrita inventadas por Forrester y Wang. 1955 Descubrimiento del tiristor. 1956 Premio Nobel en física a Barden, Brattain, y Shockly por el descubrimiento del transistor. 1958 Jack Kilby inventa el circuito integrado, usandose en un principio para chips de memoria. 1961 Comercialización de los circuitos integrados por Texas Instruments y Fairchild, con una pequeña escala de integración (SSI), menos de 10 componentes. Tarjeta de silicio 81 1962 Desarrollo del MOSFET por Fairchild. 1966 Se alcanza la integración a mediana escala (MSI), más de 10 componentes y menos de 100. Integrado 1969 Se alcanza la integración a gran escala (LSI), más de 100 componentes y menos de 1000. 1971 Primer microprocesador (en un circuito integrado todo el procesador de una computadora), lo realizaron los ingenieros Ted Hoff y Federico Faggin en Intel y fue el 4004, de 4 bits y 275 transistores. Intel 4004 82 1975 Se alcanza la integración a muy gran escala (VLSI), más de 1000 componentes. "Mini" circuito integrado 1999 Se presenta el chip molecular, basado en moléculas de rotaxano, que harían las funciones de los transistores, si este proyecto finalmente se lleva a cabo un solo ordenador con un microprocesador molecular sería más potente que la suma de todos los ordenadores que existen en la actualidad. 2000 Premio Nobel de Física para Jack Kilby por la invención del circuito integrado. 83 Maquinas ABC Enigma Altair 8800 Harvard Mark I Analizador Diferencial IBM 360 Apple IBM PC BINAC Manchester Mark I Calculadoras mecánicas Máquina Algebraica Colossus Máquina Analítica Complex Calculator Máquina en Diferencias EDVAC Máquina de Scheutz ENIAC Máquinas de Zuse UNIVAC 84 ABC (Atanasoff-Berry Computer) Máquina ABC Entre 1937 y 1952, John V. Atanasoff diseñó y contruyó dos computadoras electrónicas digitales, las primeras de la historia y estableciendo las bases electrónicas de la computadora digital actual. La primera fue un prototipo construido en 1939 para poner a prueba las ideas de Atanasoff. La segunda fue el Atanasoff-Berry Computer (ABC). Berry era Clifford E. Berry, un discípulo de Atanasoff y colaborador desde 1939 hasta 1942. John V. Atanasoff Clifford E. Berry El ABC no se puede considerar el primer ordenador electrónico digital ya que no era de propósito general, sino tenía una tarea muy específica: la resolución de sistemas de ecuaciones lineales. El camino hasta la construcción del ABC fue largo. Se inició cuando Atanasoff realizaba su doctorado en física por la Universidad de Wisconsin, a finales de los años veinte, donde se dio cuenta de la necesidad de automatizar los cálculos. Atanasoff fue pionero por muchas razones. En el ABC la función de memoria (el almacenamiento de datos) era independiente de la función de cálculo, y esta última función se realizaba de manera digital y no analógica, esto es que para realizar las 85 funciones de control y de cálculo aritmético usaba conmutadores electrónicos en vez de mecánicos, siendo el primero en realizarlo de esta manera. El ABC manipulaba números binarios, y para almacenarlos utilizaba condensadores (en un principio por cuestiones económicas), esto representó un problema ya que los condensadores se descargaban de forma natural perdiendo así los datos que guardaban. Atanasoff ingenió la solución: un circuito de refresco. Pero quizá uno de sus mayores logros conseguidos en el ABC fue el desarrollo del circuito lógico sumador-restador al que denominaba "caja negra" que realizaba sumas o restas por medio de las reglas lógicas, la caja negra estaba compuesta por válvulas termoiónicas. Tanto la entrada como la salida se efectuaba a través de tarjetas perforadas. La máquina tenía una precisión mayor que la mayoría de sus hermanas de la época como el Analizador Diferencial de Bush. Con el inicio de la Segunda Guerra Mundial, el proyecto se paralizó en 1942, no llegando a estar en pleno funcionamiento. Pero a pesar de ello el ABC tuvo una gran influencia en el desarrollo de las computadoras. El primer ordenador electrónico de propósito general, el ENIAC, tiene partes basadas en el ABC, ya que John Mauchly, unos de sus creadores, estuvo visitando a Atanasoff mientras construía el ABC en 1941, y conoció así los detalles de la máquina. Sin embargo Mauchly siempre negó que las ideas de Atanasoff le influyeran a la hora de construir el ENIAC. 86 Altair 8800 Construida por MITS (Micro Instrumentation and Telemetry Systems). La Altair 8800 apareció en la portada de la edición de diciembre de 1975 de Popular Electronics, y en menos de dos meses la pequeña compañía MITS manejaba miles de pedidos. La computadora se vendía en forma de kit y requería trabajo y destreza para armarla. Compuesta por microprocesador Intel 8080 con 256 bytes de memoria RAM. Los usuarios programaban en lenguaje binario mediante interruptores en el panel frontal. La salida se podía leer, en binario, en los LED's. No había ningún software disponible: los usuarios tenían que escribir el suyo. Por eso es considerada la primera computadora personal. 87 Analizador Diferencial El analizador diferencial fue una calculadora analógica, construida entre 1925 y 1931 en el MIT (Instituto Tecnológico de Massachussets) bajo la dirección del ingeniero electromecánico Vannevar Bush. Analizador diferencial de 1931 La máquina se fundamentaba en integradores de ruleta, estaba compuesta por amplificadores mecánicos, constituido cada uno de ellos por un disco de cristal y una rueda metálica, pudiendo el conjunto efectuar rotaciones gracias a motores eléctricos. Se construyeron varios modelos de la máquina, incluyendo de doce a dieciocho integradores de ruleta, que se podían acoplar unos a otros mediante trenes de engranaje, que representaban los coeficientes de una ecuación integral o diferencial; obteniendo así un sistema mecánico y que obedece rigurosamente a la ecuación materializada por los integradores y los trenes de engranaje. Esta máquina, capaz de resolver ecuaciones diferenciales de hasta dieciocho variables, fue concebida para la resolución de problemas de redes eléctricas. Analizador diferencial El éxito de la máquina fue tal que en 1935 el equipo de la MIT se enfrascó en el desarrollo de una máquina más potente, que empezó a funcionar en 1942 y que estuvo en secreto durante la Segunda Guerra Mundial ya que se utilizaba para el cálculo de tablas de tiro para la Marina de los EE.UU, y que comprendía problemas tan complejos como la integración de las ecuaciones balísticas para las trayectorias de proyectiles. Al principio la Marina tenía grupos de empleados que realizaban los cálculos usando calculadoras de mesa (calculadoras mecánicas) tardando aproximadamente 20 horas para el cálculo de una sola trayectoria, con el uso del analizador diferencial se tardaba entre 15 y 30 minutos. 88 Bush junto al analizador diferencial Este segundo Analizador pesaba unas 200 toneladas, constaba de 2000 tubos electrónicos, varios miles de relés electromecánicos, 150 motores y cerca de 320 kilometros de cable. 89 Computadoras de Apple Steve Jobs y Steve Wozniac, dos ingenieros, comenzaron en 1976 a gestar en un garage lo que se convirtió años después en unas de las compañías más importantes de informática del siglo XX. Creadores de Apple Logo original de Apple En dicho año construyeron su primer ordenador el Apple del cual consiguieron vender unas 50 unidades. Y en dicho año fundaron ya la Apple Computer, Inc. Primer Apple (1976) Tarjeta del primer Apple Primer Apple por dentro El computador por el cual Jobs y Wozniac son unos de los pioneros de la industria informática fue el Apple II, que considerado (junto con el Altair 8800) el primer ordenador personal. El Apple II fue presentado en 1977, con una gran simplicidad de manejo y con un precio muy asequible. Compuesto por un microprocesador Rockwell 6502, 48 Kb de memoria RAM (que podían ser ampliada hasta 64 Kb), y permitía a los usuarios crear programas en el lenguaje de moda de aquellos años, el Basic. La familia Apple II llegó a contar con trece versiones, la última fue Apple IIe, una de las más populares de Apple, estuvo en el mercado durante 10 años (del 1983 al 1993). De la familia Apple II se vendieron un total de 1200000 unidades. 90 Apple IIe A pesar de todo los Apple II se quedaron por debajo de los PC de IBM, por lo que Apple Computer sacó al mercado los Macintosh, una nueva generación de ordenadores, con un enfoque totalmente distinto al que había; los Mac (así es como se les conocen popularmente) en lugar de usar comando de texto para indicarle las ordenes al computador, usaban un sistema de imágenes gráficas, permitiendo así que los recursos del ordenador (archivos, discos, impresoras,...) se representaran mediante iconos gráficos. El sistema se estandarizó incluyendo otros interfaces de usuario, como los menús desplegables, las ventanas, etc. Los Mac fueron también de los primeros computadores que utilizaban ratón, y el primero en incorporar la unidad de discos de 3.5 pulgadas y 400 Kb de capacidad que acababan de crear la compañía Sony. El interface del Mac tuvo un efecto importante en la industria de la informática, lo que hizo que se generalizara y que sea y algo habitual hoy en día. Macintosh 128K 91 BINAC (Binary Automatic Computer) En 1947 se firmó un contrato por el cual la compañía de John Mauchly y John Presper Eckert construiría una computadora para la Northrop Aircraft Company , que estaba desarrollando un misil secreto de largo alcance llamado Snark (la máquina se entregó en 1949). La Northrop quería una computadora "pequeña" que pudiera transportarse en un avión BINAC para poder guiar la trayectoria del misil. Las especificaciones que deseaban eran todo un reto para la técnica de la época: · Debía tener un volumen de menos de 0.60 m3. · Debía pesar como mucho 318 kilogramos. · Debía operar con 117 voltios. En un principio para Mauchly y Eckert esta computadora era un modelo experimental, ya que su verdadero objetivo era el desarrollo de otra computadora más pequeña. Memoria de la BINAC Una de las características de la BINAC era que estaba formada por dos procesadores. Todas las instrucciones se ejecutaban por separado en ambos procesadores, luego se comparaban los resultados obtenidos, si eran iguales se continuaba con la ejecución de la siguiente instrucción, si en cambio eran distintos se paraba la ejecución del programa. Los procesadores medían 1.5 x 1.2 x 0.3 metros, estaban compuestos por 700 bulbos cada uno, y tenían una memoria cuya capacidad 92 era de 512 palabras de 31 bits cada una. La BINAC podía realizar 3500 sumas o restas por segundo, y 1000 multiplicaciones o divisiones por segundo. El reloj interno tenía una frecuencia de 1 MHz. Otro detalle importante es que fue la primera computadora en utilizar cintas magnéticas como memoria secundaria, y para ello desarrollaron un dispositivo denominado convertidor para la lectura/escritura en las cintas, que se utilizó posteriormente en la UNIVAC. 93 Hasta el siglo XIX no se empezaron a construir calculadoras mecánicas "en serie", ya que aunque los conceptos estaban ya establecidos, la tecnología anterior no podía llevarlos a la práctica. Principalmente se construyeron máquinas siguiendo o bien el sistema del cilindro de Leibniz, o bien el sistema de la rueda de Odhner o el sistema ingeniado por Léon Bollée, todos ellos sistemas mecánicos. Calculadoras basadas en el cilindro de Leibniz Calculadoras basadas en la rueda de Odhner Calculadora basada en el sistema Calculadoras de ninguno de los sistemas básicos 94 de Léon Bollée Calculadoras del sistema de Leibniz El aritmómetro de Thomas, de Colmar: es la primera máquina de calcular fabricada industrialmente. El primer modelo apareció en 1822 y se estuvo fabricando hasta bien entrado el siglo XX. Fotografía de una variante fabricada por Burkhardt Las máquinas MADAS: la primera de ellas evolucionó directamente del aritmómetro de Colmar, y apareció en 1908, pero con un gran avance: era capaz de realizar las divisiones automáticamente, es decir el usuario solo debía de encargarse de dar vueltas a la manivela hasta que oyera el timbre que indicaba fin de operación. MADAS son las iniciales de "Multiplication, Automatic División, Addition and Substraction". En sucesivas versiones se consiguió también la multiplicación automática, mucho más compleja de realizar mecánicamente que la división. Se estuvieron fabricando hasta los años 50. MADAS (1908) 95 MADAS BTG-20 (1955). Este modelo tiene una gran precisión y era muy cara en su tiempo. Tiene multiplicación y división automática, así como la capacidad de realizar multiplicaciones encadenadas y memoria acumulativa CURTA: esta máquina tiene una historia particular, su diseño fue realizado por Curt Herzstark en un campo de concentración nazi. Es la última máquina mecánica manual, fue fabricada en 1948. En su época fue revolucionaria por su pequeño tamaño, es casi una pieza de relojería de precisión con unos costes de fabricación muy elevados, y por lo tanto unos precios de mercado muy altos. CURTA Mod. I y II (1948) 96 Calculadoras del sistema de Odhner 97 Original Odhner: Willgodt T. Odhner (inventor del sistema de la rueda de Odhner en 1874) comenzó la fabricación a gran escala de las máquinas en 1886, en una fábrica especialmente construida en San Petersburgo (Rusia), que fue trasladada a Goteborg (Suecia) a causa de la revolución rusa, obteniendo un gran éxito en los paises nórdicos. Original Odhner Mod. 21 (1930) Original Odhner 227 (1965) Brunsviga: En 1892 la firma Grimme, Natalis and Co. compró la patente del sistema Odhner y comenzó a fabricar máquinas de este sistema en Alemania incorporando mejoras. Brunsviga Mod. A (1892) 98 Brunsviga 16 (1940) Máquina portátil de sistema mixto (aprovecha particularidades de la rueda de Odhner y del cilindro de Leibniz) Marchant: Fabricadas por Marchant Calculating Machine Co. Las primeras máquinas eran del sistema Odhner puro, pero evolucionaron añadiéndoles un mecanismo de teclado completo dando lugar a máquinas con un aspecto "raro" pero muy rápidas y efectivas en su funcionamiento. Marchant Standard B (1911) Marchant Mod. K-C (1925) Máquinas ya con teclado completo, este modelo incorpora un motor, con multiplicación semiautomática y la división automática. 99 Calculadora del sistema de Bollée Millonaria: Máquina diseñada por Otto Steiger y fabricada por Hans W. Egli. Poseía una asombrosa velocidad al realizar multiplicaciones y divisiones, ya que no las realiza mediante sumas sucesivas y restas sucesivas, por lo que con un solo giro de manivela realizaba la operación. Se fabricaron menos de 5000 ejemplares. Millionaire (1892) 100 Calculadoras de ninguno de los sistemas básicos Mercedes Euklid: Máquinas diseñadas por Christel Hamann y fabricadas por Mercedes Office Machine Works. Con un mecanismo interno realmente muy complicado, estas máquinas disponían de sistemas de autoprotección para que dichos mecanismos no sufrieran daños si se intentaba realizar una mala operación. Mercedes Euklid (1905) Marchant Figurematic: Los últimos modelos de Marchant, a partir de los años 40, abandonaron el sistema Odhner y fabricaron máquinas con mecanismos muchos más complejos, pero con mejores resultados en cuanto velocidad y robustez. El modelo Figurematic era la máquina más veloz de su tiempo, y poseía multiplicación y división automática. Marchant Figurematic (1955) 101 Contómetro de Felt: Dorr E. Felt construyó en sus ratos libre en 1885 una máquina de calcular con materiales que podía conseguir fácilmente, este primer contómetro se hizo con una caja de macarrones, los mecanismos eran de madera y sus muelles eran gomas de oficinas. La "caja de macarrones", como se la conoció popularmente, se encuentra hoy en día en el Smithsonian Museum. A este primer contómetro siguieron otros con mecanismos metálicos, y en 1887 se fundó la sociedad Felt & Tarrant que fabricó durante más de medio siglo los contómetros. El contómetro era una máquina puramente sumadora pero bajo unas manos entrenadas era capaz de realizar multiplicaciones más rápidamente que máquinas con el sistema de Odhner o Leibniz. Contómetro de Felt (1885) 102 Colossus La máquina Colossus fue el secreto mejor guardado por los ingleses durante la Segunda Guerra Mundial. Se la considera una de las primeras computadoras electrónica, aunque más que una computadora era una "supercalculadora" con un fin muy específico: descifrar los mensajes de los alemanes codificados por Enigma. Colossus Con el comienzo de la Segunda Guerra Mundial, en 1939, el Gobierno británico reclutó en Bletchley Park (cerca de Londres) a sus mejores científicos para que descifraran los mensajes de los alemanes, entre ellos estaba Alan Turing, uno de los mayores impulsores del proyecto, que se encargó, entre otras cosas, de las funciones lógicas de la máquina. Otra de las personas importantes en el proyecto fue Thomas H. Flowers un brillante ingeniero, que rediseñó el contador de la máquina proponiendo que los datos se almacenaran en tubos de vacío. La primera Colossus se puso en funcionamiento en 1943, se basaba en la idea de universalidad de la máquina de Turing, estaba compuesta por más de 1500 tubos de vacío, la entrada de datos era por medio de tarjetas perforadas y los resultados se almacenaban en relés temporalmente hasta que se les daba salida a través de una máquina de escribir. Era totalmente automática, medía 2.25 metros de alto, 3 metros de largo y 1.20 metros de ancho. Detalle del Colossus El resultado que proporcionaba Colossus no era el texto de un mensaje descifrado, sino un paso intermedio, que luego se tenía que terminar de descifrar a mano. Se incorporaron mejoras en el sistema con lo que ya si que conseguía que la máquina descifrara totalmente los mensajes, así nació en 1944 la segunda versión del Colossus: la Mark II Colossus, que era cinco veces más rápida que su antecesora operando en paralelo, este modelo estaba compuesto por unos 2400 tubos de vacío. El proyecto siempre fue ultra-secreto, ni siquiera los propios creadores pudieron ver todas las partes de la máquina. Nunca hubo manuales ni registros sobre su funcionamiento, e incluso su montaje se efectuó por etapas, usando personal distinto 103 para que nadie conociera los detalles de la máquina al completo. Tarjeta perforada con el código que descifraba Colossus Tuvo un papel muy relevante para el desarrollo de la Guerra, el 1 de junio de 1944 interceptó y descifró un mensaje en el que Hitler y el alto mando alemán indicaban que esperaban un ataque aliado en Calais. Con el conocimiento de esta información, el general Eisenhower decidió el 6 de junio dirigir sus tropas a la costa de Normandía, produciéndose así el famoso desembarco de Normandia. El principio del fin de la Segunda Guerra Mundial. Una vez finalizada la Guerra, en 1946 se destruyeron ocho de las diez Colossus existentes por orden directa del Winston Churchill. De las dos supervivientes una fue desmantelada en los años 50 y la última fue destruida en 1960 junto con todos sus diseños 104 Complex Calculator La Complex Calculator fue construida por George R. Stibitz en los laboratorios Bell en 1939. En un principio construyó un prototipo basado en relés telefónicos, fue una máquina sumadora binaria, la primera calculadora binaria electromecánica, a este prototipo lo denominó "Model K" (K de kitchen, cocina en inglés, porque la Sumadora binaria construyó en la mesa de la cocina de su casa). Tras este prototipo diseñó y construyó dispositivos multiplicadores y divisores binarios. Stibitz convenció a los laboratorios Bell de que era capaz de construir una calculadora que podría realizar operaciones con números complejos, así nació la Complex Calculator en 1939 (conocida también como Bell Labs Relay Computer Model I o como Bell Telephone Labs Computer Model I) siendo la primera calculadora binaria de la historia. La entrada de datos se realizaba a través de teletipos y estaba compuesta por unos 400 relés telefónicos. En 1940, durante un congreso de la Sociedad Americana de Matemáticas en Hanover, Stibitz realizó una espectacular demostración: conectó un teletipo a la Complex Calculator, que se encontraba en Nueva York, utilizando para ello la red telegráfica. Se podía encargar una tarea desde Hanover a la máquina, obteniendo la respuesta en menos de un minuto, siendo la primera vez que se realizaba "un trabajo a distancia". 105 Stibitz junto al modelo K A pesar de todo, las posibilidades de la Complex Calculator eran limitadas, por lo que a esta primera calculadora siguieron otras. En 1942 se terminó la Relay Interpolator (o Bell Labs Relay Computer Model II) que incorporaba el cálculo de polinomios de interpolación y usaba como entrada tarjetas perforadas, pero no se la puede considerar una calculadora de propósito general. Como tampoco lo fue su sucesora, la Ballistic Computer (o Bell Labs Relay Computer Model III), acabada en 1944 y que fue usada durante la Segunda Guerra Mundial y hasta 1958 para el cálculo de tablas de tiro. La primera calculadora multifunción de esta serie fue la Bell Labs Relay Computer Model V. Realizada en 1946, compuesta por unos 9000 relés, pesaba unas 10 toneladas y ocupaba 105 m2. Era capaz de realizar una suma de dos números de siete cifras en 300 milisegundos, su multiplicación en un segundo y su división en 2.2 segundos 106 EDVAC (Electronic Discrete Variable Automatic Calculator) En 1946 se llegó a un acuerdo para que se construyera en la universidad de Pennsylvania, y bajo la tutela de John von Neuman, una gran computadora: la EDVAC. En un principio se barajaron diversos diseños, pero finalmente se decidió por una computadora con sistema binario, donde la suma, la resta y la multiplicación era automática, la división programable y tenía una capacidad de 1000 palabras. EDVAC 107 El EDVAC estaba organizado en seis partes principalmente: 1. Unidad de lectura-grabadora, que era la encargada de la lectura, grabación y borrado de las cintas magnéticas. 2. Unidad de control, que contenía los botones de operación, las lámparas indicadoras, los interruptores de control y un osciloscopio para el mantenimiento de la computadora. 3. Unidad de "reparto", que se encargaba de decodificar las instrucciones, emitía señales de control hacia el resto de unidades y almacenaba la instrucción que se debía ejecutar en cada momento. 4. Memoria de alta velocidad, que consistía en dos unidades iguales, cada una contenía 64 líneas de 8 palabras cada una. 5. Computadora, la unidad que realizaba las operaciones básicas aritméticas. La unidad aritmética estaba por duplicado, las operaciones se hacían en ambas unidades y se comparaban los resultados, interrumpiéndose la ejecución si no eran idénticos. 6. Reloj, que emitía pulsos de reloj a intervalos de 1 µsegundo. Diseño del (pinche en la foto para verla en grande) EDVAC El tiempo medio de ejecución por instrucción era: 1. 2. 3. 4. 5. 6. 7. 8. 9. Suma en 864 µsegundos. Resta en 864 µsegundos. Comparación en 696 µsegundos. Multiplicación y redondeo 2880 µsegundos. División y redondeo 2928 µsegundos. Multiplicación exacta en 2928 µsegundos. División exacta en 2928 µsegundos. Suma en coma flotante 960 µsegundos. Resta en coma flotante 960 µsegundos. El EDVAC pesaba aproximadamente 7850 kg y tenía una superficie de 150 m2. 108 EDVAC 109 ENIAC (Electronica Numeral Integrator and Computer) El ENIAC nació en 1943, aunque no se terminó de construir hasta 1946, fue un contrato entre el ejército de EE.UU y sus desarrolladores John Mauchly y John Presper Eckert, llamado "Proyecto PX" con una subvención de $500000. En 1944 se unió al proyecto John von Neumann. ENIAC El ENIAC fue un ordenador electrónico digital con fines generales a gran escala. Fue en su época la máquina más grande del mundo, compuesto de unas 17468 tubos de vacío, esto producía un problema ya que la vida media de un tubo era de unas 3000 horas por lo que aproximadamente cada 10 minutos se estropeaba un tubo y no era nada sencillo buscar un tubo entre 18000, consumiéndose gran cantidad de tiempo en ello. Tenía dos innovaciones técnicas, la primera es que combina diversos componentes técnicos (40000 componentes entre tubos, condensadores, resistencias, interruptores, etc.) e ideas de diseño en un único sistema que era capaz de realizar 5000 sumas y 300 multiplicaciones por segundo. La segunda era la fiabilidad de la máquina, para resolver el problema de los tubos de vacío se aplicaron unos estrictos controles de calidad de los componentes utilizados. Salió a la luz pública el 14 de febrero de 1946, apareciendo en la prensa con calificativos como "cerebro electrónico", "Einstein mecánico" o "Frankenstein matemático", como por ejemplo en el diario Newsweek. 110 Articulo en publicado en el Newsweek sobre el ENIAC (pinche en la foto para verla en grande) El ENIAC estaba dividido en 30 unidades autónomas, 20 de las cuales eran llamada acumuladores. Cada acumulador era una máquina de sumar 10 dígitos a gran velocidad y que podía almacenar sus propios cálculos. El contendido de un acumulador se visuliazaba externamente a través de unas pequeñas lámparas que producían un efecto visual muy explotado luego en las películas de ciencia ficción. El sistema utilizaba números decimales (0 - 9). Para acelerar las operaciones aritméticas también tenía un multiplicador y un divisor. El multiplicador utilizaba una matriz de resistencia para ejecutar las multiplicaciones de un dígito y fue diseñado con un circuito de control adicional para multiplicar sucesivos dígitos. El multiplicador y el multiplicando estaban almacenados en un acumulador cada uno. Mediante una lectora de tarjetas perforadas y una perforadora se producía la lectura y escritura de datos. Mujeres programando el ENIAC 111 El ENIAC era controlado a través de un tren de pulsos electrónicos. Cada unidad del ENIAC era capaz de generar pulsos electrónicos para que otras unidades realizaran alguna tarea, por eso los programas para el ENIAC consistían en unir manualmente los cables de las distintas unidades para que realizaran la secuencia deseada. Por eso programar el ENIAC era un trabajo arduo y dificultoso. Como las unidades podían operar simultáneamente el ENIAC era capaz de realizar cálculos en paralelo. Había una unidad llamada "unidad cíclica", que producía los pulsos básicos usados por la máquina. También había tres tablas de funciones y constantes que transmitían los números y funciones elegidos manualmente a las unidades para realizar las operaciones. Una suma la realizaba en 0.2 milisegundos (5000 sumas por segundo), una multiplicación de dos números de 10 dígitos la realizaba en 2.8 milisegundos, y una división como mucho la realizaba en 24 milisegundos. Remplazar una válvula de vacío estropeada suponía encontrarla entre 18000 Nunca pudo funcionar las 24 horas todos los días, y normalmente se ejecutaban dos veces un mismo cómputo para comprobar los resultados y se ejecutaba periódicamente cálculos cuyos resultados se conocían previamente para comprobar el correcto funcionamiento de la máquina. Aunque en un principio el ENIAC estaba construido para fines militares, al finalizar la Segunda Guerra Mundial se utilizó para numerosos cálculos de investigaciones científicas. El ENIAC estuvo en funcionamiento hasta 1955 con mejoras y ampliaciones, y se dice que durante su vida operativa realizó más cálculos matemáticos que los realizados por toda la humanidad anteriormente. Antes de finalizar su construcción, los autores se dieron cuenta de sus limitaciones, tanto a nivel estructural como a nivel de programación. Por eso en paralelo a su construcción empezaron a desarrollar las nuevas ideas que dieron lugar al desarrollo de la estructura lógica que caracteriza a los ordenadores actuales. 112 Enigma El Enigma fue la máquina utilizada por el ejército alemán para codificar sus mensajes durante al Segunda Guerra Mundial. Era una especie de máquina de escribir compuesta por 3 cilindros por los que rotaba cada letra. Cuando el 1º cilindro rotaba 26 veces (las letras del abecedario) el 2º lo hacía una, y cuando el 2º lo hacía 26 veces, el Enigma 3º lo hacía una vez. Aunque se poseyera una Enigma era imposible descifrar un mensajes si no se conocía la posición inicial de los cilindros. Por eso los aliados construyeron el Colossus. Enigma 113 Harvard Mark I (ó IBM ASCC) El proyecto entre IBM y Howard Aiken para construir una computadora se inició en 1939. La Mark I se terminó en 1943, presentandose oficialmente en 1944. Mark I En un principio la MARK I se llamaba ASCC (Calculadora Automática de Secuencias Controladas). Era una máquina automática eléctrica, aunque tenía componentes electromecánicos; podía realizar 5 operaciones aritméticas: suma, resta, multiplicación, división y referencia a resultados anteriores. La Mark I tenía 2.5 metros de alto y 17 metros de largo, pesaba 31500 kg, contenía 800 km de cable aproximadamente y tenía más de 3000000 de conexiones. Se programaba a través de una cinta de papel en la que había perforadas las instrucciones codificadas, la salida podía ser tanto por tarjetas perforadas como en papel ya que a la salida se podía conectar una máquina de escribir eléctrica. La máquina llamaba la atención porque tenía elegantes cubiertas de cristal muy llamativas. Mark I Una vez programada el ASCC podía ser manejada por personas con un pequeño conocimiento. Realizaba las multiplicaciones en 6 segundos y las divisiones en 12 segundos. En 1943, cuando se terminó su construcción, IBM cedió el ASCC a la universidad 114 de Harvard y fue entonces cuando se rebautizó como MARK I. Mark I Cuando fue puesta en pleno funcionamiento en 1944 se usó para el cálculo de tablas de balística durante el final de la Segunda Guerra Mundial. Fue entonces cuando Aiken contó con la colaboración con un personaje importante en la historia de la informática: Grace Murray Hopper. A pesar de que era una computadora más lenta en comparación con las coexistentes con ella , como la ENIAC, se usó hasta 1959, año en el que se la desmanteló, dejado partes en la universidad de Harvard y partes en el Instituto SmithSonian en Washington (EE.UU). 115 IBM 360 Comercializado a partir de 1964, el IBM 360 fue el primero en usar una la palabra byte para referirse a 8 bits (con cuatro bytes creaba una palabra de 32-bits). Esta arquitectura de computación fue la que a partir de este modelo siguieron todos los ordenadores de IBM. IBM 360 El 360, fue la primera en usar microprogramacion, y creo el concepto de arquitectura de familia. La familia del 360 consistió en 6 computadoras que podían hacer uso del mismo software y los mismos periféricos. El sistema también hizo popular la computación remota, con terminales conectadas a un servidor, por medio de una línea telefónica. IBM 360 La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos, siendo a partir de él considerada la 3º generación de ordenadores. 116 IBM PC Salió al mercado en agosto de 1981 el primer modelo, el 5150, con un microprocesador Intel 8088 y con un precio de $5000. El cliente podía elegir el sistema operativo entre CP/M por $400 o MS-Dos (de una empresa por aquel entonces IBM PC desconocida: Microsoft) por $100 (por lo que "obviamente" se implantó más el sistema operativo de Microsoft). Este ordenador implantó los estandares de lo que hoy conocemos como ordenador o pc. IBM PC Si comparamos el 5150 con una de las últimas computadoras de IBM, la NetVista A21: Modelo IBM 5150 PC IBM NetVista A21 12 de Fecha de 24 de julio agosto de nacimiento de 2001 1981 CPU Intel Intel 8088 Celeron 4.77MHz 1GHz Memoria 16K 128MB expandible expandible a 64K a 512MB Disco duro No tenía 20 GB CP/M o Microsoft Sistema IBM PC- Windows Operativo DOS 98 117 (Microsoft MS-DOS) Precio 5000 dólares (con 64K de memoria) 118 599 dólares (con monitor de 15 pulgadas) Manchester Mark I La Manchester Mark 1 fue en un principio una máquina experimental a pequeña escala llamada "the baby", construida entre 1947 y 1948 en la universidad de Manchester (Gran Bretaña), su diseño se pensó para demostrar el potencial que tendrían los programas almacenados en la computadora, por eso se Manchester Mark I considera la primera computadora que funcionaba con memoria RAM. El matemático Alan Turing se incorporó al proyecto en el año 1948, realizando un lenguaje de programación para la computadora. En 1951, "the baby" fue remplazada por una versión conocida como Ferranti Mark I, que surgió de la colaboración del equipo de la universidad de Manchester y de los hermanos Ferranti que tenían una fábrica, la Ferranti Mark I fue de las primeras computadoras comerciales de la historia. Algunas de sus características fueron: una memoria principal (RAM) de 256 palabras de 40 bit cada una (o sea tenía una memoria de 1280 bytes) basada en tubos de vacío; una memoria que almacenaba 3750 palabras; realizaba una operación estándar, como una suma, en 1.8 milisegundos, en cambio para realizar una multiplicación era mucho más lento, añadiéndole al tiempo de una operación estándar 0.6 milisegundos por cada bit que tuviera el multiplicador. La entrada era por medio de un sencillo teclado para almacenar directamente la información al computador; la salida para las comprobaciones era a través de un visualizador de tubos de rayos catódicos. Máquina Algebraica de Torres Quevedo 119 Construida en 1894 por Leonardo Torres Quevedo, con la financiación de la Real Academia de Ciencias, gracias a la presentación de una memoria con la descripción de la máquina que permitiría resolver ecuaciones algebraicas. Máquina Algebraica de Torres Quevedo Actualmente se conserva en la ETS de Ingenieros de Caminos de la universidad Polictécnica de Madrid. El objetivo de la máquina era la obención de manera continua y automática de valores de funciones polinómicas. Al tratarse de una máquina analógica, la variable puede recorrer cualquier valor (y no sólo unos valores discretos prefijados). Por ello, ante una ecuación polinómica, haciendo girar todas las ruedas representativas de la incógnita, el resultado final irá dando los valores de la suma de los términos variables, cuando esta suma coincida con el valor del segundo miembro, la rueda de la incógnita marcará una raíz. Esta máquina presenta dos innovaciones importantes respecto a las de su época: el uso de la escala logarítmica, que permite reducir a sumas la evaluación de monomios y los "husillos sin fin" inventados por Torres Quevedo. Husillo sin fin 120 Máquina Analítica Babbage concibió la máquina analítica a partir de 1834, cuando el proyecto de la máquina en diferencias se paralizó. Mientras que la máquina en diferencias necesitaba permanentemente un operador para su funcionamiento, la máquina analítica era ya automática. Y mientras que la máquina en diferencias tenía un propósito específico, la máquina analítica tenía un propósito general, podía ser "programada" por el usuario para ejecutar un repertorio de instrucciones en el orden deseado. Parte de la máquina analítica construida posteriormente por el hijo de Babbage El diseño de la máquina analítica incluye la mayoría de las partes lógicas de un ordenador actual: el "almacén", el "taller", el "control", la "entrada" y la "salida". El "almacén" contiene los datos, contendría 1000 números de 50 dígitos cada uno. La máquina se programaba a través de tarjetas perforadas. El "control" ejecuta una secuencia de operaciones indicadas en las tarjetas perforadas. La máquina era capaz de realizar bucles (repetir una o varias instrucciones el número de veces deseado), y también era capaz de tomar decisiones dependiendo del resultado de un cálculo intermedio (ejecutar una sentencia SI...ENTONCES...). El sueño de Babbage de construir esta máquina no pudo realizarse, lo único que pudo construir fueron pequeñas partes. 121 Máquina en Diferencias Fue concebida en 1821 por Charles Babbage, con el propósito de evaluar funciones polinómicas. Para el cálculo de dichas funciones se basa en el método de diferencias finitas, que elimina tener que realizar multiplicaciones y divisiones, solo usa sumas siendo así mecanismos más sencillos. Máquina en diferencias modelo 1 Constaba de 25000 partes mecánicas, con un peso de 15 toneladas. Una de las únicas partes construida de la máquina fue completada en 1832 (fotos). Para el desarrollo de la máquina Babbage contó con la financiación del gobierno, pero a pesar de ello el proyecto se detuvo en 1833. Detalles de la máquina en diferencias Babbage diseñó un segundo modelo de la máquina en diferencias entre 1847 y 1849, con un diseño más sencillo y con tres veces menos partes que el modelo anterior, pero sin perder el poder de computación. Este diseño le ayudó para el desarrollo de la máquina analítica. 122 Diseño original de Babbage (pinche sobre la foto para verla en grande) del segundo modelo En 1985 el Museo de Ciencias de Londres ha construido este modelo a partir de la documentación de Babbage. Está compuesto de 4000 partes mecánicas, y tiene un peso de 2.6 toneladas. Reconstrucción de la máquinaen diferencias modelo 2 123 Máquina de diferencias de Scheutz George Scheutz, un impresor sueco, se basó en los trabajos realizados por Charles Babbage para construir una máquina de diferencias similar a la de él, pero por el contrario que la de Babbage, la de Scheutz sí funcionó Máquina de diferencias perfectamente. En 1938 construyó una primera versión junto con su hijo Edward. En 1953 construyeron la versión definitiva, una máquina que podía procesar números de quince dígitos, y calcular la cuarta diferencia. Esta máquina obtuvo la medalla de oro en la Exposición Mundial de París en 1955. Después fue vendida al Observatorio Dudley en Albany (Nueva York) en donde se utilizó para calcular la órbita de Marte. En la actualidad se encuentra en el museo Smithsonian (Washington). 124 Máquina de diferencias de Scheutz George Scheutz, un impresor sueco, se basó en los trabajos realizados por Charles Babbage para construir una máquina de diferencias similar a la de él, pero por el contrario que la de Babbage, la de Scheutz sí funcionó Máquina de diferencias perfectamente. En 1938 construyó una primera versión junto con su hijo Edward. En 1953 construyeron la versión definitiva, una máquina que podía procesar números de quince dígitos, y calcular la cuarta diferencia. Esta máquina obtuvo la medalla de oro en la Exposición Mundial de París en 1955. Después fue vendida al Observatorio Dudley en Albany (Nueva York) en donde se utilizó para calcular la órbita de Marte. En la actualidad se encuentra en el museo Smithsonian (Washington). 125 Máquinas de Zuse Konrad Zuse construyó numerosas computadoras a lo largo de su vida, en un principio más bien como investigador, aunque finalmente se dedicó a ello plenamente. A continuación hablaremos de sus primeras máquinas: la Z1, la Z2, la Z3, y la Z4. Z1 La Z1 es considerada en la actualidad una de las primeras computadoras programables del mundo. Se terminó de construir en 1938 y fue financiada completamente con dinero privado (principalmente de familiares y amigos de Zuse, incluido él mismo). Esta computadora fue destruida en un bombardeo en Berlín durante la Segunda Guerra Mundial, Zuse decidió reconstruirla en 1986 acabándola en 1989, estando dicha reconstrucción en el Museo Técnico Alemán en Berlín. La Z1 fue construida en el apartamento de sus padres, como puede observarse en la fotografía. Reconstrucción de la Z1 y Zuse junto a ella La Z1 tiene todas las partes de una computadora moderna: unidad de control, memoria, lógica en coma flotante, ... a pesar de ser una máquina completamente mecánica. Realizaba una multiplicación en 5 segundos aproximadamente, tenía un 126 teclado decimal para insertar las operaciones, una memoria de 64 celdas de 22 bit, y pesaba unos 500 kilogramos. La Z2 surgió al ver la dificultades de una máquina mecánica, por eso rediseñó la Z1 añadiéndole relés telefónicos. Así, la unidad numérica de la Z2 tenía 800 relés, aunque todavía mantenía componentes mecánicos. La Z2 fue finalizada en 1939, y al acabar Zuse ya estaba pensando en la siguiente computadora la Z3 para que fuera completamente realizada con relés. La Z2 también fue destruida durante un bombardeo en 1940. Las características técnicas de la Z2 se asemejaban a la de la Z1 en cuanto al poder de cálculo. La Z2 fue para Zuse un modelo experimental para probar el poder de la utilización de los relés telefónicos. Para Zuse, la Z3 era la "primera computadora funcional del mundo controlada por programas", otras máquinas equiparables a la Z3 fueron la Mark II, o la ENIAC que fueron presentadas en 1943 o años posteriores, mientras que la Z3 fue presentada en 1941. La Z3 fue construida en su totalidad con relés telefónicos. No existen fotos de la original Z3, las fotografías que se muestran son de una reconstrucción realizada por Zuse entre 1960 y 1964. Esta reconstrucción estuvo en la Exposición Universal de Montreal en 1967, y en la actualidad se encuentra en el Museo Técnico Alemán de Berlín. Z3 La Z3 estaba formada por partes tales como la unidad de control, la memoria, la unidad aritmética, y los dispositivos de entrada y salida. Estaba compuesta por unos 2200 relés, 600 para la unidad numérica y 1600 para la unidad de almacenamiento. Realizaba una suma en 0.7 segundos, y una multiplicación o una división en 3 segundos. Pesaba unos 1000 kilogramos y como sus hermanas fue destruida durante un bombardeo en 1944. 127 Z3 La Z4 fue terminada en 1944, aunque en años posteriores fue retocada añadiéndole una unidad de lectura de tarjetas perforadas. La Z4 fue utilizada por numerosas instituciones hasta 1959, en la actualidad se encuentra en el museo alemán de Munich. Z4 La Z4 tenía una unidad para producir tarjetas perforadas con instrucciones para la propia Z4, con lo que no era demasiado complicado programarla. Y así también era posible realizar copias de los programas para poder hacer correcciones. Animación de Z4 La Z4 admitía un gran conjunto de instrucciones capaz de resolver complicados cálculos científicos, era capaz de ejecutar 1000 instrucciones por hora. Estaba compuesta aproximadamente 2200 relés; realizaba unas 11 multiplicaciones por segundo y tenía una memoria de 500 palabras de 32 bit. Pesaba unos 1000 kilogramos. La entrada de datos era o a través de un teclado decimal o a través de tarjetas perforadas, y la salida era por una máquina de escribir. 128 UNIVAC (Universal Automatic Computer) El UNIVAC fue la primera computadora diseñada y construida para un propósito no militar. Fue desarrollada para la Oficina del Censo en 1951 por los ingenieros John Mauchly y John Presper Eckert, que empezaron a diseñarla y construirla en 1946. Aunque también se vendieron para agencias del gobierno de EE.UU y compañias privadas, en total se vendieron 46 unidades. UNIVAC Cada una de las computadoras valían de $1000000 a $1500000, cifras que actualizadas serían del orden de $6500000 a $9000000. Era una computadora que pesaba 16000 libras (7257 kg. aproximadamente), estaba compuesta por 5000 tubos de vacío, y podía ejecutar unos 1000 cálculos por segundo. Era una computadora que procesaba los dígitos en serie. Podía hacer sumas de dos números de diez dígitos cada uno, unas 100000 por segundo. 129 Organigrama del (pinchen en la imagen para verla ampliada) UNIVAC Funcionaba con un reloj interno con una frecuencia de 2.25 MHz, tenía memorias de mercurio. Estas memorias no permitían el acceso inmediato a los datos, pero tenían más fiabilidad que los tubos de rayos catódicos, que son los que se usaban normalmente. Eckert y el UNIVAC Mauchly y el UNIVAC El UNIVAC realizaba una suma en 120 µseg., una multiplicación en 1800 µseg. y una división en 3600 µseg. La entrada consistía en una cinta magnética con una velocidad de 12800 caracteres por segundo, tenía una tarjeta que convertía la información desde tarjetas perforadas a cintas magnéticas con una velocidad de 200 caracteres por segundo. La salida podía ser por cinta magnética a 12800 caracteres por segundo, o por una impresora con una velocidad de 600 línea por minuto. 130 Distintas vistas del UNIVAC Panel de control del UNIVAC El UNIVAC fue utilizada para predecir los resultados de las elecciones presidenciales de EE.UU entre Eisenhower y Stevenson, la computadora acertó en su pronóstico, pero la prensa lo atribuyó que formaba parte de la campaña política. El original UNIVAC se encuentra en el museo Smithsonian. Anuncion del UNIVAC (pinche en la foto para verla en grande) 131 REFERENCIAS BIBLIOGRAFICAS Para más información puede consultar las siguientes páginas web: http://www.computerhistory.org http://www.webcom.com/calc/ http://ei.cs.vt.edu/~history/ http://www-etsi2.ugr.es/alumnos/mlii/index.html http://www.cobolware.com/Hopper/ http://aldeamac.com.ar/secciones/miscelanea/historia/ http://www.museodeinformatica.org http://www.zuse.org http://www.comsto.org/lg/indexlg.htm http://www.pla.net.py/goossen/ http://www.cbi.umn.edu/ http://www.math.uwaterloo.ca/~shallit/Courses/134/history.html http://www.eingang.org/Lecture/index.html http://genio.mat.ucm.es/historia.comp/historia.html http://www.elpais.es/multimedia/economia/hoja1.html http://www.iespana.es/canalhanoi/articulos/cronologia.htm http://www-groups.dcs.st-and.ac.uk/~history/BiogIndex.html NOTA: Algunas de estas páginas web son en inglés. Bibliografía: Breton, P.: "Historia y crítica de la informática". Ediciones Cátedra, 1989. Goldstine, H.: "The computer from Pascal to von Neumann". Princenton Univ. Press, 1972. Huelamo, E.: Catálogo "Recuerdos del cálculo mecánico". Exposición de máquinas de calcular. U.P.M., Octubre 2000. Ifrah, G.: "Historia universal de las cifras". Espasa forum, 1997. Ikonikoff, R.: "La conciencia y la máquina". Galaxia Gutenberg, 1999. Merguin, J.: "Historie des instruments et machins à calculer". Hernann Ed., 1994. Metropolis, N.; Howlett, J. y Rota, G.C.: "A history of computing in the twentieth century". Academic Press, 1980. Pylyshyn, Z.W.: "Perspectivas de la revolución de las computadoras". Alianza, 1970. Torres Quevedo, L.: "Memoria sobre Máquinas Algebraicas". Real Academia de Ciencias Exactas Físicas y Naturales, 1895. 132 133