GENERACIONES DE LAS COMPUTADORAS Desde los primeros dígitos a la invención de los logaritmos ... 350 millones AC La primera Revolución Digital Los dedos son la base para contar, por lo que tanto a los dedos y a los números se les llama dígitos. 20,000 AC Huesos para contar El primer medio de almacenamiento de datos, es decir el hueso, aparece el período Aurinaceo. Los hombres de Cro-Magnon puede que no hayan sido capaces de escribir, pero llevaban la cuenta de las horas alrededor del fuego, asumiendo que tenian fuego, haciendo muescas en huesos. Los palenteólogos modernos no estan muy convencidos aún del propósito de estos datos, pero el hecho de que estas muescas hayan sido hechas en grupos de 5, señalan que estos huesos fueron un sistema primitivo de conteo. 3000 AC Conteo de Silicón La primera calculadora mecánica fue diseñada o en Babilonia o en China. El prototipo de lo que ahora se conoce como ábaco fué una piedra plana cubierta con arena, con líneas dibujadas en la arena, y pequeñas piedras apiladas en líneas. La palabra ábaco proviene del vocablo Griego abax, que significa arena. No nos debe sorprender hoy en día que las computadoras contemporáneas se basen en placas de silicón, el principal ingrediente de la arena. Aunque este lenguaje de computación es "Griego" para la mayoría de gente. 1612 DC Huesos y palos la gente durante este período le hizo mejoras al ábaco. Reemplazo las piedras por marcos de madera y la arena y las piedras con lenguetas de cuero y cuentas profundas. Pero eso es todo hasta que en 1612, cuando el matemático escoces John Napier inventa los logaritmos y una calculadora que llama "Los huesos de Napier". Estos "huesos de Napier" son palos numerados que están alineados para hacer cálculos. 10 años de después, William Oughtred grava los logaritmos de Napier en un artefacto del cual los ingenierosdependerán los siguientes 350 años, una computadora de mano prototipo llamada Regla de Cálculo. El triunfo de la Era Industrial Durante los siguientes 200 años, los pasos de la computación pasan por la introducción de la programación, comunicaciones digitales, calculadoras mecánicas, así como la emergencia de muchos pioneros que luego le dieron sus nombres a lenguajes de programación, siendo el primero de ellos Blas Pascal. 1642 La Gloria de Blas Blas Pascal Su máquina de engranajes de aritmética, La Pascalena, es diseñada para que sume dinero, pero se puede hacerla que reste, multiplique y divida al usar técnica complementarias (por ejemplo, un número que será restado se convierte en su complemento y luego se suma al primer número) 1671 Un paso en la dirección correcta El Barón Gottfried von Leibniz adapta La Pascalena a una calculadora que usa un engranaje cilíndrico de pasos la calculadora de Leibniz llamada Reckoner, multiplica y evalúa raices cuadradas introduce el uso del sistema de números binario, que es el centro nervioso de la computación moderna 1801 Tejiendo en el horizonte El empresario textil Joseph-Marie Jacquard desarrolló un sistema de tarjetas perforadas para controlar los patrones de sus tejidos inspira al fundador de IBM, Herman Hollerith, a usar este medio para registrar datos y programar computadoras. 1820 Producción en masa Charles Thomas desarrolla y empieza la producción en masa del Thomas Arithmometer, una calculadora basada en la Step Reckoner de Leibniz de 150 años de edad. 1822 - 1835 Todo está en el seguimiento Charles Babbage empieza a diseñar y a construir la Difference Engine (la máquina diferente), una máquina que usa logaritmos y trigonometría para computar las tablas de celestes y de navegación usadas por los marinos. Le toma 10 años a Babbage para construir parte de ella, abandonando en este punto el proyecto y empieza a trabajar en un producto más sofisticado llamado la Máquina Analítica. trabajar en un producto más sofisticado llamado la Máquina Analítica. Tampoco la termina. Charles Babbage elaboró los principios de la computadora digital moderna Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. 1840 (esa década) De poeta a programador Augusta Ada Byron edita un panfleto sobre la Máquina Analítica de Babbage y desarrolla un programa para calcular los números de Bernoulli, una sequencia de números usados en teoría de números y en cálculo. Al hacer esto, se convierte en la primera escritora técnica y programadora de computadora. En honor a los logros de Lovelace, un grupo de programadores nombró un lenguaje de programación de computadoras ADA, el que fué introducido en 1979. Una descarga eléctrica La electridad impulsa una nueva era en la computación, pero por cientos de años la gente no pudo lograr hacer mover partes salvo de manera mecánica. Así y de esta maner empieza la era computación electromecánica. 1844 ¿Que nos ha traído Dios? El sistema de telegrafía de Alfred Vail y Samuel Morse obtiene su primera gran prueba pública cuando Morse envía un mensaje desde Washington DC a Baltimore. El telégrafo revolucionó las comunicaciones con la habilidad de enviar mensajes casi instantáneamente y al usar un sistema de código binario que sirve de modelo para los 0 y 1 de los sistemas actuales. 1876 ¿Que nos ha traído Bell? Alexander Graham Bell establece las comunicaciones digitales desde hace 120 años con el invento del teléfono. Este artefacto retrogrado usa señales análogas que son compatibles con las líneas del telégrafo para comunicar voz, y eventualmente crea la necesidad de modems y el acceso por discado de Internet. 1890 Párese y déjese contar contar El censo de EE.UU. de 1890 es la fuerza detrás de la más grande revolución de la informática a la fecha, principalmente porque el gobierno anticipó obtener datos de 62 millones de norteamericanos, que hubiese saturado el sistema de de papel en uso. Un matemático llamado Herman Hollerith inventó una técnica de tabulación usando huecos picados en lugares estratégicos en pequeños cartones y en uñas montadas en resortes. Los trabajadores del censo picaron huecos en tarjetas de registro y estas aliementaron la máquina de Hollerith. Las uñas montadas en los resortes se deslizaban por los huecos y hacían contacto con electrodos abajo, cerrando un circuito eléctrico. Los cirucuitos cerrados eran luego contados por la máquina. Esta monstruosidad electromecánica fue un gran éxito en todo tipo de aplicaciones estadísticas. El nombre de la empresa de Hollerith cambia en 1924 a International Business Machines o IBM. 1904 La naturaleza ofrece un vacío John Ambrose Fleming patenta un artefacto que detecta los electrones u ondas de radio pasando por un tubo de vació y los convierte en una corriente eléctrica. Dos años más tarde, Lee de Forrest le suma un tercer electrodo al aparato de Fleming para producir el Audion Tube, que amplifica las señales de radio. Este es el primer aparato capaz de transmitir música o voz. Esto impulsa otra revolución de la computación. 1930 - 1935 Diferencial enorme Vanessa Bush perfecciona una calculadora eléctrica capaz de resolver ecuaciones diferenciales. La segunda versión de su Differential Analyser (Analizador diferencial), utiliza 2 mil tubos al vació de los de Forrest, picaba cinta de papel, tenía 150 motores, tenía unos 320 km. de cable y pesaba 100 toneladas. 1937 - 1940 Amanecer Digital George Robert Stibitz de los Laboratorios Bell barriendo con todas las técnicas análogas utilizadas por todo el mundo, construye una computadora digital en su cocina. La modelo K es un hito hacia la Calculadora de números complejos de Stibitz, que es la precursora de los networks o redes. La enorme Calculadora de Números Complejos es basada en Nueva York, pero en 1940 Stibitz hace una demostración a los matemáticos de Darthmouth College en Nueva Hampshire usando una teleimpresora y una línea telefónica. La increíble reducción de la computadora Las computadoras del tamaño de un cuarto pesando toneladas eran la norma en la época de la Segunda Guerra Mundial. Pero, como los dinosaurios, las computadoras enormes se convertirían en fósiles de una era ya pasada. 1939 - 1945 Los años de Guerra Durante la II Guerra Mundial, un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. Construido por el Moore School of Electronic Engineering de Filadelfia. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde. Fue la primera computadora de uso general para computar tablas balísticas del Ejercito. El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador. A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata. 1947 Los científicos odian los tubos de vació también Los físicos de Bell Labs, Shockley, Brattain y Bardeen, crearon el primer transistor de Germanio - un ingenio que marcó la muerte del tubo de vacío poco confiable y alto consumidor de energía, que generaba la energía de las primeras computadoras. Los años 60 Las puertas originales Fairchild Semiconductor y Texas Instruments empezaron la producción en masa de circuitos integrados. Los circuitos integrados fueron los microprocesadores de ese tiempo, saturando funciones lógicas en un pequeño circuito para producir cálculos matemáticos. Debido a que estos circuitos no eran programables, cada aplicación necesitaba un circuito integrado de diseño especial, así la demanda para el diseño y la fabricación eran enormes. Robert Noyce y Gordon Moore dejaron Fairchild e iniciaron su propia empresa de semiconductores, más tarde conocida como Intel. El circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio. A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio. EeeeK! Douglas Englebart patenta un aparato para reposicionar un cursor en la pantalla de una computadora que mide su propio movimiento a lo largo de un plano de coordenadas X e Y y alimenta esa información a un procesador de computadora. El pequeño cable de datos pegado al aparato llevó a baurizarlo como "el mouse" ... 1970 Chips a la vista! El visionario de Intel Marcian ("Ted") Hoff recibe un pedido para diseñar 12 circuitos integrados para una empresa japonesa de calculadoras. En vez de eso, inventa el primer microprocesador, el 4004, que tiene 2,300 transistores, un chip de 4 bits que puede manejar 60 mil operaciones por segundo. La ventaja de este chip es que es un sistema programable de uso general, de cuyos descendientes incluiran los procesadores Pentium de hoy. Intel 4004: El primer microprocesador 1973 Una caminata por PARC El Xerox Palo Alto Research Center (PARC) o Centro de Investigación de Xerox en Palo Alto (California, EE.UU.) construye una computadora usando el mouse de Engelbart y un curioso sistema operativo que tiene pocas ventanas, íconos y menús. Como Research (investigación) es el nombre intermedio de PARC, realmente Xerox no desarrolla la computadora en un producto comercial, pero luego exhiben el sistema operativo de ventanas a un tipo de nombre Jobs, que a su vez le muestra su copia a otro fulano de apellido Gates ... 1974 - 1976 La Computadora Personal Ed Roberts desarrolla la primera computadora personal (PC) y la vende en la forma de un kit por correo. La Altair aparece en la portada de Popular Mechanics y luego 2 mil personas envían sus cheques a la empresa de Roberts en Albuquerque, Nuevo México. Oliendo el dinero desde sus dormitorios en Harvard, Bill Gates y Paul Allen escriben un lenguaje de programación para la Altair, se retiran y forman Microsoft. Steve Wozniak y Steven Jobs forman su propia empresa, Apple y venden su propio kit de computadora, la Apple I. De esta computadora de $666 se venden 175 unidades en lo primeros 10 meses. 1981 - 1984 La PC prefabricada IBM decide que la atractiva computadora de mesa de Apple es divertida e introduce la suya, la cual astutamente la llamaron IBM PC. Corriá en PC-DOS, un sistema operativo desarrollado por Microsoft. Apple decide que IBM es el hermano mayor e introduce un sistema utilizando un mouse tipo Engelbart, un sistema operativo de ventanas de estilo Xerox, y patenta un nombre jugoso: la MacIntosh.