INTRODUCCION Los grandes avances tecnológicos que se han presentado en las tres ultimas décadas han tomado por sorpresa a muchos expertos, tecnologías que hasta hace algunos años se pensaban que eran solo parte de la ciencia ficción hoy son una realidad, esto se debe en gran medida al gigantesco desarrollo de las ciencias de la informática, estas tecnologías que según estudios realizado cada 18 meses se duplica, han hecho que los profesionales de estas áreas se vean obligados a estar continuamente actualizándose sobre nuevos avances, las épocas en las que pasaban años sin que hubiera un cambio tecnológico representativo han quedado en el pasado, así como tambien lo hicieron las grandes computadoras, que consumían grandes cantidades de energía y espacio, aunque como lo vamos haber mas adelante la arquitectura básica de esas grandes maquinas todavía se conserva los avances tecnológicos han permitido considerables mejoras en la distribución de este tipo de arquitectura. Los nuevos dispositivos tanto de entrada como de salida han mejorado considerablemente nuestra vida diaria, la capacidad de llevar una gran cantidad de información con uno mismo y el gran desarrollo que gracias a los computadores ha tenido la industria de las telecomunicaciones han hecho que cada día veamos a nuestro planeta mas pequeño y sea mas fácil y sencillo de explorar, los nuevos avances en la informática han servido para que las nuevas tecnologías estén al alcance y al servicio de todos. QUE ES UN COMPUTADOR Es un sistema digital con tecnología microelectrónica capaz de procesar datos a partir de un grupo de instrucciones denominado programa. La estructura básica de una computadora incluye microprocesador (CPU), memoria y dispositivos de entrada/salida (E/S), junto a los buses que permiten la comunicación entre ellos. En resumen la computadora es una dualidad entre hardware (parte física) y software (parte lógica), que interactúan entre sí para una determinada función. La característica principal que la distingue de otros dispositivos similares, como una calculadora no programable, es que puede realizar tareas muy diversas cargando distintos programas en la memoria para que los ejecute el procesador. EVOLUCIÓN DEL TÉRMINO COMPUTADORA Una computadora es cualquier dispositivo usado para procesar información de acuerdo con un procedimiento bien definido. En un principio, la palabra era usada para describir a las personas que hacían cálculos aritméticos, con o sin ayuda mecánica, pero luego se trasladó a las propias máquinas. Dentro de la definición que acabamos de dar, entraría el uso de dispositivos mecánicos como la regla de cálculo, toda la gama de calculadoras mecánicas desde el ábaco hacia adelante, además de todas las computadoras electrónicas contemporáneas. Sin embargo, la definición anterior incluye muchos dispositivos de usos específicos que sólo pueden realizar una función o un número determinado de funciones. Si pensamos en las computadoras modernas, la característica más importante que los distingue de los aparatos anteriores es que tienen una programación adecuada. Con cualquier computadora se puede emular el funcionamiento de otra (únicamente limitado por la capacidad de almacenamiento de datos y las diferentes velocidades) y, de hecho, se cree que con las actuales se puede emular a cualquier computadora que se invente en el futuro (aunque sean mucho más lentos). Por lo tanto, en cierto sentido, esta capacidad crítica es una prueba muy útil, para identificar las computadoras de uso general de los aparatos destinados a usos específicos(como las macrocomputadoras). Esta característica de poderse emplear para un uso general se puede formalizar en una regla según la cual con 1 una máquina de estas características se debe poder emular el funcionamiento de una máquina de Turing universal. Las máquinas que cumplan con esta definición son homologables a la máquina de Turing. Originariamente, el procesamiento de la información estaba relacionado de manera casi exclusiva con problemas aritméticos. Sin embargo, en los últimos veinte años aproximadamente muchos aparatos domésticos, sobre todo las consolas para videojuegos, a las que hay que añadir los teléfonos móviles, los vídeos, los asistentes personales digitales (PDA) y un sinfín de aparatos caseros, industriales, para carros y electrónicos, tienen circuitos homologables a la máquina de Turing (con la limitación de que la programación de estos aparatos está instalada en un chip de memoria ROM que hay que remplazar cada vez que queremos cambiar la programación). Esta especie de computadoras que se encuentran dentro de otras computadoras de uso general son conocidos como microcontroladores o computadores integrados. Por lo tanto, muchas personas han restringido la definición de computadora a aquellas máquinas cuyo propósito principal sea el procesamiento de información y que puedan adaptarse a una gran variedad de tareas, sin ninguna modificación física, excluyendo a aquellos dispositivos que forman parte de un sistema más grande como los teléfonos, microondas o aviones. TIPOS DE COMPUTADORAS Tradicionalmente existen tres tipos de computadoras que cumplen con estos requisitos: las computadoras centrales, las minicomputadoras y las computadoras personales. Las minicomputadoras, como tales, ya no existen, habiendo sido reemplazadas por computadoras personales con programas especiales capaces de manejar y distribuir recursos entre múltiples usuarios, como por ejemplo programas para servicio de correo; las mismas computadoras centrales tienen características propias de la computadora personal, como el estar basadas en microprocesadores. Para finalizar, hay que decir que mucha gente que no está familiarizada con otras formas de computadoras, usa el término para referirse exclusivamente a las computadoras personales. Dentro de las computadoras personales, se suele distinguir entre la computadora de sobremesa, (desktop computer, en inglés), la computadora portátil (notebook o laptop) y la computadora portátil de sobremesa, semiportatil, (desk+note o desknote en inglés), híbrido de las dos anteriores. CÓMO FUNCIONAN LAS COMPUTADORAS Aunque las tecnologías empleadas en las computadoras digitales han cambiado mucho desde que aparecieron los primeros computadores en los años 40, la mayoría todavía utilizan la arquitectura von Neumann, propuesta a principios de los años 1940 por John von Neumann. La arquitectura von Neumann describe un computador con 4 secciones principales: la unidad lógica y aritmética (ALU), la unidad de control, la memoria, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por un conjunto de cables denominados buses. En este sistema, la memoria es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit o unidad de información. La instrucción es la información necesaria para realizar, lo que se desea, con la computadora. Las «celdas» contienen datos que se necesitan para llevar a cabo las instrucciones, con la computadora. En general, la memoria puede ser rescrita varios millones de veces; se parece más a una libreta que a una lápida. El tamaño de cada celda y el número de celdas varía mucho de computadora a computadora, y las tecnologías 2 empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip. Con los circuitos electrónicos se simula las operaciones lógicas y aritméticas, se pueden diseñar circuitos para que realicen cualquier forma de operación. La unidad lógica y aritmética, o ALU, es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta), operaciones lógicas (Y, O, NO), y operaciones de comparación. En esta unidad es en donde se hace todo el trabajo computacional. La unidad de control sigue la dirección de las posiciones en memoria que contienen la instrucción que la computadora va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando a la computadora de que la próxima instrucción estará ubicada en otra posición de la memoria). Los dispositivos E/S sirven a la computadora para, obtener información del mundo exterior y devolver los resultados de dicha información. Hay una gama muy extensa de dispositivos E/S como los teclados, monitores y unidades de disco flexible o las cámaras web. Las instrucciones que acabamos de discutir, no son las ricas instrucciones del ser humano. Una computadora sólo se diseña con un número limitado de instrucciones bien definidas. Los tipos de instrucciones típicas realizadas por la mayoría de las computadoras son como estos ejemplos: "...copia los contenidos de la posición de memoria 123, y coloca la copia en la posición 456, añade los contenidos de la posición 666 a la 042, y coloca el resultado en la posición 013, y, si los contenidos de la posición 999 son 0, tu próxima instrucción está en la posición 345...". Las instrucciones dentro de la computadora se representan mediante números. Por ejemplo, el código para copiar puede ser 001. El conjunto de instrucciones que puede realizar una computadora se conoce como lenguaje de máquina o código máquina. En la práctica, no se escriben las instrucciones para las computadoras directamente en lenguaje de máquina, sino que se usa un lenguaje de programación de alto nivel que se traduce después al lenguaje de la máquina automáticamente, a través de programas especiales de traducción (intérpretes y compiladores). Algunos lenguajes de programación representan de manera muy directa el lenguaje de máquina, como los ensambladores (lenguajes de bajo nivel) y, por otra parte, los lenguajes como Prolog, se basan en principios abstractos muy alejados de los que hace la máquina en concreto (lenguajes de alto nivel). Las computadoras actuales colocan la ALU y la unidad de control dentro de un único circuito integrado conocido como Unidad central de procesamiento o CPU. Normalmente, la memoria de la computadora se sitúa en unos pocos circuitos integrados pequeños cerca de la CPU. La gran mayoría de la masa de la computadora está formada por sistemas auxiliares (por ejemplo, para traer electricidad) o dispositivos E/S. Algunas computadoras más grandes se diferencian del modelo anterior, en un aspecto importante, porque tienen varias CPU y unidades de control que trabajan al mismo tiempo. Además, algunas computadoras, usadas principalmente para la investigación, son muy diferentes del modelo anterior, pero no tienen muchas aplicaciones comerciales. Por lo tanto, el funcionamiento de una computadora es en principio bastante sencillo. La computadora trae las instrucciones y los datos de la memoria. Se ejecutan las instrucciones, se almacenan los datos y se va a por la siguiente instrucción. Este procedimiento se repite continuamente, hasta que se apaga la computadora. Los 3 Programas de computadora (software) son simplemente largas listas de instrucciones que debe ejecutar la computadora, a veces con tablas de datos. Muchos programas de computadora contienen millones de instrucciones, y muchas de esas instrucciones se ejecutan rápidamente. Una computadora personal moderna (en el año 2006) puede ejecutar de 2000 a 3000 millones de instrucciones por segundo. Las capacidades extraordinarias que tienen las computadoras no se deben a su habilidad para ejecutar instrucciones complejas. Las computadoras ejecutan millones de instrucciones simples diseñadas por personas inteligentes llamados programadores. Los buenos programadores desarrollan grupos de instrucciones para hacer tareas comunes (por ejemplo, dibujar un punto en la pantalla) y luego ponen dichos grupos de instrucciones a disposición de otros programadores. En la actualidad, podemos tener la impresión de que las computadoras están ejecutando varios programas al mismo tiempo. Esto se conoce como multitarea, siendo más usado el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus instrucciones. Esto crea la ilusión de que se están ejecutando varios programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que controla el reparto del tiempo generalmente. El sistema operativo es una especie de caja de herramientas lleno de rutinas. Cada vez que alguna rutina de computadora se usa en muchos tipos diferentes de programas durante muchos años, los programadores llevarán dicha rutina al sistema operativo, al final. El sistema operativo sirve para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El sistema operativo tiene otras funciones que ofrecer a otros programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados. En la actualidad se están empezando a incluir dentro del sistema operativo algunos programas muy usados debido a que es una manera económica de distribuirlos. No es extraño que un sistema operativo incluya navegadores de internet, procesadores de texto, programas de correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir aparte USOS DE LAS COMPUTADORAS Las primeras computadoras digitales, de gran tamaño y costo, se utilizaban principalmente para hacer cálculos científicos. ENIAC, una de las primeras computadoras, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer computador australiano, evaluó patrones de precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría jugar al ajedrez, ver películas y otros usos. La gente que trabajaba para los gobiernos y las grandes empresas también usaron las computadoras para automatizar muchas de las tareas de recolección y procesamiento de datos, que antes eran hechas por humanos; por ejemplo, mantener y actualizar la contabilidad y los inventarios. En el mundo académico, los científicos de todos los campos empezaron a utilizar las computadoras para hacer sus propios análisis. El descenso continuo de los precios de las computadoras permitió su uso por empresas cada vez más pequeñas. Las empresas, las organizaciones y los gobiernos empiezan a emplear un gran número de pequeñas computadoras para realizar tareas que antes eran hechas por computadores centrales grandes y costosos. La reunión de varias pequeñas computadoras en un solo lugar se llamaba torre de servidores. Con la invención del microprocesador en 1970, fue posible fabricar computadoras muy baratas. Las computadoras personales se hicieron famosas para llevar a cabo diferentes tareas como guardar libros, escribir e imprimir documentos. Calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo, 4 comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadoras y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos. Al mismo tiempo, las pequeñas computadoras, casi siempre con una programación fija, empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas como los sistemas de freno antibloqueo en los carros. A principios del siglo 21, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las líneas de producción de las fábricas funcionan con una computadora. La mayoría de los ingenieros piensa que esta tendencia va a continuar. HISTORIA Y EVOLUCIÓN DEL COMPUTADOR La historia de la computadora es muy interesante ya que muestra como el hombre logra producir las primeras herramientas para registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos empezaron a formar naciones y el comercio era ya medio de vida. La evolución histórica del procesamiento de datos se divide en cuatro fases: 1.− técnicas de registros 2.− dispositivos de cálculo 3.− programas de tarjetas perforadas 4.− computadores electrónicos Una computadora procesa datos. Las empresas desarrollan departamentos de procesamiento de datos (programación de computadoras), pues las computadoras procesan datos para producir información significativa. Los datos se construyen de hechos y cifras en bruto (sin procesar). La información está constituida por los datos procesados; la información tiene significado , los datos no. La computadora y sus programas llevan a cabo el procesamiento de la entrada; por lo tanto el programa convierte los datos en información útil. El Ábaco Dos principios han coexistido respecto a este tema. Uno es usar cosas para contar, ya sea los dedos, piedras, conchas, semillas. El otro es colocar esos objetos en posiciones determinadas. Estos principios se reunieron en el ábaco, instrumento que sirve hasta el día de hoy, para realizar complejos cálculos aritméticos con enorme rapidez y precisión. En el Siglo XVII en occidente se encontraba en uso la regla de cálculo, calculadora basada en las investigaciones de Nappier, Gunther y Bissaker. John Napier (1550−1617) descubre la relación entre series aritmética y geométricas, creando tablas que llama logaritmos. Edmund Gunter se encarga de marcar los logaritmos de Napier en líneas. Bissaker por su parte coloca las líneas de Nappier y Gunter sobre un pedazo de madera, creando de esta manera la regla de cálculo. Durante más de 200 años, la regla de cálculo es perfeccionada, convirtiéndose en una calculadora de bolsillo, extremadamente versátil. 5 Por el año 1700 las calculadoras numéricas digitales, representadas por el ábaco y las calculadoras análogas representadas por la regla de cálculo, eran de uso común en toda Europa. La Pascalina La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar. El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos. La máquina analítica También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815−1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro. Primeros Ordenadores Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación. Ordenadores electrónicos 1944 marca la fecha de la primera computadora, al modo actual, que se pone en funcionamiento. Es el Dr. Howard Aiken en la Universidad de Harvard, Estados Unidos, quien la presenta con el nombre de Mark I. Es esta la primera máquina procesadora de información. La Mark I funcionaba eléctricamente, instrucciones e información se introducen en ella por medio de tarjetas perforadas y sus componentes trabajan basados en principios electromecánicos. A pesar de su peso superior a 5 toneladas y su lentitud comparada con los equipos actuales, fue la primer máquina en poseer todas las características de una verdadera computadora. La primera computadora electrónica fue terminada de construir en 1946, por J.P.Eckert y J.W.Mauchly en la Universidad de Pensilvania, U.S.A. y se le llamó ENIAC. Con ella se inicia una nueva era, en la cual la computadora pasa a ser el centro del desarrollo tecnológico, y de una profunda modificación en el comportamiento de las sociedades. 6 Durante la II Guerra Mundial (1939−1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff−Berry (en inglés ABC, Atanasoff−Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde. El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro−estadounidense John Von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador. A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata. Circuitos integrados A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio. GENERACIONES Teniendo en cuenta las diferentes etapas de desarrollo que tuvieron las computadoras, se consideran las siguientes divisiones como generaciones aisladas con características propias de cada una, las cuáles se enuncian a continuación. Primera Generación (1951−1958) Características Principales: Sistemas constituidos por tubos de vacío, desprendían bastante calor y tenían una vida relativamente corta. Máquinas grandes y pesadas. Se construye el ordenador ENIAC de grandes dimensiones (30 toneladas). 7 Alto consumo de energía. El voltaje de los tubos era de 300 v y la posibilidad de fundirse era grande. Almacenamiento de la información en tambor magnético interior. Un tambor magnético disponía de su interior del ordenador, recogía y memorizaba los datos y los programas que se le suministraban. Continuas fallas o interrupciones en el proceso. Requerían sistemas auxiliares de aire acondicionado especial. Programación en lenguaje máquina, consistía en largas cadenas de bits, de ceros y unos, por lo que la programación resultaba larga y compleja. Alto costo. Uso de tarjetas perforadas para suministrar datos y los programas. Computadora representativa UNIVAC y utilizada en las elecciones presidenciales de los E.U.A. en 1952. Fabricación industrial. La iniciativa se aventuro a entrar en este campo e inició la fabricación de computadoras en serie. Segunda generación (1959−1964) (Transistores) Cuando los tubos de vacío eran sustituidos por los transistores, estas últimas eran más económicas, más pequeñas que las válvulas miniaturizadas consumían menos y producían menos calor. Por todos estos motivos, la densidad del circuito podía ser aumentada sensiblemente, lo que quería decir que los componentes podían colocarse mucho más cerca unos a otros y ahorrar mucho más espacio. Características Principales: Transistor como potente principal. El componente principal es un pequeño trozo de semiconductor, y se expone en los llamados circuitos transistorizados. Disminución del tamaño. Disminución del consumo y de la producción del calor. Su fiabilidad alcanza metas inimaginables con los efímeros tubos al vacío. Mayor rapidez, la velocidad de las operaciones ya no se mide en segundos sino en ms. Memoria interna de núcleos de ferrita. Instrumentos de almacenamiento: cintas y discos. Mejoran los dispositivos de entrada y salida, para la mejor lectura de tarjetas perforadas, se disponía de células fotoeléctricas. Introducción de elementos modulares. Aumenta la confiabilidad. 8 Las impresoras aumentan su capacidad de trabajo. Lenguajes de programación mas potentes, ensambladores y de alto nivel (fortran, cobol y algol). Aplicaciones comerciales en aumento, para la elaboración de nóminas, facturación y contabilidad, etc. Tercera generación (1964 − 1971) Circuito integrado (chips) Características Principales: Circuito integrado desarrollado en 1958 por Jack Kilbry. Circuito integrado, miniaturización y reunión de centenares de elementos en una placa de silicio o (chip). Menor consumo de energía. Apreciable reducción de espacio. Aumento de fiabilidad y flexibilidad. Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta. Generalización de lenguajes de programación de alto nivel. Compatibilidad para compartir software entre diversos equipos. Computadoras en Serie 360 IBM. Teleproceso: Se instalan terminales remotas, que accesen la Computadora central para realizar operaciones, extraer o introducir información en Bancos de Datos, etc... Multiprogramación: Computadora que pueda procesar varios Programas de manera simultánea. Tiempo Compartido: Uso de una computadora por varios clientes a tiempo compartido, pues el aparato puede discernir entre diversos procesos que realiza simultáneamente. Renovación de periféricos. Instrumentación del sistema. Ampliación de aplicaciones: en Procesos Industriales, en la Educación, en el Hogar, Agricultura, Administración, Juegos, etc. La mini computadora. Cuarta generación (1971−1982) (Microcircuito integrado) El microprocesador: el proceso de reducción del tamaño de los componentes llega a operar a escalas microscópicas. La micro miniaturización permite construir el microprocesador, circuito integrado que rige las 9 funciones fundamentales del ordenador. Las aplicaciones del microprocesador se han proyectado más allá de la computadora y se encuentra en multitud de aparatos, sean instrumentos médicos, automóviles, juguetes, electrodomésticos, etc. Memorias Electrónicas: Se desechan las memorias internas de los núcleos magnéticos de ferrita y se introducen memorias electrónicas, que resultan más rápidas. Al principio presentan el inconveniente de su mayor costo, pero este disminuye con la fabricación en serie. Sistema de tratamiento de base de datos: el aumento cuantitativo de las bases de datos lleva a crear formas de gestión que faciliten las tareas de consulta y edición. Lo sistemas de tratamiento de base de datos consisten en un conjunto de elementos de hardware y software interrelacionados que permite un uso sencillo y rápido de la información Características Principales Microprocesador: Desarrollado por Intel Corporation a solicitud de una empresa Japonesa (1971). El Microprocesador: Circuito Integrado que reúne en la placa de Silicio las principales funciones de la Computadora y que va montado en una estructura que facilita las múltiples conexiones con los restantes elementos. Se minimizan los circuitos, aumenta la capacidad de almacenamiento. Reducen el tiempo de respuesta. Gran expansión del uso de las Computadoras. Memorias electrónicas más rápidas. Sistemas de tratamiento de bases de datos. Generalización de las aplicaciones: innumerables y afectan prácticamente a todos los campos de la actividad humana: Medicina, Hogar, Comercio, Educación, Agricultura, Administración, Diseño, Ingeniería, etc... Multiproceso. Microcomputador Generación Posterior y La Inteligencia Artificial (1982− ) El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le servirá como base para la próxima serie de soluciones. Características Principales: 10 Mayor velocidad. Mayor miniaturización de los elementos. Aumenta la capacidad de memoria. Multiprocesador (Procesadores interconectados). Lenguaje Natural. Lenguajes de programación: PROGOL (Programming Logic) y LISP (List Processing). Máquinas activadas por la voz que pueden responder a palabras habladas en diversas lenguas y dialectos. Capacidad de traducción entre lenguajes que permitirá la traducción instantánea de lenguajes hablados y escritos. Elaboración inteligente del saber y número tratamiento de datos. Características de procesamiento similares a las secuencias de procesamiento Humano. La Inteligencia Artificial recoge en su seno los siguientes aspectos fundamentales: Sistemas Expertos Un sistema experto no es una Biblioteca (que aporta información), si no, un consejero o especialista en una materia (de ahí que aporte saber, consejo experimentado). Un sistema experto es un sofisticado programa de computadora, posee en su memoria y en su estructura una amplia cantidad de saber y, sobre todo, de estrategias para depurarlo y ofrecerlo según los requerimientos, convirtiendo al sistema en un especialista que está programado. Duplica la forma de pensar de expertos reconocidos en los campos de la medicina, estrategia militar, exploración petrolera, etc... Se programa a la computadora para reaccionar en la misma forma en que lo harían expertos, hacia las mismas preguntas, sacaba las mismas conclusiones iniciales, verificaba de la misma manera la exactitud de los resultados y redondeaba las ideas dentro de principios bien definidos. Lenguaje natural Consiste en que las computadoras (y sus aplicaciones en robótica) puedan comunicarse con las personas sin ninguna dificultad de comprensión, ya sea oralmente o por escrito: hablar con las máquinas y que éstas entiendan nuestra lengua y también que se hagan entender en nuestra lengua. Robótica Ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots. Los Robots son dispositivos compuestos de sensores que reciben Datos de Entrada y que están conectados a la Computadora. Esta recibe la información de entrada y ordena al Robot que efectúe una determinada acción y así sucesivamente. Las finalidades de la construcción de Robots radican principalmente en su intervención en procesos de fabricación. ejemplo: pintar en spray, soldar carrocerías de autos, trasladar materiales, etc... Reconocimiento De La Voz Las aplicaciones de reconocimiento de la voz tienen como objetivo la captura, por parte de una computadora, 11 de la voz humana, bien para el tratamiento del lenguaje natural o para cualquier otro tipo de función. ARQUITECTURA DEL COMPUTADOR El termino de arquitectura se refiere bien sea al hardware o software o también la combinación de ambos mejor conocido como firmware dentro del mundo de la computación. Una arquitectura de un sistema siempre define su estructura y puede ser definida mediante mecanismos precisos. La arquitectura de un computador puede ser vista de varias maneras: • En el hardware tendríamos una arquitectura compuesta por varios elementos o dispositivos físicos y electrónicos que interactúan entre si. • En el software la arquitectura esta compuesta por códigos que juntos dan instrucciones creando programas. ARQUITECTURA ABIERTA Un sistema abierto es aquel que es capaz de hacer que todos los componentes del sistema del computador sean compatibles en cualquier ambiente sin importar la compañía que lo haya producido, que posea un ambiente estándar de aplicaciones disponibles por proveedores controlados por usuarios y la industria, es decir, se le pueden implantar dispositivos periféricos de diferentes orígenes y combinarlos entre si. La idea de sistemas abiertos se concibe de un proyecto que demuestra la forma que todos los sistemas empresariales pueden funcionar juntos a tres niveles: mainframes, mini computadores y estaciones de trabajo, sin importar que esos sistemas usen productos de diferentes proveedores. Una arquitectura abierta también es toda aquella que puede ser modificada por un programador capacitado que no pertenezca a la compañía que creo el código fuente, puede ser a su vez la información redistribuida y compartida siempre y cuando el programador tenga la licencia para realizar dichos actos. Para la arquitectura abierta los que se benefician mayormente son los clientes debido a que les ofrece mayor diversidad de productos a la hora de comprarlos para su beneficio. También promueve la no monopolización de grandes compañías favoreciendo la creación de mayor cantidad de compañías. Los equipos de esta arquitectura son perfectos como servidores, ya que cuentan con sistemas de entradas y salidas. Para definir un sistema como abierto es necesario tener en cuenta los siguientes criterios: • Que el sistema cumpla con una especificación bien definida y disponible para la industria. • Que esta especificación sea cumplida por varios productos independientes de diferentes compañías es decir, que haya varias implementaciones diferentes en el mercado. • Que estas especificaciones no sean controladas por un grupo pequeño de compañías. • Que esta especificación no esté atada a una arquitectura o tecnología específica. ARQUITECTURA CERRADA 12 La arquitectura cerrada es aquella que es inmodificable por los programadores ajenos a la compañía propietaria del código fuente, es decir, una persona, compañía, corporación, fundación, etc. posee los derechos de autor sobre un software no otorgando, al mismo tiempo, los derechos de usar el programa con cualquier propósito; de estudiar cómo funciona el programa y adaptarlo a las propias necesidades (donde el acceso al código fuente es una condición previa); de distribuir copias; y de mejorar el programa y hacer públicas las mejoras (para esto el acceso al código fuente es un requisito previo). En consecuencia, un software sigue siendo no libre aún si el código fuente es hecho público, cuando se mantiene la reserva de derechos sobre el uso, modificación o distribución. A este sistema no se le pueden colocar dispositivos periféricos, es decir, solo se usa el hardware de la compañía propietaria ya que dispositivos ajenos a dicha compañía no son compatibles por ende si se requiere reparar o cambiar algún elemento del computador este tiene que ser de la compañía propietaria. Características de la arquitectura abierta • Son de gran utilidad en ambiente multiusuario. • Poseen procesadores muy poderosos capaces de controlar un gran numero de terminales y capacidades de almacenamiento que sobrepasan los Giga bites. • Obtienen gran integración de subsistemas de información en una base de datos única. • Menos costosos, complejidad mínima y más flexibles. • No están atados a un solo tipo de hardware propietario. • Poseen un ambiente integrado de información. • Cumplen o generan estándares. • Sus especificaciones son generales. • El software poseen alto grado de portabilidad. • Flexibilidad de los lenguajes de programación. • Permite la conexión fácil a aparatos y programas hechos por otras compañias. CARACTERÍSTICAS DE LA ARQUITECTURA CERRADA • son de gran utilidad a nivel empresarial. • Altos costos para su mantenimiento. • Dependen de un hardware específico de la compañía propietaria. • Este hardware posee un gran bajo grado de portabilidad. • Los lenguajes de programación son determinados por la compañía específica creadora del programa. • Estos equipos son inmodificables por cualquier programador. 13 • Sus espeficaciones no son generales. • Esta arquitectura es ilimitada. • Procesa mayor volumen de información. • Tiene una mayor capacitada de memoria. VENTAJAS DE LA ARQUITECTURA ABIERTA En relación el usuario: • Son menos costosos en cuanto a su mantenimiento como su adquisición • Mayor provecho de tecnología. • Múltiples proveedores de hardware y software. • Ambiente estándar de aplicaciones. • Múltiples soluciones disponibles de acuerdo con necesidades específicas. • Una mayor protección de la inversión en equipos de cómputos. • Mas disponibilidad de aplicaciones. • Disponibilidad de una base amplia de donde obtener referencia. • amplias variedades de software disponibles. En relación a fabricantes: • Crecimiento del mercado múltiple. • Oportunidad de ventas de productos de diferentes proveedores. • Mínimo rango de trabajo en el soporte. • Amplio rango de herramientas de desarrollo. • Una rápida introducción de las mejores tecnologías. VENTAJAS DE LA ARQUITECTURA CERRADA En relación al usuario: • Procesan mayor cantidad de información. • Tienen mayor capacidad de memoria. • Es más seguro debido a que no todos los programadores tiene acceso. 14 En relación a los fabricantes: • Le da ventajas a los fabricantes para monopolizar el mercado. • Sus clientes están obligados a adquirir productos solo del fabricante. • El fabricante determina el lenguaje de programación a utilizar. DESVENTAJAS DE UNA ARQUITECTURA ABIERTA • Es menos seguro debido a la disposición de muchas herramienta para poder acceder a los programas. • Cada servidor procesa una información haciendo o convirtiendo esta arquitectura mas lenta DESVENTAJAS DE UNA ARQUITECTURA CERRADA • Su mantenimiento es mas costoso. • Altos costo para su adquisición. • Necesita de un personal calificado para su manejo. • Ocupa grandes espacios. • Necesita condiciones específicas como aire acondicionado, alta energía eléctrica etc. • No es compatible con dispositivos periféricos ajenos a la compañía. MICROPROCESADOR El microprocesador, micro o "unidad central de procesamiento", CPU, es un chip que sirve como cerebro del ordenador. En el interior de este componente electrónico existen millones de transistores integrados. Suelen tener forma de prisma chato , y se instalan sobre un elemento llamado zócalo. Tambien, en modelos antiguos solía soldarse directamente a la placa madre, y en modelos recientes el microprocesador se incluye en un cartucho especial que se inserta en el zócalo y que suele incluír la conexión con un ventilador de enfriamiento. El microprocesador está compuesto por: registros, la Unidad de control, la Unidad aritmético−lógica, y dependiendo del procesador, una unidad en coma flotante. Cada fabricante de microprocesadores tendrá sus propias familias de estos, y cada familia su propio conjunto de instrucciones. De hecho, cada modelo concreto tendrá su propio conjunto, ya que en cada modelo se tiende a aumentar el conjunto de las instrucciones que tuviera el modelo anterior. 15 PRINCIPALES PARAMETROS Los principales parámetros característicos de un microprocesador son su ancho de bus (medido en bits), la frecuencia de reloj a la que trabajan (medida en hercios), y el tamaño de memoria caché (medido en kilobytes). Generalmente, el microprocesador tiene circuitos de almacenamiento (o memoria caché) y puertos de entrada/salida en el mismo circuito integrado. Existen dos tipos de memoria caché cuyo funcionamiento es análogo: • L1 o interna (situada dentro del propio procesador y por tanto de acceso aún más rápido). La caché de primer nivel contiene muy pocos kilobytes (unos 32 ó 64 Kb). • L2 o externa (situada entre el procesador y la RAM). Los tamaños típicos de la memoria caché L2 oscilan en la actualidad entre 256 kb y 4 Mb. La memoria caché L2 es ligeramente más lenta y con más latencias que la L1, pero es más barata y de mayor cantidad de datos. En los primeros microprocesadores, sólo la memoria caché L1 estaba integrada en el CPU, la caché L2 estaba en la placa madre, pero actualmente todos los procesadores tienen la memoria caché L2 integrada dentro de el mismo. 16 Funcionamiento El microprocesador secciona en varias fases de ejecución la realización de cada instrucción: • Fetch, lectura de la instrucción desde la memoria principal, • Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer, • Fetch de los datos necesarios para la realización de la operación, • Ejecución, • Escritura de los resultados en la memoria principal o en los registros. 17 Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de supersegmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador dispone de un oscilador de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Velocidad Actualmente se habla de frecuencias de Megaherzios (MHz) o de Gigaherzios (GHz), lo que supone millones o miles de millones, respectivamente, de ciclos por segundo. El indicador de la frecuencia de un microprocesador es un buen referente de la velocidad de proceso del mismo, pero no el único. La cantidad de instrucciones necesarias para llevar a cabo una tarea concreta, así como la cantidad de instrucciones ejecutadas por ciclo ICP son los otros dos factores que determinan la velocidad de la CPU. La cantidad de instrucciones necesarias para realizar una tarea depende directamente del juego de instrucciones disponible, mientras que el ICP depende de varios factores, como el grado de supersegmentación y la cantidad de unidades de proceso o "pipelines" disponibles entre otros. Bus De Datos 18 Los modelos de la familia x86 (a partir del 386) trabajan con datos de 32 bits, al igual que muchos otros modelos de la actualidad. Pero los microprocesadores de las tarjetas gráficas, que tienen un mayor volumen de procesamiento por segundo, se ven obligados a aumentar este tamaño, y así tenemos hoy en día microprocesadores gráficos que trabajan con datos de 128 ó 256 bits. Estos dos tipos de microprocesadores no son comparables, ya que ni su juego de instrucciones ni su tamaño de datos son parecidos y por tanto el rendimiento de ambos no es comparable en el mismo ámbito. La arquitectura x86 se ha ido ampliando a lo largo del tiempo a través de conjuntos de operaciones especializadas denominadas "extensiones", las cuales han permitido mejoras en el procesamiento de tipos de información específica. Este es el caso de las extensiones MMX y SSE de Intel, y sus contrapartes, las extensiones 3DNow!, de AMD. A partir de 2003, el procesamiento de 64 bits fue incorporado en los procesadores de arquitectura x86 a través de la extensión AMD64 y posteriormente con la extensión EM64T en los procesadores AMD e Intel, respectivamente. Zócalos El zócalo es una matriz de pequeños agujeros ubicados en una placa base donde encajan, sin dificultad, los pines de un microprocesador Esta matriz permite la conexión entre el microprocesador y el resto del equipo. En los primeros ordenadores personales el microprocesador venía directamente soldado a la placa base, pero la aparición de una amplia gama de microprocesadores llevó a la creación del zócalo. En general cada familia de microprocesadores requiere un tipo distinto de zócalo, ya que existen diferencias en el número de pines, su disposición geométrica y la interconexión requerida con los componentes de la placa base. Por tanto, no es posible conectar un microprocesador a una placa base con un zócalo no diseñado para él. Puertos De Entrada Y Salida El microprocesador tiene puertos de entrada/salida en el mismo circuito integrado. El chipset es un conjunto de circuitos integrados que se encarga de realizar las funciones que el microprocesador delega en ellos. El conjunto de circuitos integrados auxiliares necesarios por un sistema para realizar una tarea suele ser conocido como chipset, cuya traducción literal del inglés significa conjunto de circuitos integrados. Se designa circuito integrado auxiliar al circuito integrado que es periférico a un sistema pero necesario para el funcionamiento del mismo. La mayoría de los sistemas necesitan más de un circuito integrado auxiliar; sin embargo, el término chipset se suele emplear en la actualidad cuando se habla sobre las placas base de los IBM PCs. Chipset Este término fue usado frecuentemente entre 1970 y 1990 para designar los circuitos integrados encargados de las tareas gráficas de los ordenadores domésticos de la época: el Commodore Amiga y el Atari ST. Ambos ordenadores tenían un procesador principal, pero gran cantidad de sus funciones gráficas y de sonido estaban incluidas en coprocesadores separados que funcionaban en paralelo al procesador principal. Se ha comparado al Chipset con la médula espinal: una persona puede tener un buen cerebro, pero si la médula falla, todo el cuerpo no sirve para nada. En los microprocesadores normales el chipset está formado por 2 circuitos auxiliares al procesador principal: • El puente norte se usa como puente de enlace entre el microprocesador y la memoria, controlando las funciones de acceso hacia y desde el microprocesador, la memoria RAM, el puerto gráfico AGP, y las comunicaciones con el puente sur. • El puente sur controla los dispositivos asociados: la controladora de discos IDE, puertos USB, Firewire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos infrarrojos, disquetera, LAN 19 y una larga lista de todos los elementos que podamos imaginar integrados en la placa madre. El puente sur es el encargado de comunicar el procesador con el resto de los periféricos. Síntesis Histórica El primer microprocesador comercial, el Intel 4004, fue presentado el 15 de noviembre de 1971. Los diseñadores jefe fueron Ted Hoff y Federico Faggin de Intel, y Masatoshi Shima de Busicom (más tarde de ZiLOG). Los microprocesadores modernos están integrados por millones de transistores y otros componentes empaquetados en una cápsula cuyo tamaño varía según las necesidades de las aplicaciones a las que van dirigidas, y que van desde el tamaño de un grano de lenteja hasta el de casi una galleta. Las partes lógicas que componen un microprocesador son, entre otras: unidad aritmético−lógica, registros de almacenamiento, unidad de control, Unidad de ejecución, memoria caché y buses de datos control y dirección. Existen una serie de fabricantes de microprocesadores, como IBM, Intel, Zilog, Motorola, Cyrix, AMD. A lo largo de la historia y desde su desarrollo inicial, los microprocesadores han mejorado enormemente su capacidad, desde los viejos Intel 8080, Zilog Z80 o Motorola 6809, hasta los recientes Intel Itanium, Transmeta Efficeon o Cell. Ahora los nuevos micros pueden tratar instrucciones de hasta 256 bits, habiendo pasado por los de 128, 64, 32, 16, 8 y 4. Desde la aparición de los primeros computadores en los años cuarenta del siglo XX, muchas fueron las evoluciones que tuvieron los procesadores antes de que el microprocesador surgiera por simple disminución del procesador. Avances Hay que destacar que los grandes avances en la construcción de microprocesadores se deben más a la Arquitectura de Computadores que a la miniaturización electrónica. El microprocesador se compone de muchos componentes. En los primeros procesadores gran parte de los componentes estaban ociosos el 90% del tiempo. Sin embargo hoy en día los componentes están repetidos una o más veces en el mismo microprocesador, y los cauces están hechos de forma que siempre están todos los componentes trabajando. Por eso los microprocesadores son tan rápidos y tan productivos. Esta productividad tan desmesurada, junto con el gran número de transistores por microprocesador (debido en parte al uso de memorias cache) es lo que hace que se necesiten los inmensos sistemas de refrigeración que se usan hoy en día. Inmensos en comparación con el microprocesador, que habitualmente consiste en una cajita de 2 centímetros de largo y de ancho por 1 milímetro de altura, cuando los refrigeradores suelen tener volúmenes de al menos 5 centímetros 20 cúbicos. MEMORIA Memoria de ordenador, y, de vez en cuando Memoria se refiere a componentes de un ordenador, dispositivos y medios de grabación que retienen datos informáticos durante algún intervalo tiempo. Las Memorias de ordenador proporcionan una de las principales funciones de la computación moderna, la retención de información. Es uno de los componentes fundamentales de todos los ordenadores modernos que, acoplados a una Unidad Central de Proceso (CPU por su acrónimo en inglés), implementa lo fundamental del modelo de ordenador de Von Neumann, usado desde los años 1940. En la actualidad, memoria' suele referirse a una forma de almacenamiento de estado sólido conocido como memoria de acceso aleatorio (RAM por sus siglas en inglés) y otras veces se refiere a otras formas de almacenamiento rápido pero temporal. De forma similar, almacenamiento se refiere a formas de almacenamiento masivo como Discos ópticos y tipos de almacenamiento magnético como discos duros y otros tipos de almacenamiento más lentos que las memorias RAM, pero de naturaleza más permanente. Estas distinciones contemporáneas son de ayuda porque son fundamentales para la arquitectura de computadores en general. Además, se refleja una diferencia técnica importante y significativa entre memoria y dispositivos de almacenamiento masivo que se ha ido difuminando por el uso histórico de los términos "almacenamiento primario" (a veces "almacenamiento principal"), para memorias de acceso aleatorio, y "almacenamiento secundario" para dispositivos de almacenamiento masivo. Esto se explica en las siguientes secciones, en las que el término tradicional "almacenamiento" se usan como subtítulo por conveniencia. Elementos que la componen Para efectuar una lectura se deposita en el bus de direcciones la dirección de la palabra de memoria que se desea leer y entonces se activa la señal de lectura (R); después de cierto tiempo (tiempo de latencia de la memoria), en el bus de datos aparecerá el contenido de la dirección buscada. Por otra parte, para realizar una escritura se deposita en el bus de datos la información que se desea escribir y en el bus de direcciones la dirección donde deseamos escribirla, entonces se activa la señal de escritura (W), pasado el tiempo de latencia, la memoria escribirá la información en la dirección deseada. Internamente la memoria tiene un registro de dirección (MAR, memory address register), un registro buffer de memoria o registro de datos (MB, memory buffer, o MDR, memory data register) y, un decodificador. Esta forma de estructurar la memoria se llama organización lineal o de una dimensión. En la figura cada línea de palabra activa todas las células de memoria que corresponden a la misma palabra. 21 Por otra parte, en una memoria ROM programable por el usuario con organización lineal, las uniones de los diodos correspondientes a lugares donde deba haber un "0" deben destruirse. También se pueden sustituir los diodos por transistores y entonces la célula de memoria tiene el esquema de la figura 3−3. en este caso la unión que debe destruirse para grabar un "0" es la del emisor. En el caso de una memoria RAM estática con organización lineal cada célula de memoria toma la forma. En este esquema las primeras puertas AND sólo son necesarias en el una de las células de cada palabra. Se debe comentar la necesidad de la puerta de tres estados a la salida del biestable: esta puerta se pone para evitar que se unan las salidas de los circuitos de las células de diferentes palabras a través del hilo de bit. Si esa puerta no se pusiera (o hubiera otro tipo de puerta en su lugar, como una puerta AND) la información correspondiente a la palabra activa entraría por los circuitos de salida de las demás células, lo que los dañaría. Organizar 1a memoria de esta forma, tiene el inconveniente de que la complejidad del decodificador crece exponencialmente con el número de entradas y, en una memoria de mucha capacidad, la complejidad del decodificador la hace inviable. Esto hace necesaria una alternativa que simplifique los decodificadores. Esta alternativa la constituye la organización en dos dimensiones en que los bits del registro de dirección se dividen en dos partes y cada una de ellas va a un decodificador diferente. En este caso, las líneas procedentes de ambos decodificadores (X e Y) se cruzan formando un sistema de coordenadas en que cada punto de cruce corresponde a una palabra de memoria. Dado que en cada decodificador sólo se activa una línea, sólo se activará la palabra correspondiente al punto de cruce de las dos líneas activadas. Fácilmente se puede comprender que los decodificadores se simplifican mucho ya que cada uno tiene la mitad de entradas que en el caso anterior. Hay que decir, sin embargo, que la célula de memoria se complica un poco porque hay que añadir una puerta AND en cada palabra para determinar si coinciden las líneas X e Y. La organización de la memoria en dos dimensiones también es útil para las memorias dinámicas ya que el refresco de estas memorias se realiza por bloques y éstos pueden coincidir con una de las dimensiones (la que corresponda a los bits de dirección de mayor peso). En la práctica, las memo-rias diná-micas son más lentas que las es-táticas y además son de lectura destructiva, pero resul-tan más baratas, aunque ne-cesiten cir-cuitos de refresco, si la memoria no es de mucha ca-pacidad. Clasificación de memorias semiconductoras de acceso aleatorio Las memorias se clasifican, por la tecnología empleada y, además según la forma en que se puede modificar su contenido, A este respecto, las memorias se clasifican en dos grandes grupos: 1) Memorias RAM: 22 Son memorias en las que se puede leer y escribir, si bien su nombre (Random access memory) no representa correctamente este hecho. Por su tecnología pueden ser de ferritas (ya en desuso) o electrónicas, Dentro de éstas últimas hay memorias estáticas (SRAM, static RAM), cuya célula de memoria está basada en un biestable, y memorias dinámicas (DRAM, dinamic RAM, en las que la célula de memoria es un pequeño condensador cuya carga representa la información almacenada. Las memorias dinámicas necesitan circuitos adicionales de refresco ya que los condensadores tienen muy poca capacidad y, a través de las fugas, la información puede perderse, por otra parte, son de lectura destructiva. 2) Memorias ROM (Read 0nly Memory): Son memorias en las que sólo se puede leer. Pueden ser: ♦ ROM programadas por máscara, cuya información se graba en fábrica y no se puede modificar. ♦ PROM, o ROM programable una sola vez. ♦ EPROM (erasable PROM) o RPROM (reprogramable ROM), cuyo contenido puede borrarse mediante rayos ultravioletas para regrabarlas. ♦ EAROM (electrically alterable ROM) o EEROM (electrically erasable ROM), que son memorias que está en la frontera entre las RAM y las ROM ya que su contenido puede regrabarse por medios eléctricos, estas se diferencian de las RAM en que no son volátiles. En ocasiones a este tipo de memorias también se las denomina NYRAM (no volátil RAM). ♦ Memoria FLASH 23 Denominada así por la velocidad con la que puede reprogramarse, utilizan tecnología de borrado eléctrico al igual que las EEPROM. Las memorias flash pueden borrarse enteras en unos cuantos segundos, mucho más rápido que las EPROM. Básicamente las memorias ROM se basan en una matriz de diodos cuya unión se puede destruir aplicando sobre ella una sobretensión (usualmente comprendida ente −12.5 y −40 v.). De fábrica la memoria sale con 1's en todas sus posiciones, para grabarla se rompen las uniones en que se quieran poner 0's. Esta forma de realizar la grabación se denomina técnica de los fusibles. Buses Del Sistema Funciones que realiza El bus se puede definir como un conjunto de líneas conductoras de hardware utilizadas para la transmisión de datos entre los componentes de un sistema informático. Un bus es en esencia una ruta compartida que conecta diferentes partes del sistema, como el microprocesador, la controladora de unidad de disco, la memoria y los puertos de entrada/salida (E/S), para permitir la transmisión de información. 24 En el bus se encuentran dos pistas separadas, el bus de datos y el bus de direcciones. La CPU escribe la dirección de la posición deseada de la memoria en el bus de direcciones accediendo a la memoria, teniendo cada una de las líneas carácter binario. Es decir solo pueden representar 0 o 1 y de esta manera forman conjuntamente el número de la posición dentro de la memoria (es decir: la dirección). Cuanto mas líneas haya disponibles, mayor es la dirección máxima y mayor es la memoria a la cual puede dirigirse de esta forma. En el bus de direcciones original habían ya 20 direcciones, ya que con 20 bits se puede dirigir a una memoria de 1 MB y esto era exactamente lo que correspondía a la CPU. Esto que en le teoría parece tan fácil es bastante mas complicado en la práctica, ya que aparte de los bus de datos y de direcciones existen también casi dos docenas más de líneas de señal en la comunicación entre la CPU y la memoria, a las cuales también se acude. Todas las tarjetas del bus escuchan, y se tendrá que encontrar en primer lugar una tarjeta que mediante el envío de una señal adecuada indique a la CPU que es responsable de la dirección que se ha introducido. Las demás tarjetas se despreocupan del resto de la comunicación y quedan a la espera del próximo ciclo de transporte de datos que quizás les incumba a ellas. Este mismo concepto es también la razón por la cual al utilizar tarjetas de ampliación en un PC surgen problemas una y otra vez, si hay dos tarjetas que reclaman para ellas el mismo campo de dirección o campos de dirección que se solapan entre ellos. Los datos en si no se mandan al bus de direcciones sino al bus de datos. El bus XT tenía solo 8 bits con lo cual sólo podía transportar 1 byte a la vez. Si la CPU quería depositar el contenido de un registro de 16 bits o por valor de 16 bits, tenía que desdoblarlos en dos bytes y efectuar la transferencia de datos uno detrás de otro. De todas maneras para los fabricantes de tarjetas de ampliación, cuyos productos deben atenderse a este protocolo, es de una importancia básica la regulación del tiempo de las señales del bus, para poder trabajar de forma inmejorable con el PC. Pero precisamente este protocolo no ha sido nunca publicado por lBM con lo que se obliga a los fabricantes a medir las señales con la ayuda de tarjetas ya existentes e imitarlas. Por lo tanto no es de extrañar que se pusieran en juego tolerancias que dejaron algunas tarjetas totalmente eliminadas. Estructuras de interconexión Existen dos organizaciones físicas de operaciones E/S que tienen que ver con los buses que son: Bus único Bus dedicado La primera gran diferencia entre estas dos tipos de estructuras es que el bus único no permite un controlador DMA (todo se controla desde la CPU), mientras que el bus dedicado si que soporta este controlador. El bus dedicado trata a la memoria de manera distinta que a los periféricos (utiliza un bus especial) al contrario que el bus único que los considera a ambos como posiciones de memoria (incluso equipara las operaciones E/S con las de lectura/escritura en memoria). Este bus especial que utiliza el bus dedicado tiene 4 componentes fundamentales: ◊ Datos: Intercambio de información entre la CPU y los periféricos. ◊ Control: Lleva información referente al estado de los periféricos (petición de interrupciones). ◊ Direcciones: Identifica el periférico referido. 25 ◊ Sincronización: Temporiza las señales de reloj. La mayor ventaja del bus único es su simplicidad de estructura que le hace ser más económico, pero no permite que se realice a la vez transferencia de información entre la memoria y el procesador y entre los periféricos y el procesador. Por otro lado el bus dedicado es mucho más flexible y permite transferencias simultáneas. Por contra su estructura es más compleja y por tanto sus costes son mayores. Tipos El Bus Xt Y El Bus Isa (At) Cuando en 1980 IBM fabricó su primer PC, este contaba con un bus de expansión conocido como XT que funcionaba a la misma velocidad que los procesadores Intel 8086 y 8088 (4.77 Mhz). El ancho de banda de este bus (8 bits) con el procesador 8088 formaba un tandem perfecto, pero la ampliación del bus de datos en el 8086 a 16 bits dejo en entredicho este tipo de bus (aparecieron los famosos cuellos de botella). Dada la evolución de los microprocesadores el bus del PC no era ni mucho menos la solución para una comunicación fluida con el exterior del micro. En definitiva no podía hablarse de una autopista de datos en un PC cuando esta sólo tenía un ancho de 8 bits. Por lo tanto con la introducción del AT apareció un nuevo bus en el mundo del PC, que en relación con el bus de datos tenía finalmente 16 bits (ISA), pero que era compatible con su antecesor. La única diferencia fue que el bus XT era síncrono y el nuevo AT era asíncrono. Las viejas tarjetas de 8 bits de la época del PC pueden por tanto manejarse con las nuevas tarjetas de 16 bits en un mismo dispositivo. De todas maneras las tarjetas de 16 bits son considerablemente más rápidas, ya que transfieren la misma cantidad de datos en comparación con las tarjetas de 8 bits en la mitad de tiempo (transferencia de 16 bits en lugar de transferencia de 8 bits). No tan solo se amplió el bus de datos sino que también se amplió el bus de direcciones, concretamente hasta 24 bits, de manera que este se podía dirigir al AT con memoria de 16 MB. Además también se aumentó la velocidad de cada una de las señales de frecuencia, de manera que toda la circulación de bus se desarrollaba más rápidamente. De 4.77 Mhz en el XT se pasó a 8.33 Mhz. Como consecuencia el bus forma un cuello de botella por el cual no pueden transferirse nunca los datos entre la memoria y la CPU lo suficientemente rápido. En los discos duros modernos por ejemplo, la relación (ratio) de transferencia de datos ya es superior al ratio del bus. A las tarjetas de ampliación se les ha asignado incluso un freno de seguridad, concretamente en forma de una señal de estado de espera (wait state), que deja todavía mas tiempo a las tarjetas lentas para depositar los datos deseados en la CPU. Especialmente por este motivo el bus AT encontró sucesores de más rendimiento en Micro Channel y en el Bus EISA, que sin embargo, debido a otros motivos, no han tenido éxito. Local Bus Teniendo en cuenta las mencionadas limitaciones del bus AT y la infalibilidad de los buses EISA y MCA para asentarse en el mercado, en estos años se han ideado otros conceptos de bus. Se inició con el llamado Vesa Local Bus (VL−Bus), que fue concebido y propagado independientemente por el comité VESA, que se propuso el definir estándares en el ámbito de las tarjetas gráficas y así por primera vez y realmente tuviera poco que ver con el diseño del bus del PC. Fueron y son todavía las tarjetas gráficas quienes sufren la menor velocidad del bus AT. Por eso surgió, en el Comité VESA, la propuesta para un bus más rápido que fue el VESA Local Bus. 26 AGP (Accelerated Graphics Port) La tecnología AGP, creada por Intel, tiene como objetivo fundamental el nacimiento de un nuevo tipo de PC, en el que se preste especial atención a dos facetas: gráficos y conectividad. La especificación AGP se basa en la especificación PCI 2.1 de 66 Mhz (aunque ésta apenas se usa, dado que la mayoría de las tarjetas gráficas disponibles tan sólo son capaces de utilizar la velocidad de bus de 33 Mhz), y añade tres características fundamentales para incrementar su rendimiento: operaciones de lectura/escritura en memoria con pipeline, demultiplexado de datos y direcciones en el propio bus, e incremento de la velocidad hasta los 100 Mhz (lo que supondría unos ratios de transferencia de unos 800 Mbytes por segundo, superiores en más de 4 veces a los alcanzados por PCI). Pero el bus AGP es también un bus exclusivamente dedicado al apartado gráfico, tal y como se deriva de su propio nombre, Accelerated Graphics Port o bus acelerado para gráficos. Esto tiene como consecuencia inmediata que no se vea obligado a compartir el ancho de banda con otros componentes, como sucede en el caso del PCI. Otra característica interesante es que la arquitectura AGP posibilita la compartición de la memoria principal por parte de la aceleradora gráfica, mediante un modelo que Intel denomina DIME (Direct Memory Execute, o ejecución directa a memoria) y que posibilitará mejores texturas en los futuros juegos y aplicaciones 3D, al almacenar éstas en la RAM del sistema y transferirlas tan pronto como se necesiten Entrada y salida Funciones que realiza Vamos a señalar las funciones que debe realizar un computador para ejecutar trabajos de entrada/salida: • Direccionamiento o selección del dispositivo que debe llevar a cabo la operación de E/S. • Transferencia de los datos entre el procesador y el dispositivo (en uno u otro sentido). • Sincronización y coordinación de las operaciones. Esta última función es necesaria debido a la deferencia de velocidades entre los dispositivos y la CPU y a la independencia que debe existir entre los periféricos y la CPU (por ejemplo, suelen tener relojes diferentes). Se define una transferencia elemental de información como la transmisión de una sola unidad de información (normalmente un byte) entre el procesador y el periférico o viceversa. Para efectuar una transferencia elemental de información son precisas las siguientes funciones: • Establecimiento de una comunicación física entre el procesador y el periférico para la transmisión de la unidad de información. • Control de los periféricos, en que se incluyen operaciones como prueba y modificación del estado del periférico. Para realizar estas funciones la CPU gestionará las líneas de control necesarias. Definiremos una operación de E/S como el conjunto de acciones necesarias para la transferencia de un conjunto de datos (es decir, una transferencia completa de datos). Para la realización de una operación de E/S se deben efectuar las siguientes funciones: • Recuento de las unidades de información transferidas (normalmente bytes) para reconocer el fin de operación. • Sincronización de velocidad entre la CPU y el periférico. • Detección de errores (e incluso corrección) mediante la utilización de los códigos necesarios (bits de 27 paridad, códigos de redundancia cíclica, etc.) • Almacenamiento temporal de la información. Es más eficiente utilizar un buffer temporal específico para las operaciones de E/S que utilizan el área de datos del programa. • Conversión de códigos, conversión serie/paralelo, etc. Dispositivos Externos Una de las funciones básicas del computador es comunicarse con los dispositivos exteriores, es decir, el computador debe ser capaz de enviar y recibir datos desde estos dispositivo. Sin esta función, el ordenador no sería operativo porque sus cálculos no serían visibles desde el exterior. Existe una gran variedad de dispositivos que pueden comunicarse con un computador, desde los dispositivos clásicos (terminales, impresoras, discos, cintas, cte.) hasta convertidores A/D y D/A para aplicaciones de medida y control de procesos, De todos los posibles periféricos, algunos son de lectura, otros de escritura y otros de lectura y escritura (es importante resaltar que este hecho siempre se mira desde el punto de vista del proceso). Por otra parte, existen periféricos de almacenamiento también llamados memorias auxiliares o masivas. La mayoría de los periféricos están compuestos por una parte mecánica y otra parte electrónica. Estas partes suelen separarse claramente para dar una mayor modularidad. A la componente electrónica del periférico se le suele denominar controlador del dispositivo o, también, adaptador del dispositivo. Si el dispositivo no tiene parte mecánica (como, por ejemplo, la pantalla de un terminal), el controlador estará formado por la parte digital del circuito. Frecuentemente los controladores de los dispositivos están alojados en una placa de circuito impreso diferenciada del resto del periférico. En este caso es bastante habitual que un mismo controlador pueda dar servicio a dispositivos de características similares. El principal problema planteado por los periféricos es su gran variedad que también afecta a las velocidades de transmisión. Por tanto, el mayor inconveniente que encontramos en los periféricos es la diferencia entre sus velocidades de transmisión y la diferencia entre éstas y la velocidad de operación del computador. Uso de interrupciones Un computador debe disponer de los elementos suficientes para que el programador tenga un control total sobre todo lo que ocurre durante la ejecución de su programa. La llegada de una interrupción provoca que la CPU suspenda la ejecución de un programa e inicie la de otro (rutina de servicio de interrupción). Como las interrupciones pueden producirse en cualquier momento, es muy probable que se altere la secuencia de sucesos que el programador había previsto inicialmente. Es por ello que las interrupciones deber controlarse cuidadosamente. De esta forma, podemos resumir todos las etapas seguidas ante una interrupción en un sistema dotado de vectorización. Estos pasos son los siguientes: El dispositivo envía la solicitud de interrupción mediante la línea INTR. El procesador termina la ejecución de la instrucción en curso y analiza la línea de petición de interrupción, INTR. Si esta línea no está activada continuará normalmente con la ejecución de la siguiente instrucción, en caso contrario se pasa a la etapa siguiente. La CPU reconoce la interrupción, para informar al dispositivo de ello, activa la línea de reconocimiento de interrupción, INTA. El dispositivo que reciba la señal INTA envía el código de interrupción por el bus de datos. 28 La CPU calcula la dirección de memoria donde se encuentra la rutina de servicio de interrupción (vector de interrupción). El estado del procesador, y en particular el contador de programa, se salva en la pila de la misma forma que en una llamada a procedimiento. La dirección de la rutina de servicio de interrupción se carga en el contador de programa, con lo que se pasa el control a la citada rutina. La ejecución continúa hasta que el procesador encuentre la instrucción de retorno de interrupción. Cuando se encuentre la instrucción de retorno de interrupción se restaura el estado del procesador, en especial el contador de programa, y se devuelve el control al programa interrumpido. Normalmente la primera instrucción de la rutina de servicio tendrá como fin desactivar las interrupciones para impedir el anidamiento, por otra parte, antes de devolver el control al programa interrumpido se volverán a habilitar si es necesario. DISPOSITIVOS DE ENTRADA Estos dispositivos permiten al usuario del ordenador introducir datos, comandos y programas en la CPU. El dispositivo de entrada más común es un teclado similar al de las máquinas de escribir. La información introducida con el mismo, es transformada por el ordenador en modelos reconocibles. Otros dispositivos de entrada son los lápices ópticos, que transmiten información gráfica desde tabletas electrónicas hasta el ordenador; joysticks y el ratón o mouse, que convierte el movimiento físico en movimiento dentro de una pantalla de ordenador; los escáneres luminosos, que leen palabras o símbolos de una página impresa y los traducen a configuraciones electrónicas que el ordenador puede manipular y almacenar; y los módulos de reconocimiento de voz, que convierten la palabra hablada en señales digitales comprensibles para el ordenador. También es posible utilizar los dispositivos de almacenamiento para introducir datos en la unidad de proceso. Otros dispositivos de entrada, usados en la industria, son los sensores. EL TECLADO Un teclado de un computador es un periférico utilizado para la introducción de órdenes y datos en un ordenador. Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes. El tipo estándar de teclado inglés se conoce como QWERTY. Denominación de los teclados de ordenador y máquinas de escribir que se utilizan habitualmente en los países occidentales, con alfabeto latino. Las siglas corresponden a las primeras letras del teclado, comenzando por la izquierda en la fila superior. El teclado en español o su variante latinoamericana son teclados QWERTY que se diferencian del inglés por presentar la letra "ñ" y "Ñ" en su distribución de teclas, Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas tales como mayores velocidades de tecleado. La alternativa más famosa es el Teclado Simplificado Dvorak. Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos: mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en la parte superior izquierda de una tecla, se emplea la tecla mayúsculas, etiquetada como "!". Para teclear un símbolo que se encuentra en la parte inferior derecha de una tecla, se emplea la tecla Alt−Gr. 29 TECLAS DE INTERES Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres acentuados. Teclear los caracteres acentuados resulta más sencillo usando las teclas inertes. Cuando se utiliza una de estas teclas, si se presiona la tecla correspondiente al acento deseado nada ocurre en la pantalla, por lo que, a continuación se debe presionar la tecla del carácter a acentuar. Esta combinación de teclas requiere que se teclee una secuencia aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´) seguido de la letra "a", obtendrá una "a" acentuada ( á ). Sin embargo, si se presiona una tecla inerte y a continuación la tecla "t", no aparecerá nada en la pantalla o aparecerán los dos caracteres por separado ( ´t ), a menos que la fuente particular para su idioma incluya la "t" acentuada. Para teclear una marca de acento diacrítico, simplemente se presiona la tecla inerte del acento, seguida de la barra de espacio. HISTORIA Disposición de las teclas 30 La disposición de las teclas se remonta a las primeras máquinas de escribir. Aquellas máquinas eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su sitio antes de que se moviesen los siguientes, de forma que se encallaban. Para que esto ocurriese lo menos posible, el diseñador del teclado QWERTY hizo una distribución de las letras de forma contraria a lo que hubiese sido lógico con base en la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta y los martillos se encallaban menos veces. Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de los ordenadores personales, que por aquel entonces se encontraban en pleno auge. Estructura Un teclado está realizado mediante un microcontrolador, normalmente de las familias 8048 u 8051 de Intel. Estos microcontroladores ejecutan sus propios programas que están grabados en sus respectivas ROMs internas. Estos programas realizan la exploración matricial de las teclas para determinar cuales están pulsadas. Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su carácter serigrafiado en la misma, sino que se adjudica un valor numérico a cada una de ellas que sólo tiene que ver con su posición física. Si no se hiciera así ese sistema sería muy dependiente de cada idioma, también hay que tener en cuenta que idiomas como por ejemplo en francés tienen teclados AZERTY en lugar del que se tiene en Estados Unidos QWERTY. Los teclados usados en América latina y España extienden la configuración básica del teclado QWERTY con el fin de incluir la letra eñe y facilidades para letras acentuadas. Como el teclado español debe servir para las diversas lenguas de la península ibérica se facilita sobre todo la escritura de diversos acentos aún los no utilizados en el castellano. El teclado latinoamericano sólo da soporte con teclas directas a los caracteres específicos del castellano, que incluyen dos tipos de acento, la letra eñe y los inicios de exclamación e interrogación. El resto de combinaciones de acentos se obtienen usando una técla de extensión de grafismos (<ALT−GR>). Por lo demás el teclado latinoamericano está orientado hacia la programación, con fácil acceso al juego de símbolos de la norma ASCII. Por cada pulsación o liberación de una tecla el microcontrolador envía un código identificativo que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera. Si el microcontrolador nota que ha cesado la pulsación de la tecla, el nuevo código generado (Break Code) tendrá un valor de pulsación incrementado en 128. Estos códigos son enviados al circuito microcontrolador donde serán tratados gracias al administrador de teclado, que no es más que un programa de la BIOS y que determina qué carácter le corresponde a la tecla pulsada comparándolo con una tabla de caracteres que hay en el kernel, generando una interrupción por hardware y enviando los datos al procesador. El microcontrolador también posee cierto espacio de memoria ROM que hace que sea capaz de almacenar las últimas pulsaciones en caso de que no se puedan leer a causa de la velocidad de tecleo del usuario. Hay que tener en cuenta, que cuando realizamos una pulsación se pueden producir rebotes (Bouncing) que duplican la señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que limpia la señal. En los teclados AT los códigos generados son diferentes, por lo que por razones de compatibilidad es necesario traducirlos. De esta función se encarga el controlador de teclado que es otro microcontrolador (normalmente el 8042), éste ya situado en el PC. Este controlador recibe el Keyboard Scan Code (Kscan Code) y genera el propiamente dicho Scan Code. En cualquier caso ya sea teclado PS/2 ó AT el Scan Code es entregado a la BIOS del PC para identificar la tecla pulsada. 31 La comunicación del teclado es vía serie. El protocolo de comunicación es bidireccional, por lo que el host puede enviarle comandos al teclado para configurarlo, resetearlo, diagnósticos, etc. Lápiz Óptico El lápiz óptico es un periférico informático muy parecido a una pluma ordinaria que se utiliza sobre la pantalla de un ordenador o en otras superficies para leer éstas o servir de dispositivo apuntador y que habitualmente sustituye al ratón o con menor éxito, a la tableta digitalizadora. Está conectado a un cordón eléctrico y requiere de un software especial para su funcionamiento. Haciendo que la pluma toque el monitor el usuario puede elegir los comandos de las programas (el equivalente a un clic del ratón), bien presionando un botón en un lado del lápiz óptico o presionando éste contra la superficie de la pantalla. El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario. por lo que no tomo mucho auge Joystick Un joystick o palanca de mando es un dispositivo de control de dos o tres ejes que se usa desde un ordenador o videoconsola al transbordador espacial o los aviones de caza, pasando por grúas. Se suele diferenciar entre joysticks digitales (leen 4 interruptores encendido/apagado en cruceta situada en la base + sus combinaciones y los botones de acción) y joysticks analógicos (usan potenciómetros para leer continuamente el estado de cada eje, y además de botones de accción pueden incorporar controles deslizantes), siendo estos últimos más precisos. 32 Joystick elementos: 1 Mango 2 Base 3 Botón de disparo 4 Botones adicionales 5 Interruptor de autodisparo 6 Palanca 7 Botón direccional 8 Ventosa Primeros Joystick Joystick En La Actualidad 33 Mouse 34 Mouse o ratón es un periférico de computadora de uso manual, generalmente fabricado en plástico, utilizado como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detectar su movimiento relativo en dos dimensiones por la superfice horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, el futuro podría ser mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz de manera similar al software ViaVoice por ejemplo. Habitualmente se compone de al menos uno, dos o tres botones principales y otros dispositivos opcionales como una "rueda", más otros botones secundarios o de distintas tecnologías como sensores del movimiento que pueden mejorar o hacer más cómodo su uso. Se suele presentar para manejarse con ambas manos por igual, pero algunos fabricantes también ofrecen modelos únicamente para usuarios diestros o zurdos. Los sistemas operativos pueden también facilitar su manejo a todo tipo de personas, generalmente invirtiendo la función de los botones. En los primeros años de la informática, el teclado era casi siempre la forma más popular como dispositivo para la entrada de datos o control de la computadora. La aparición y éxito del ratón, además de la posterior evolución de los sistemas operativos, logró facilitar y mejorar la comodidad, aunque no relegó el papel primordial del teclado. Aún hoy en día, pueden compartir algunas funciones dejando al usuario o interesado que escoja la más conveniente a sus gustos o tareas. Historia Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Institute Research of Stanford, un laboratorio de la Universidad de Standford, a poca distancia de Silicon Valley en California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que surgió dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas 35 Primeros Mouse Escáner Un escáner (del idioma inglés: scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes impresas a formato digital. Hay varios tipos. Hoy en día los más extendidos son los planos. Tipos: • De rodillo. Como el escáner de un fax • Planos. Como el de las fotocopiadoras. • De mano. En su momento muy económicos, pero de muy baja calidad. Prácticamente extintos. Además hay algunos especializados en negativos, y diapositivas. Los escaneres pueden tener otros accesorios como un alimentador de hojas automático o un adaptador para diapositivas y transparencias. Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o también digitalizar texto mediante técnicas de OCR. Estas funciones las puede llevar a cabo el mismo dispositivo o aplicaiciones especiales. Hoy en día es común incluir en el mismo aparato la impresora y el escáner. Son las llamadas impresoras multifunción 36 Tipos De Escáner 37 Reconocimiento De Voz El Reconocimiento Automático del Habla (RAH) o Reconocimiento Automático de voz es una parte de la Inteligencia Artificial que tiene como objetivo permitir la comunicación hablada entre seres humanos y computadoras electrónicas. El problema que se plantea en un sistema de RAH es el de hacer cooperar un conjunto de informaciones que proceden de diversas fuentes de conocimiento (acústica, fonética, fonológica, léxica, sintáctica, semántica y pragmática), en presencia de ambigüedades, incertidumbres y errores inevitables para llegar a obtener una interpretación aceptable del mensaje acústico recibido. Software De Reconocimiento De Voz DISPOSITIVOS DE SALIDA Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos de la computadora. El dispositivo de salida más común es la unidad de visualización, que consiste en un monitor que presenta los caracteres y gráficos en una pantalla similar a la del televisor. Por lo general, los monitores tienen un tubo de rayos catódicos como el de cualquier televisor, aunque los ordenadores pequeños y portátiles utilizan hoy pantallas de cristal líquido (LCD, acrónimo de Liquid Crystal Displays) o 38 electroluminiscentes. Otros dispositivos de salida más comunes son las impresoras, que permiten obtener una copia impresa de la información que reside en los dispositivos de almacenamiento, las tarjetas de sonido y los módem. Un módem enlaza dos ordenadores transformando las señales digitales en analógicas para que los datos puedan transmitirse a través de las líneas telefónicas convencionales. MONITOR Un monitor es el dispositivo periférico de salida más importante de un ordenador, denominado también pantalla. Su función es la de representar la información con la que estamos trabajando (formato del programa, imágenes, texto, cursor). Se conecta al ordenador a través de una tarjeta gráfica, también denominada adaptador o tarjeta de vídeo. Parámetros de una pantalla • Píxel Unidad mínima representable en un monitor. • Paso (dot pitch): Distancia entre dos píxeles del mismo color o entre dos celdas LCD. Se usa para medir la nitidez de la pantalla, y puede depender del tipo de rejilla utilizado. Se mide en milímetros, y lo mínimo exigible son 0.28mm.. • Resolución: Número de píxeles representados en sentido horizontal y vertical. En la configuración de los monitores se puede escoger entre varias resoluciones, siendo unos más aconsejables que otros según el tamaño de la pantalla. A mayor resolución, mayor calidad de imagen. Hay que advertir de que la tarjeta gráfica puede limitar la resolución máxima de un monitor. • Tasa de refresco: Frecuencia a la que la imagen es dibujada en la pantalla. Se mide en Hz, y es preferible que superen los 70Hz para que la vista no aprecie los parpadeos y no se canse tanto, aunque es un valor que depende de la resolución. Estos refrescos son proporcionados por la tarjeta gráfica que los fija una vez conocidas las capacidades del monitor, ya que si el número de refresco excede al número máximo de refrescos soportables por el monitor, éste se podría dañar. • Dimensión del tubo: Longitud de la diagonal de la parte frontal del tubo de imagen. Se suele medir en pulgadas. Los monitores típicos son de 14, 15, 17, 19 o 21 pulgadas. Tipos de Monitores • Monocromáticos Son las de Blanco y Negro, actualmente están casi extintos ya que poseen baja calidad de visualización y ofrece solo dos colores. 39 • A color Son la mayoría de los monitores existentes, son de muchos colores y tienen una excelente calidad de visualización. Los monitores a color de plasma, no dañan la vista y eso las haces superiores a los monitores a color normales. Tipos de pantalla Las pantallas se pueden dividir: • Según la tecnología utilizada: ♦ Pantalla de tubo de rayos catódicos o CRT ♦ Pantalla de cristal líquido o LCD ◊ Monitor de matriz activa ⋅ Monitor TFT ◊ Monitor de matriz pasiva • Según el estándar: ♦ Monitor numérico ◊ Monitor MDA ◊ Monitor CGA ◊ Monitor EGA ♦ Monitor analógico ◊ Monitor VGA ◊ Monitor SVGA Características De Algunos Monitores El tubo catódico (CRT o Cathode Ray Tube en inglés), fue inventado por Karl Ferdinand Braun y a su desarrollo contribuyeron los trabajos de Philo Farnsworth. Este componente es un dispositivo de visualización utilizado principalmente en pantallas de ordenadores, televisiones y osciloscopios, aunque en la actualidad se tiende a ir sustituyéndolo paulatinamente por tecnologías como plasma, LCD, DLP, etc. MONITORES LCD 40 LCD (Liquid Crystal Display) son las siglas en inglés de Pantalla de Cristal Líquido, dispositivo inventado por Jack Janning, quien fue empleado de NCR. Se trata de un sistema eléctrico de presentación de datos formado por 2 capas conductoras transparentes y en medio un material especial cristalino (cristal líquido) que tienen la capacidad de orientar la luz a su paso. Cuando la corriente circula entre los electrodos transparentes con la forma a representar (por ejemplo, un segmento de un número) el material cristalino se reorienta alterando su transparencia. El material base de un LCD lo constituye el cristal líquido, el cual exhibe un comportamiento similar al de los líquidos y unas propiedades físicas anisotrópicas similares a las de los sólidos cristalinos. Las moléculas de cristal líquido poseen una forma alargada y son más o menos paralelas entre sí en la fase cristalina. Según la disposición molecular y su ordenamiento, se clasifican en tres tipos: nemáticos, esméticos y colestéricos. La mayoría de cristales responden con facilidad a los campos eléctricos, exhibiendo distintas propiedades ópticas en presencia o ausencia del campo. El tipo más común de visualizador LCD es, con mucho, el denominado nemático de torsión, término que indica que sus moléculas en su estado desactivado presentan una disposición en espiral. La polarización o no de la luz que circula por el interior de la estructura, mediante la aplicación o no de un campo eléctrico exterior, permite la activación de una serie de segmentos transparentes, los cuales rodean al cristal líquido. Según sus características ópticas, pueden también clasificarse como: reflectivos, transmisivos y transreflectivos. Super Video Graphics Array o SVGA es un término que cubre una amplia gama de estándares de visualización gráfica de ordenadores, incluyendo tarjetas de video y monitores. Cuando IBM lanzara al mercado el estándar VGA en 1987 muchos fabricantes manufacturan tarjetas VGA clones. Luego, IBM se mueve y crea el estándar XGA, el cual no es seguido por las demás compañías, éstas comienzan a crear tarjetas de video SVGA. Las nuevas tarjetas SVGA de diferentes fabricantes no eran exactamente igual a nivel de hardware, lo que las hacía incompatibles. Los programas tenían dos alternativas. Manejar la tarjeta de video a través de llamadas estándar, lo cual era muy lento pero había compatibilidad con las diferentes tarjetas, o manejar la tarjeta directamente, lo cual era muy rápido y se podía acceder a toda la funcionalidad de ésta (modos gráficos, etc), sin embargo, el programador tenía que hacer una rutina de acceso especial para cada tipo de tarjeta. Poco después surgió Video Electronics Standards Association (VESA), un consorcio abierto para promover la interoperabilidad y definición de estándares entre los diferentes fabricantes. Entre otras cosas, VESA unificó 41 el manejo de la interface del programa hacia la tarjeta, también desarrolló un Bus con el mismo nombre para mejorar el performance entre el computador y la tarjeta. Unos años después, este bus sería sustituido por el PCI de Intel. SVGA fue definido en 1989 y en su primera versión se estableció para una resolución de 800 × 600 pixels y 4 bits de color por pixel, es decir, hasta 16 colores por pixel. Después fue ampliado rápidamente a los 1024 × 768 pixels y 8 bits de color por pixel, y a otras mayores en los años siguientes. Aunque el número de colores fue definido en la especificación original, esto pronto fue irrelevante, (en contraste con los viejos estándares CGA y EGA), ya que el interfaz entre la tarjeta de vídeo y el monitor VGA o SVGA utiliza voltajes simples para indicar la profundidad de color deseada. En consecuencia, en cuanto al monitor se refiere, no hay límite teórico al número de colores distintos que pueden visualizarse, lo que se aplica a cualquier monitor VGA o SVGA. Mientras que la salida de VGA o SVGA es analógica, los cálculos internos que la tarjeta de vídeo realiza para proporcionar estos voltajes de salida son enteramente digital. Para aumentar el número de colores que un sistema de visualización SVGA puede producir, no se precisa ningún cambio en el monitor, pero la tarjeta video necesita manejar números mucho más grandes y puede ser necesario rediseñarla desde el principio. Debido a esto, los principales fabricantes de chips gráficos empezaron a producir componentes para tarjetas video del alta densidad de color apenas unos meses después de la aparición de SVGA. Sobre el papel, el SVGA original debía ser sustituido por el estándar XGA o SXGA, pero la industria pronto abandonó el plan de dar un nombre único a cada estándar superior y así, casi todos los sistemas de visualización hechos desde finales de los 80 hasta la actualidad se denominan SVGA. Los fabricantes de monitores anuncian a veces sus productos como XGA o SXGA, pero esto no tiene ningún significado, ya que la mayoría de los monitores SVGA fabricados desde los años 90 llegan y superan ampliamente el rendimiento de XGA o SXGA. IMPRESORAS Impresora, periférico para ordenador o computadora que traslada el texto o la imagen generada por computadora a papel u otro medio, como transparencias o diversos tipos de fibras. Las impresoras se pueden dividir en categorías siguiendo diversos criterios. La distinción más común se hace entre las que son de impacto y las que no lo son. Las impresoras de impacto se dividen en impresoras matriciales e impresoras de 42 margarita. Las que no son de impacto abarcan todos los demás tipos de mecanismos de impresión, incluyendo las impresoras térmicas, de chorro de tinta e impresoras láser. Otros posibles criterios para la clasificación de impresoras son los siguientes: tecnología de impresión, formación de los caracteres, método de transmisión, método de impresión y capacidad de impresión. Tecnología de impresión: en el campo de las microcomputadoras destacan las impresoras matriciales, las de chorro de tinta, las láser, las térmicas y, aunque algo obsoletas, las impresoras de margarita. Las impresoras matriciales pueden subdividirse según el número de agujas que contiene su cabezal de impresión: 9, 18, 24. Formación de los caracteres: utilización de caracteres totalmente formados con trazo continuo (por ejemplo, los producidos por una impresora de margarita) frente a los caracteres matriciales compuestos por patrones de puntos independientes (como los que producen las impresoras estándar matriciales, de chorro de tinta y térmicas). Aunque las impresoras láser son técnicamente impresoras matriciales, la nitidez de la impresión y el tamaño muy reducido de los puntos, impresos con una elevada densidad, permite considerar que los trazos de sus caracteres son continuos. Método de transmisión: paralelo (transmisión byte a byte) frente a serie (transmisión bit a bit). Estas categorías se refieren al medio utilizado para enviar los datos a la impresora, más que a diferencias mecánicas. Muchas impresoras están disponibles tanto en versiones paralelo como en serie, y algunas incorporan ambas opciones, lo que aumenta la flexibilidad a la hora de instalarlas. Método de impresión: carácter a carácter, línea a línea o página a página. Las impresoras de caracteres son las matriciales, las de chorro de tinta, las térmicas y las de margarita. Las impresoras de líneas se subdividen en impresoras de cinta, de cadena y de tambor, y se utilizan frecuentemente en grandes instalaciones como centros de cálculo o entornos industriales. Entre las impresoras de páginas se encuentran las electrofotográficas, como las impresoras láser. Capacidad de impresión: sólo texto frente a texto y gráficos. La mayoría de las impresoras de margarita y de bola sólo pueden imprimir textos, aunque también existen impresoras matriciales y láser que sólo trabajan con caracteres. Estas impresoras sólo pueden reproducir caracteres previamente grabados, ya sea en relieve o en forma de mapa de caracteres interno. Las impresoras de textos y gráficos, entre las que se encuentran las matriciales, las de chorro de tinta y las láser reproducen todo tipo de imágenes dibujándolas como patrones de puntos. Los distintos tipos de impresora se diferencian en la velocidad de impresión y en la calidad del producto impreso. Así, las impresoras de caracteres, como las matriciales, imprimen en un rango de velocidad entre 200 y 400 cps (caracteres por segundo), lo que supone unas 90 a 180 lpm (líneas por minuto). Las impresoras de línea presentan un amplio rango de velocidades que va de las 400 a las 2.000 lpm. La velocidad de las impresoras de página oscila entre las 4 y las 800 ppm (páginas por minuto) para impresiones en blanco y negro, y la décima parte si la impresión es en color. En un entorno de oficina en el que se empleen formularios en papel continuo o de varias hojas de papel autocopiativo, la impresora más adecuada es la de matriz de puntos, mientras que si se requiere una mayor calidad de impresión, se utilizará una impresora láser. Las impresoras de tinta son las preferidas para el entorno doméstico, ya que su precio es asequible y, en su mayor parte, imprimen en color. 43 IMPRESORA LASER Impresora láser, impresora electrofotográfica que utiliza la misma tecnología que las fotocopiadoras. Para dibujar la imagen de la página deseada se utilizan un rayo láser dirigido y un espejo giratorio, que actúan sobre un tambor fotosensible. La imagen se fija en el tambor en forma de carga electrostática que atrae y retiene el tóner. Se enrolla una hoja de papel cargada electrostáticamente alrededor del tambor, de forma que el tóner depositado se queda pegado al papel. A continuación se calienta el papel para que el tóner se funda sobre su superficie. Por último, se elimina la carga eléctrica del tambor y se recoge el tóner sobrante. Para hacer varias copias de una misma imagen, se omite este último paso y se repiten sólo la aplicación del tóner y el tratamiento del papel. Una desventaja de las impresoras láser es que son menos versátiles que las matriciales, que trabajan con distintos tipos de papel. Por ello suelen obtenerse mejores resultados si se utilizan impresoras matriciales o de margarita para la impresión de formularios autocopiativos o en papel ancho. 44 IMPRESORA DE PUNTOS Impresora matricial, cualquier impresora que imprime caracteres compuestos por puntos empleando un cabezal de impresión formado por agujas accionadas electromagnéticamente. Los parámetros principales de calidad de impresión de una impresora matricial son el número de puntos de la matriz de agujas y su velocidad. Por el tipo de tecnología empleado para obtener el carácter impreso se clasifican como impresoras de impacto. El número de agujas del cabezal de impresión suele ser 9, 18 o 24 IMPRESORA DE INYECCION Impresora de chorro de tinta o Impresora de inyección de tinta, impresora que utiliza la propulsión de gotas de tinta tecnología ink jet sobre un soporte sólido (papel o acetato) para obtener la copia de un documento. Habitualmente la tinta se encuentra en estado líquido y llega al soporte por inyección térmica (tecnología desarrollada por Canon, bubble jet) o por efecto piezoeléctrico (tecnología desarrollada por Epson). En un principio, las impresoras de chorro de tinta imprimían en blanco y negro, pero en la actualidad la mayoría lo hace en color. Suelen utilizar dos cabezales, uno con un cartucho de tinta negra y otro con tres depósitos de tinta de color diverso (cyan, magenta y amarillo); son impresoras CMYK (acrónimo de Cyan, 45 Magenta, Yellow, blacK). Cada punto se imprime combinando los distintos colores en la cantidad adecuada, lo que permite una gran precisión; si se utiliza un papel apropiado, se pueden obtener copias con calidad fotográfica. TARJETA DE SONIDO Una tarjeta de sonido es una tarjeta de expansión para computadoras que permite la entrada y salida de audio bajo el control de un programa informático. Características generales Una tarjeta de sonido típica incorpora un chip de sonido que por lo general tiene el convertidor Digital−Análogo el cual cumple con la importante función de "traducir" formas de ondas grabadas o generadas digitalmente en una señal analógica y viceversa. Esta señal es enviada a un conector (para audífonos) en donde se puede conectar cualquier otro dispositivo como un amplificador, un altavoz, etc. Los diseños más avanzados tienen más de un chip de sonido, y tienen la capacidad de separar entre los sonidos sintetizados (usualmente para la generación de música y efectos especiales en tiempo real utilizando poca cantidad de información y tiempo del microprocesador y quizá compatibilidad MIDI) y los sonidos digitales para la reproducción. Esto último se logra con DACs (por sus siglas en inglés Digital−Analog−Conversor o Convertidor−Digital−Analógico), que tienen la capacidad de reproducir múltiples muestras digitales a diferentes tonos e incluso aplicarles efectos en tiempo real como el filtrado o distorsión. Algunas veces, la reproducción digital de multi−canales puede ser usado para sintetizar música si es combinado con un banco de instrumentos que por lo general es una pequeña cantidad de memoria ROM o flash con datos sobre el sonido de distintos instrumentos musicales. Otra forma de sintetizar música en las PC's es por medio de los "códecs de audio" los cuales son programas diseñados para esta función pero consumen mucho tiempo de microprocesador. La mayoría de las tarjetas de sonido también tienen un conector de entrada o "Line In" por el cual puede entrar cualquier tipo de señal de audio proveniente de otro dispositivo como micrófonos, casseteras entre otros y luego así la tarjeta de sonido puede digitalizar estas ondas y guardarlas en el disco duro del computador. 46 Otro conector externo que tiene una tarjeta de sonido típica es el conector para micrófono. Este conector está diseñado para recibir una señal proveniente de dispositivos con menor voltaje al utilizado en el conector de entrada "Line−In". TARGETAS DE SONIDO MODEM Módem es un acrónimo de MOdulador−DEModulador; es decir, que es un dispositivo que transforma las señales digitales del ordenador en señal telefónica analógica y viceversa, con lo que permite al ordenador transmitir y recibir información por la línea telefónica. Los chips que realizan estas funciones están casi tan estandarizados como los de las tarjetas de sonido; muchos fabricantes usan los mismos integrados, por ejemplo de la empresa Rockwell, y sólo se diferencian por los demás elementos electrónicos o la carcasa. Tipos de módems 47 La distinción principal que se suele hacer es entre módems internos y módems externos, si bien recientemente han aparecido unos módems llamados "módems software" o Winmódems, que han complicado un poco el panorama. • Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes componentes que forman el módem. Existen para diversos tipos de conector: ♦ ISA: debido a las bajas velocidades que se manejan en estos aparatos, durante muchos años se utilizó en exclusiva este conector, hoy en día en desuso. ♦ PCI: el formato más común en la actualidad. ♦ AMR: sólo en algunas placas muy modernas; baratos pero poco recomendables por su bajo rendimiento. La principal ventaja de estos módems reside en su mayor integración con el ordenador, ya que no ocupan espacio sobre la mesa y toman su alimentación eléctrica del propio ordenador. Además, suelen ser algo más barato debido a carecer de carcasa y transformador, especialmente si son PCI (aunque en este caso son casi todos del tipo módem software. Por contra, son algo más complejos de instalar. • Externos: son similares a los anteriores pero metidos en una carcasa que se coloca sobre la mesa o el ordenador. La conexión con el ordenador se realiza generalmente mediante uno de los puertos serie o "COM", por lo que se usa la UART del ordenador, que deberá ser capaz de proporcionar la suficiente velocidad de comunicación; actualmente ya existen modelos para puerto USB, de conexión y configuración aún más sencillas. La ventaja de estos módems reside en su fácil transportabilidad entre ordenadores, además de que podemos saber el estado el módem (marcando, con/sin línea, transmitiendo...) mediante unas luces que suelen tener en el frontal. Por el contrario, son un trasto más, necesitan un enchufe para su transformador y la UART debe ser una 16550 o superior para que el rendimiento de un módem de 28.800 bps o más sea el adecuado. 48 • Módems PC−Card: son módems que se utilizan en portátiles; su tamaño es similar al de una tarjeta de crédito algo más gruesa, pero sus capacidades pueden ser igual o más avanzadas que en los modelos normales. • Módems software, HSP o Winmódems: son módems internos (al menos no conozco ninguno externo, y dudo que fuera posible construirlo) en los cuales se han eliminado varias piezas electrónicas, generalmente chips especializados, de manera que el microprocesador del ordenador debe suplir su función mediante software. Lo normal es que utilicen como conexión una ranura PCI (o una AMR), aunque no todos los módems PCI son de este tipo. La ventaja resulta evidente: menos piezas, más baratos. Las desventajas, que necesitan microprocesadores muy potentes (como poco un Pentium 133 MHz), que su rendimiento depende del número de aplicaciones abiertas (nada de multitarea mientras el módem funciona o se volverá una auténtica tortuga) y que el software que los maneja sólo suele estar disponible para Windows 95/98, de ahí el apelativo de Winmódems. Evidentemente, resultan poco recomendables pero son baratos... • Módems completos: los módems clásicos no HSP, bien sean internos o externos. En ellos el rendimiento depende casi exclusivamente de la velocidad del módem y de la UART, no del microprocesador. DISPOSITIVOS DE ENTRADA/SALIDA Los dispositivos de almacenamiento externos, que pueden residir físicamente dentro de la unidad de proceso principal del ordenador, están fuera de la placa de circuitos principal. Estos dispositivos almacenan los datos en forma de cargas sobre un medio magnéticamente sensible, por ejemplo una cinta de sonido o, lo que es más común, sobre un disco revestido de una fina capa de partículas metálicas. Los dispositivos de almacenamiento externo más frecuentes son los disquetes y los discos duros, aunque la mayoría de los grandes sistemas informáticos utiliza bancos de unidades de almacenamiento en cinta magnética. Los discos flexibles pueden contener, según sea el sistema, desde varios centenares de miles de bytes hasta bastante más de un millón de bytes de datos. Los discos duros no pueden extraerse de los receptáculos de la unidad de disco, que contienen los dispositivos electrónicos para leer y escribir datos sobre la superficie magnética de los discos y pueden almacenar desde varios millones de bytes hasta algunos centenares de millones. La tecnología de CD−ROM, que emplea las mismas técnicas láser utilizadas para crear los discos compactos (CD) de audio, permiten capacidades de almacenamiento del orden de varios cientos de megabytes (millones de bytes) de datos. 49 También hay que añadir los recientemente aparecidos DVD que permiten almacenar más de 4 Gb de información. LA DISQUETERA O UNIDAD DE DISQUETES Es la unidad lectora de disquetes, y ayuda a introducirlo para guardar la información. Refiriéndonos exclusivamente al mundo del PC, en las unidades de disquette sólo han existido dos formatos físicos considerados como estándar, el de 5 1/4 y el de 3 1/2. En formato de 5 1/4, el IBM PC original sólo contaba con unidades de 160 Kb., esto era debido a que dichas unidades sólo aprovechaban una cara de los disquettes. Luego, con la incorporación del PC XT vinieron las unidades de doble cara con una capacidad de 360 Kb.(DD o doble densidad), y más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 Mb. El formato de 3 1/2 IBM lo impuso en sus modelos PS/2. Para la gama 8086 las de 720 Kb. (DD o doble densidad) y para el resto las de 1,44 Mb. (HD o alta densidad) que son las que hoy todavía perduran. En este mismo formato, también surgió un nuevo modelo de 2,88 Mb. (EHD o Extra alta densidad) UNIDAD GRABADORA/LECTORA Es un periférico hardware del ordenador que se utiliza para grabar datos (información) en un CD. Las características de estos aparatos puede variar en velocidad y calidad. Actualmente permiten tanto la lectura, grabado (CD−R) y regrabado (CD−RW) de CDs. El tiempo que requiere cada operación varía, ya que para la lectura es prácticamente instantánea, pero en el caso de grabado y regrabado puede durar 5 minutos (depende de la grabadora y el ordenador usado). También se le conoce como Tostador de CD o quemador de Discos. Este término proviene de la expresión quemar un CD. A su vez, quemar un CD viene del inglés, ya que en este idioma, la acción de grabar datos en un CD se conoce como burn a CD. Las grabadoras de CD's tienen una velocidad de giro de 400−1000 rpm (revoluciones por minuto). Todas graban a 150 KB/s (Kilobytes por segundos). Para saber la velocidad a la que puede grabar una grabadora de CD. Habrá que mirar la velocidad de Write (Escritura), por ejemplo; una grabadora soporta una velocidad de grabación de 48X. Habrá que multiplicar, en este caso sería, 48*X(150KB/s)=48*150KB/s= 7200 KB/s. CD−ROM CD−ROM, acrónimo de Compact Disc−Read Only Memory. Estándar de almacenamiento de archivos informáticos en disco compacto. Se caracteriza por ser de sólo lectura, con una capacidad de almacenamiento para datos de 650 MB. Otros estándares son el CD−R o WORM (permite grabar la información una sola vez), el CD−RW (permite grabar la información más de 1.000 veces sobre el mismo disco), el CD−I (define una plataforma multimedia) y el PhotoCD (permite visualizar imágenes estáticas). 50 DISCO DURO Se llama disco duro (en inglés hard disk, abreviado con frecuencia HD o HDD) al dispositivo encargado de almacenar información de forma permanente en una computadora. Los discos duros generalmente utilizan un sistema de grabación magnética analógica. En este tipo de disco encontramos dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares a la hora de comunicar un disco duro con la computadora. Los más utilizados son IDE/ATA, SCSI, y SATA, este ultimo siendo de reciente aparición. Tal y como sale de fábrica el disco duro no puede ser utilizado por un sistema operativo. Antes tenemos que definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema. También existen otro tipo de discos denominados de estado sólido que utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limita a las supercomputadoras, por su elevado precio. Así, el caché de pista es una memoria de estado sólido, tipo RAM, dentro de un disco duro de estado sólido. El primer disco duro fue el IBM 350, inventado por Reynold Johnson y presentado en 1955 junto con el ordenador IBM 305. Este disco tenía 50 platos de 61 cm cada uno, con una capacidad total de 5 millones de caracteres. Se usaba un solo cabezal para acceder a todos los platos, por lo que el tiempo de acceso medio era muy lento 51 MEMORIA USB Una memoria USB o Pendrive (Universal Serial Bus) (en inglés USB flash drive) es un pequeño dispositivo de almacenamiento que utiliza memoria flash para guardar la información sin necesidad de pilas. Estas memorias son resistentes a los rasguños y al polvo que han afectado a las formas previas de almacenamiento portátil, como los CD y los disquetes. Los sistemas operativos más modernos pueden leer y escribir en las memorias sin necesidad de controladores adicionales. En los equipos antiguos (como por ejemplo los equipados con Windows 98) se necesita instalar un controlador de dispositivo (driver). Todas las versiones de Linux que soportan dispositivos USB o SCSI soportan dispositivos USB Flash, aunque algunos entornos de escritorio asumen que el dispositivo está particionado (estas suposiciones no son del todo seguras). SISTEMAS OPERATIVOS 52 Sistema operativo, software básico que controla una computadora. El sistema operativo tiene tres grandes funciones: coordina y manipula el hardware del ordenador o computadora, como la memoria, las impresoras, las unidades de disco, el teclado o el mouse; organiza los archivos en diversos dispositivos de almacenamiento, como discos flexibles, discos duros, discos compactos o cintas magnéticas, y gestiona los errores de hardware y la pérdida de datos. Como Funcionan Los Sistemas Operativos Los sistemas operativos controlan diferentes procesos de la computadora. Un proceso importante es la interpretación de los comandos que permiten al usuario comunicarse con el ordenador. Algunos intérpretes de instrucciones están basados en texto y exigen que las instrucciones sean tecleadas. Otros están basados en gráficos, y permiten al usuario comunicarse señalando y haciendo clic en un icono. Por lo general, los intérpretes basados en gráficos son más sencillos de utilizar. Los sistemas operativos pueden ser de tarea única o multitarea. Los sistemas operativos de tarea única, más primitivos, sólo pueden manejar un proceso en cada momento. Por ejemplo, cuando la computadora está imprimiendo un documento, no puede iniciar otro proceso ni responder a nuevas instrucciones hasta que se termine la impresión. Todos los sistemas operativos modernos son multitarea y pueden ejecutar varios procesos simultáneamente. En la mayoría de los ordenadores sólo hay una UCP; un sistema operativo multitarea crea la ilusión de que varios procesos se ejecutan simultáneamente en la UCP. El mecanismo que se emplea más a menudo para lograr esta ilusión es la multitarea por segmentación de tiempos, en la que cada proceso se ejecuta individualmente durante un periodo de tiempo determinado. Si el proceso no finaliza en el tiempo asignado, se suspende y se ejecuta otro proceso. Este intercambio de procesos se denomina conmutación de contexto. El sistema operativo se encarga de controlar el estado de los procesos suspendidos. También cuenta con un mecanismo llamado planificador que determina el siguiente proceso que debe ejecutarse. El planificador ejecuta los procesos basándose en su prioridad para minimizar el retraso percibido por el usuario. Los procesos parecen efectuarse simultáneamente por la alta velocidad del cambio de contexto. Los sistemas operativos pueden emplear memoria virtual para ejecutar procesos que exigen más memoria principal de la realmente disponible. Con esta técnica se emplea espacio en el disco duro para simular la memoria adicional necesaria. Sin embargo, el acceso al disco duro requiere más tiempo que el acceso a la memoria principal, por lo que el funcionamiento del ordenador resulta más lento. Sistemas Operativos Actuales Los sistemas operativos empleados normalmente son UNIX, Mac OS, MS−DOS, OS/2 y Windows−NT. El UNIX y sus clones permiten múltiples tareas y múltiples usuarios. Su sistema de archivos proporciona un método sencillo de organizar archivos y permite la protección de archivos. Sin embargo, las instrucciones del UNIX no son intuitivas. Otros sistemas operativos multiusuario y multitarea son OS/2, desarrollado inicialmente por Microsoft Corporation e International Business Machines Corporation (IBM), y Windows−NT, desarrollado por Microsoft. El sistema operativo multitarea de las computadoras Apple se denomina Mac OS. El DOS y su sucesor, el MS−DOS, son sistemas operativos populares entre los usuarios de computadoras personales. Sólo permiten un usuario y una tarea. El futuro de los sistemas operativos Los sistemas operativos siguen evolucionando. Los sistemas operativos distribuidos están diseñados para su uso en un grupo de ordenadores conectados pero independientes que comparten recursos. En un sistema operativo distribuido, un proceso puede ejecutarse en cualquier ordenador de la red (normalmente, un ordenador inactivo en ese momento) para aumentar el rendimiento de ese proceso. En los sistemas 53 distribuidos, todas las funciones básicas de un sistema operativo, como mantener los sistemas de archivos, garantizar un comportamiento razonable y recuperar datos en caso de fallos parciales, resultan más complejas. EL FUTURO DEL COMPUTADOR La construcción de computadores no será tan estándar como lo es hoy. Se integrarán todas las herramientas al PC del usuario, desde el proyector hasta la cámara digital. Además cada equipo será armado pensando en quién lo usará, según las funciones que le correspondan, es decir tendremos PC personalizados también a nivel de hardware. Así el equipo de un vendedor será físicamente distinto al del encargado de marketing. Los fabricantes de hardware están desarrollando dispositivos de bolsillo con mayor capacidad de conectividad y procesamiento. Por ejemplo, las PDAs han sido dotadas de teclado completo y pantalla a color, con capacidad de crear, editar e intercambiar documentos por e−mail, puerto infrarrojo y fax, navegar en Internet, reproducir archivos de video y audio, y hacer llamadas en conferencia. MANTENIMIENTO PREVENTIVO DE UN COMPUTADOR Lejos de lo que la mayoría de la gente cree, no es sólo una acción de limpieza del polvo, sino una dinámica de métodos y sanas costumbres que ejercitándolas brindan grandes satisfacciones. Recomendación: Descarga la corriente electrostática del cuerpo antes de manipular el hardware del PC. 1. Desconexión de los cables externos. El cable de entrada de energía eléctrica debe ser desconectado de la fuente del PC. Todos los aparatos que se conectan al equipo deben estar apagados. Los cables que llegan de los periféricos al PC también deben desconectarse. La manipulación de PC tanto para reparación o mantenimientos preventivos debe hacerse en la medida de lo posible con zapatos aislantes o pulseras antiestáticas. No es necesario APRETAR demasiado los conectores de los cables periféricos que se acoplan por la parte de atrás al PC cuando se reconectan, pues eso propicia el desprendimiento de los tornillos de los conectores del PC. 2.Limpieza de interior del PC. Para retirar el polvo te recomendamos utilizar un aparato soplador que sea capaz de lanzar un chorro de aire. Si utilizas una aspiradora tienes que utilizar una brocha o pincel para ayudar en la remoción de grumos (combinación de polvo y grasa o polvo y humedad) teniendo precaución en el movimiento de los mismos para no dañar componentes o aflojar cables. Con el soplador inyecta aire POR TODOS LOS SECTORES. La fuente de energía de la computadora retiene la mayor cantidad de polvo por lo que hay que soplar por sus rejillas y por la cavidad del extractor del aire. Abre la ventana del floppy e introduce aire por ahí. Hay que revisar los conectores internos del PC (puntos en donde se enchufan cables), para asegurarse que no están flojos. Igual procedimiento es aplicable a las placas y módulos de memoria RAM (los malos contactos pueden producir BLOQUEOS y RESETEO del PC). 3. Limpieza del monitor. Le puedes inyectar aire por sus rejillas sin abrirlo, pues la energía residual que conserva después de apagado lo hace peligroso. Este debería destaparse solo en caso de necesitar reparación. 4. Limpieza del teclado. Voltéalo boca abajo e inyecta aire entre sus teclas para retirar el polvo y cuerpos extraños. No es necesario retirar las tapas de las teclas del PC para lavarlas, su reposición genera bastantes fallas mecánicas (se pueden limpiar pasando entre ellas un pañuelo humedecido con jabón líquido). 5. Mantenimiento de las impresoras. Tienen diferentes tratamientos según su tecnología. Las de matriz de puntos requieren más atención (debido a su mayor porcentaje de trabajo mecánico que genera fricción, calor y polvillo ). A estas hay que destaparlas para soplar en su interior dado que recogen bastante polvo y partículas de papel. Luego hay que limpiar con varsol o disolvente el riel o eje por donde se desliza la cabeza impresora, para retirar la grasa vieja. Lubrica el eje con aceite grueso, como el que se utiliza en los motores de los 54 automóviles. El cabezal de impresión puede retirarse para colocarlo boca abajo con la boquilla de las agujas sumergidas en alcohol isopropílico a fin de disolver la tinta compactada. La boquilla debe ser lubricada por debajo para minimizar la fricción de las agujas en dicha área. En las impresoras de inyección de tinta o burbuja, el mantenimiento es simple, se limita a: conservar lubricado el eje por donde se desliza el soporte de los cartuchos de tinta, retirar la grasa vieja en los rieles que soportan el deslizamiento de la cabeza y asegurarse de que la banda censora de movimiento del cabezal, esta limpia de grasa o tinta. En algunas puede ser necesario limpiar con alcohol los RODILLOS DE CAUCHO que arrastran el papel puesto que se vuelven lisos a causa de la acumulación de las partículas de papel en su superficie. 6. Mantenimiento del mouse (ratón). Abre la tapa inferior del mouse y examina los ejes que entran en contacto con la esfera. Si estan sucios (normalmente con un anillo de particulas de polvo y grasa) límpialos con un pañuelo (o tela que no suelte pelusas) humedecido en alcohol o jabón líquido. 7. Limpieza de la unidad de disquete. Para limpiar los cabezales del FLOPPY utiliza un disquete de limpieza para floppy. Si sospechas que un cuerpo extraño se ha quedado en su interior (como una etiqueta adhesiva, grapa, clip o resorte de un disquete) tienes que abrirlo para extraer el cuerpo extraño. Si se trata de un Floppy que trabaja en un ambiente polvoriento (a ras del piso por ejemplo), hay que abrirlo para limpiarlo y LUBRICARLO. 8. Mantenimiento de la unidad óptica CD−ROM, CD−RW, DVD. Normalmente no se debe abrir salvo en los casos que mencionaremos más adelante. La bandeja debería limpiarse con un paño humedecido para retirar el polvo y suciedad a fin de disminuir la flotación de partículas cuando lee o escribe en un CD. Se puede limpiar con un palillo medicinal con algodón en la punta humedecido con alcohol. Si el ambiente de trabajo es polvoriento (o cuando hace mucho tiempo la unidad no ha recibido mantenimiento), será necesario abrirla para LIMPIARLA y LUBRICARLA. La limpieza consiste en: LIMPIAR con cuidado el lente LASER (toma nota que está sostenido por un SOPORTE FLOTANTE muy delicado). Esta operación es delicada y no debe hacerse si no se tiene un pulso firme ya que una fuerza indebida en el lente lo puede estropear. Los rieles por los que se desliza la bandeja deben lubricarse así como los piñones plásticos que están a la vista. Un capítulo aparte lo constituye el problema de mala lectura / grabación: si la unidad presentaba este problema antes del servicio de mantenimiento y después de efectuado este la anomalía continúa, las opciones son: 1. Que le hagas un LAVADO a la unidad láser (solo si tienes experiencia y habilidad para desarmarla, o como un ultimo recurso ante una unidad desahuciada), 2. Que reajustes el DIODO LASER para darle más ganancia a cambio de disminuir su tiempo de vida (también deberás saber como ubicarlo y como ajustar su potenciómetro = bases de electrónica de laboratorio). 9. Limpieza de la superficie exterior del PC y periféricos. Se recomienda utilizar una tela humedecida en jabón líquido (ya que los equipos de computo usualmente se ensucian por el polvo ambiental y el contacto con las manos de los operadores). No se recomiendan los disolventes o alcohol para limpiar cubiertas, carcasas o gabinetes de PC y periféricos por su acción abrasiva y disolvente. 10. Los programas (Software). Considerando la devastadora acción de códigos malignos (virus, programas espía, publicitarios, pornográficos, etc.) es necesario revisar periódicamente el disco duro con herramientas anti virus y anti spyware. También es importante instalar un cortafuegos (firewall) para evitar el ataque de intrusos a través de los puertos abiertos en el PC. Estas herramientas las encontráis en nuestra pagina de Utilidades. CONCLUSIONES La arquitectura de computadores diseñada a mediados de la década de los 40 a sido el modelo fundamental de lo grandes avances tecnológicos de los últimos años, ha sido tan fundamental este diseño que se dice que en teoría un computador actual podría hacer las mismas operaciones que uno de 20 años en el futuro, solo que lo haría mas lento, los avances que se han presentado en los computadores ha venido acompañado de otras 55 revoluciones tecnológicas, como son todos los dispositivos que se han inventado para acompañar al computador, las impresoras, el Mouse, unidades de almacenamiento, y otro gran numero de dispositivos que han hecho del computador una herramienta que dejo de ser de uso exclusivo de los ingenieros de sistemas y programadores para convertirse en un herramienta de trabajo mas para todo tipo de profesionales. BIBLIOGRAFIA • www.wikipedia.com • www.elrincondelvago.com • www.monografias.com • www.eltiempo.com • Enciclopedia encarta 2006 • Arquitectura y estructura de computadores editorial ANEXOS Lenguaje de Programación Lenguaje de programación, en informática, cualquier lenguaje artificial que puede utilizarse para definir una secuencia de instrucciones para su procesamiento por un ordenador o computadora. Es complicado definir qué es y qué no es un lenguaje de programación. Se asume generalmente que la traducción de las instrucciones a un código que comprende la computadora debe ser completamente sistemática. Normalmente es la computadora la que realiza la traducción Software Software, programas de computadoras. Son las instrucciones responsables de que el hardware (la máquina) realice su tarea. Como concepto general, el software puede dividirse en varias categorías basadas en el tipo de trabajo realizado. Las dos categorías primarias de software son los sistemas operativos (software del sistema), que controlan los trabajos del ordenador o computadora, y el software de aplicación, que dirige las distintas tareas para las que se utilizan las computadoras. Por lo tanto, el software del sistema procesa tareas tan esenciales, aunque a menudo invisibles, como el mantenimiento de los archivos del disco y la administración de la pantalla, mientras que el software de aplicación lleva a cabo tareas de tratamiento de textos, gestión de bases de datos y similares. Constituyen dos categorías separadas el software de red, que permite comunicarse a grupos de usuarios, y el software de lenguaje utilizado para escribir programas Hardware Hardware, equipo utilizado para el funcionamiento de una computadora. El hardware se refiere a los componentes materiales de un sistema informático. La función de estos componentes suele dividirse en tres categorías principales: entrada, salida y almacenamiento. Los componentes de esas categorías están conectados a través de un conjunto de cables o circuitos llamado bus con la unidad central de proceso (CPU) del ordenador, el microprocesador que controla la computadora y le proporciona capacidad de cálculo. El soporte lógico o software, en cambio, es el conjunto de instrucciones que un ordenador emplea para manipular datos: por ejemplo, un procesador de textos o un videojuego. Estos programas suelen almacenarse y transferirse a la CPU a través del hardware de la computadora. El software también rige la forma en que se utiliza el hardware, como por ejemplo la forma de recuperar información de un dispositivo de almacenamiento. La interacción entre el hardware de entrada y de salida es controlada por un software llamado BIOS GLOSARIO 56 Almacenamiento Primario La memoria da al procesador almacenamiento temporal para programas y datos. Todos los programas y datos deben transferirse a la memoria desde un dispositivo de entrada o desde el almacenamiento secundario (disquete), antes de que los programas puedan ejecutarse o procesarse los datos. Las computadoras usan 2 tipos de memoria primaria Almacenamiento Secundario El almacenamiento secundario es un medio de almacenamiento definitivo (no volátil como el de la memoria RAM). El proceso de transferencia de datos a un equipo de cómputo se le llama procedimiento de lectura. El proceso de transferencia de datos desde la computadora hacia el almacenamiento se denomina procedimiento de escritura. En la actualidad se pueden usar principalmente dos tecnologías para almacenar información AMD El segundo más grande fabricante de microprocesadores, después de Intel. También fabrica memorias flash y circuitos integrados para aparatos para redes, entre otros. Fue fundada en el año 1969 y ha contribuido a que los precios de las PC sean menores por su alta calidad y buenos precios. Aplicación Cualquier programa que corra en un sistema operativo y que haga una función específica para un usuario. Por ejemplo, procesadores de palabras, bases de datos, agendas electrónicas, etc Archivo Unidad significativa de información la cual puede ser manipulada por el sistema operativo de un ordenador debido a que tiene una identificación única formada por un "nombre" y un "apellido". El nombre suele ser de libre elección del usuario y el apellido debe identificar el contenido o el tipo de archivo. A manera de información, los archivos word tienen el apellido .doc; los de excel tienen .xls; los ejecutables .exe, los de texto .txt y así sucesivamente. ASCII American Standard Code for Information Interchange. Es de facto el estándar del World Wide Web para el código utilizado por computadoras para representar todas las letras (mayúsculas, minúsculas, letras latinas, números, signos de puntuación, etc.). El código estándar ASCII es de 128 letras representadas por un digito binario de 7 posiciones (7 bits), de 0000000 a 1111111. Backup Copia de Respaldo o Seguridad. Acción de copiar archivos o datos de forma que estén disponibles en caso de que un fallo produzca la perdida de los originales. Esta sencilla acción evita numerosos, y a veces irremediables, problemas si se realiza de forma habitual y periódica. Bluetooth Estándar de transmisión de datos inalámbrico vía radiofrecuencia de corto alcance (unos 10 metros). Entre otras muchas aplicaciones, permite la comunicación entre videocámaras, celulares y computadoras que tengan este protocolo, para el intercambio de datos digitalizados (vídeo, audio, texto, etc.). Bus 57 En una computadora, el bus es la ruta de data en el motherboard o tarjeta madre, que interconecta al microprocesador con extensiones adjuntas conectadas en espacios o slots de expansión, por ejemplo disco duro, CD−ROM drive y tarjetas de video. Cache Copia que mantiene una computadora de las páginas web visitadas últimamente, de forma que si el usuario vuelve a solicitarlas, las mismas son leídas desde el disco duro sin necesidad de tener que conectarse de nuevo a la red; consiguiéndose así una mejora muy apreciable en la velocidad. Click Cuando se oprime alguno de lo botones de un mouse el sonido es parecido a un "click". La palabra click escrita, se usa generalmente para indicarle al usuario que oprima el botón del mouse encima de un área de la pantalla Dato Unidad mínima que compone cualquier información Disco duro Disco de metal cubierto con una superficie de grabación magnética. Haciendo una analogía con los discos musicales, los lados planos de la placa son la superficie de grabación, el brazo acústico es el brazo de acceso y la púa (aguja) es la cabeza lectora/grabadora. Los discos magnéticos pueden ser grabados, borrados y regrabados como una cinta de audio. ENIAC Electronic Numerical Integrator and Computer. Primera computadora digital, creada por pedido del Army norteamericano para computar las tablas de balistica de la II guerra mundial. Se termino de ensamblar en 1945. Hardware Maquinaria. Componentes físicos de una computadora o de una red (a diferencia de los programas o elementos lógicos que los hacen funcionar). Impresora Periférico que pasa la información de una computadora a un medio físico, que usualmente es el papel. Intel El fabricante líder de microprocesadores para PC. Los procesadores Intel fueron usados en las primeras computadoras que incorporaban el sistema operativo DOS de Microsoft. Su línea de procesadores Pentium incremento los niveles de desempeño de las computadoras a niveles superiores. Intel también fabrica tarjetas madre (motherboards), procesadores de red y un sin fin de circuitos procesadores que están pavimentando el futuro de la computación personal. Interfaz (Interface) 58 Zona de contacto o conexión entre dos componentes de "hardware"; entre dos aplicaciones; o entre un usuario y una aplicación. Apariencia externa de una aplicación informática. Kilobyte Unidad de medida equivalente a 1024 (dos elevado a la 10) bytes. Se usa frecuentemente para referirse a la capacidad de almacenamiento o tamaño de un archivo. LAN Local Area Network. Red de área local. Red de computadoras personales ubicadas dentro de un área geográfica limitada que se compone de servidores, estaciones de trabajo, sistemas operativos de redes y un enlace encargado de distribuir las comunicaciones. Por ejemplo, computadoras conectadas en una oficina, en un edificio o en varios. Se pueden optimizarse los protocolos de señal de la red hasta alcanzar velocidades de transmisión de 100 Mbps . LCD Liquid Crystal Display. Monitor de Cristal Líquido. Los cristales líquidos se activan por campos eléctricos para producir la imagen del monitor. Macintosh Serie de computadoras de Apple Computer cuyo sistema operativo fue el primero totalmente gráfico y basado en ventanas. Microprocesador Microchip. Circuito integrado en un soporte de silicón el cual está formado por transistores y otros elementos electrónicos miniaturizados. Es uno de los elementos esenciales de una computadora. Multimedia Información digitalizada que combina texto, gráficos, video y audio. Nodo Cada una de las computadoras individuales u otros dispositivos de la red. Pentium Microprocesador de 64 bits, sucesor del chip 80468, de la empresa Intel. Lo llamaron asi puesto que la corte Norteamericana no aceptó 586 o 80586 como marca registrada. Fue lanzado al mercado en 1993. Al pasar los años, Pentium ha evolucionado a P1, P2, P3 y P4, P4EE. Periféricos Aparatos o equipos electrónicos, (como impresoras, teclados, escaners, etc), adicionales a una computadora (formada por memoria principal y CPU); se usa habitualmente para definir a los elementos que se conectan externamente a un puerto de la computadora. Píxel 59 Es la información guardada en un solo punto de una imagen. La imagen completa es la unión de píxeles. Mientras más píxeles tenga la imagen mejor la calidad de la misma. Plug and Play Característica del sistema operativo de un PC en orden de reconocer los dispositivos hardware a él conectados y ponerlos en funcionamiento de forma rápida y sencilla. Esta capacidad se popularizó a partir de la aparición del sistema operativo Windows 95 de Microsoft, que la incorporaba. Puerto Número que aparece tras un nombre de dominio en una URL. Dicho número va precedido del signo (dos puntos). Canal de entrada/salida de una computadora. QWERTY QWERTY es la forma como se le denomina al tipo de teclado que más se usa en la actualidad. El nombre viene de la forma como están distribuidas las letras y los caracteres. Las teclas en la fila superior debajo de los numeros forman la palabra QWERTY al leerlas de izquierda a derecha. RAM Random Access Memory (memoria de acceso aleatorio). Por lo general el término RAM es comprendido generalmente como la memoria volátil (los datos e instrucciones se borran al apagarse la PC) que puede ser escrita y leída. La memoria del equipo permite almacenar datos de entrada, instrucciones de los programas que se están ejecutando en ese momento, los datos resultados del procesamiento y los datos que se preparan para la salida. Sector de arranque Parte de un disco reservada para el bootstrap loader de un sistema operativo, un pequeño programa en lenguaje de máquina que reside en la ROM y que se ejecuta automáticamente cuando la PC es reiniciada o apagada, después de algunas pruebas básicas de hardware el programa llama a otros programas mayores que a su vez llaman al sistema operativo. Tarjeta Madre Mother board en ingles. Es una tarjeta de circuitos integrados que contiene varios microchips, como lo son normalmente: el microprocesador, circuitos electrónicos de soporte, ranuras para conectar parte o toda la RAM del sistema, la ROM y ranuras especiales (slots) que permiten la conexión de tarjetas adaptadoras adicionales (como por ejemplo, tarjetas de video y de sonido). USB Universal Serial Bus − Estándar utilizado en las PCs con el fin de reconocer los dispositivos hardware (impresora, teclado, etc.) y ponerlos en funcionamiento de forma rápida y sencilla. Elimina la necesidad de instalar adaptadores en la PC. VGA Video Graphics Array. Norma de visualización de gráficos para computadoras creada en 1987 por IBM. La tarjeta gráfica VGA se ha convertido en el estándar más aceptado para PCs. Tienen varios modos de 60 visualización con resoluciones distintas. En ellas se puede elegir entre 16 colores a 640x480, o 256 colores a 320x200. Actualmente las tarjetas gráficas superan estas resoluciones, aunque siguen siendo compatibles con ellas. INDICE • MARCO TEORICO • OBJETIVOS • EL COMPUTADOR • GENERACIONES DEL COMPUTADOR • ARQUITECTURA DE COMPUTADORES • DISPOSITIVOS DE ENTRADA Y SALIDA • SISTEMAS OPERATIVOS • EL FUTURO DEL COMPUTADOR • COMO HACER MANTENIMIENTO A UN COMPUTADOR • CONCLUSIONES • BIBLIOGRAFIA • ANEXOS • GLOSARIO OBJETIVOS PRINCIPALES El presente trabajo tiene como objetivo dar a conocer el funcionamiento del computador en su parte interna, conocer que es la arquitectura de computadores, cuales son los diferentes tipos de computadores que podemos encontrar en nuestro diario vivir. OBJETIVOS SECUNDARIOS • Conocer la historia del computador • Cuales son sus componentes • Cuales son los dispositivos mas comunes • Como interactúa el computador con el ser humano MARCO TEORICO El termino de arquitectura de computadores se comenzó a utilizar en el año de 1945 cuando el matematico john von neumann estableció el siguiente modelo el cual es el que se utiliza actualmente. Los ordenadores con arquitectura Von Neumann constan de cinco partes: La unidad aritmético−lógica o ALU, la unidad de control, la memoria, un dispositivo de entrada/salida y el bus de datos que proporciona un medio de transporte de los datos entre las distintas partes. Un ordenador con arquitectura Von Neumann realiza o emula los siguientes pasos secuencialmente: • Enciende el ordenador y Obtiene la siguiente instrucción desde la memoria en la dirección indicada por el contador de programa y la guarda en el registro de instrucción. • Aumenta el contador de programa en la longitud de la instrucción para apuntar a la siguiente. • Descodifica la instrucción mediante la unidad de control. Ésta se encarga de coordinar el resto de 61 componentes del ordenador para realizar una función determinada. • Se ejecuta la instrucción. Ésta puede cambiar el valor del contador del programa, permitiendo así operaciones repetitivas. El contador puede cambiar también cuando se cumpla una cierta condición aritmética, haciendo que el ordenador pueda 'tomar decisiones', que pueden alcanzar cualquier grado de complejidad, mediante la aritmética y lógica anteriores. • Vuelve al paso 2. 93 62