MICROPROCESADOR 1.Introducción Microprocesador, también llamado Unidad central de procesamiento (CPU) es un circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. Podríamos decir de él que es el cerebro del ordenador. Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles o aviones. El microprocesador es un tipo de circuito sumamente integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos electrónicos complejos formados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material conocido como semiconductor. Los microprocesadores modernos incorporan hasta 40 millones de transistores (que actúan como amplificadores electrónicos, osciladores o, más a menudo, como conmutadores), además de otros componentes como resistencias, diodos, condensadores y conexiones, todo ello en una superficie comparable a la de un sello postal. Los microprocesadores modernos funcionan con una anchura de bus de 64 bits (un BIT es un dígito binario, una unidad de información que puede ser un uno o un cero): esto significa que pueden transmitirse simultáneamente 64 bits de datos. Un cristal oscilante situado en el ordenador proporciona una señal de sincronización, o señal de reloj, para coordinar todas las actividades del microprocesador. La velocidad de reloj de los microprocesadores más avanzados es de unos 3200 MHZ. Los microprocesadores suelen tener dos velocidades: __ Velocidad interna: velocidad a la que funciona el micro internamente (500, 600, 800,3.200 MHz. __ Velocidad externa o de bus (FSB) velocidad con la que se comunican el micro y la placa base 2.Componentes Una unidad aritmético-lógica ALU que realiza cálculos y operaciones con números enteros, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole), Internamente esta formada por circuitos lógicos elementales para realizar estas operaciones: sumadores, incrementos, operadores lógicos, desplazamientos, rotaciones, comparaciones... Registros internos: Son zonas de memorias especiales donde se almacena información temporalmente. Una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (como un monitor o una impresora). Memoria Cache: memoria ultrarrápida que ayuda al micro en operaciones con datos que maneja constantemente. Coprocesador Matemático o Unidad de punto flotante (UPF): A partir de la última versión de los 486 incorporado internamente al microprocesador, se encarga de realizar las operaciones con números decimales. Reloj del sistema: Un cristal de cuarzo regulado 3.Funcionamiento de la CPU Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de almacenamiento correspondiente. La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en otro registro o se copian en una dirección de memoria determinada. La familia de microprocesadores que utilizan las PC se conoce como familia 80x86, debido a su compatibilidad hacia atrás con el procesador 8086. Tienen la capacidad de manejar una gran cantidad de instrucciones de longitud variable y se conocen como procesadores CISC (Código de conjuntos de instrucciones complejas). Los procesadores RISC (Código de conjunto de instrucciones reducido) tienen una cantidad de instrucciones menor que 100 y todas de una misma longitud (en bits) por lo cual estos procesadores son más rápidos. Los procesadores logran mayores velocidades combinando las dos tecnologías, es decir transforman las instrucciones CISC en instrucciones RISC simples de longitud fija y se ejecutan más rápidamente mediante unidades de ejecución RISC. En cuanto a las empresas fabricantes de procesadores los más conocidos son: __ Intel: Es la marca estándar y los demás son compatibles con Intel. __ AMD: Siempre ha ido por detrás de Intel, aunque a veces le ha superado, sobre todo con su conocido K7 (Athlon). __ Cyrix: Fabrica procesadores para Texas, IBM y Thompson , en la actualidad esta fábrica ha sido adquirida por VIA 4.Overclocking Por Overclocking se conocen una serie de técnicas que permiten forzar los componentes de un sistema informático (de cualquier tipo) para que trabajen a más velocidad de la original. Esto no es magia, es simplemente saber aprovechar ciertos recursos y aceptar el riesgo que ello conlleva. Generalmente se suelen aplicar al microprocesador, pero éste no es el único componente susceptible de ser forzado, todos aquellos dispositivos que lleven un reloj interno o marcador de frecuencia (oscilador de cuarzo) pueden llegar a mayores frecuencias de trabajo que la original. También se aplican estas técnicas a la memoria RAM, tarjeta gráfica, e incluso a tarjetas de sonido, módems, etc. Existe, así mismo, otra técnica contraria llamada Underclocking y se trata de reducir la frecuencia de trabajo, su fin básico es reducir temperaturas, pero puesto que no es el objetivo de este manual, no lo vamos a tratar. El fundamento del Overclocking (OC en adelante) es mejorar algunos, o todos, los parámetros de que depende la frecuencia de trabajo para que ésta aumente; teniendo en cuenta que el rendimiento global no sólo depende de la frecuencia, sino de muchas otras cosas. De nada sirve tener un procesador rapidísimo si el resto de componentes son lentos o de baja calidad (el rendimiento de un sistema se basa en un todo). Estas operaciones conllevan riesgos, el más importante es el aumento de la temperatura y posible quema del procesador, y es algo que debe ser minuciosamente controlado siempre que se realice OC. Más adelante se tratarán con detalle las precauciones. Se recomienda leer dichas precauciones ANTES de modificar nada en el sistema. ¿Por qué es posible aumentar la frecuencia? Este tema es algo complejo y muy relacionado con las estrategias empresariales de los fabricantes; a modo de resumen podríamos decir que el aumento de frecuencia es posible debido a que los microprocesadores se fabrican con una especie de margen de tolerancia en la frecuencia. Siendo así, y dependiendo de la fabricación, podremos forzar más o menos nuestro procesador. En el presente manual vamos a describir el OC únicamente para procesadores, en concreto de Intel® y AMD®, y comentaremos muy por encima el OC de otros dispositivos. Descripciones más complejas serán fruto de futuros manuales. Conceptos sobre la frecuencia La velocidad de trabajo del procesador, o más formalmente llamada frecuencia, mide en cierta medida cuán rápido puede procesar éste las instrucciones. La frecuencia se mide en hertzios (Hz), 1 hertzio es 1 ciclo de “proceso” por segundo, pero hoy en día se emplean múltiplos más elevados como los megahercios (MHz) y gigahercios (GHz) debido a las enormes frecuencias de trabajo que tienen los procesadores modernos. Por ejemplo, un procesador que trabaje a 2.000MHz (2GHz) podrá realizar 2.000.000.000 ciclos / segundo. El procesador obtiene esa frecuencia mediante el producto de 2 factores, la frecuencia del bus frontal (FSB) y un valor multiplicador. El bus frontal es un conjunto de cables que interconectan los dispositivos con el procesador y sirven de “autopista” de la información interna. El multiplicador es un valor implícito que asigna el fabricante. Frecuencia del procesador = FSB * Multiplicador. Ejemplos de varios Multiplicador --> Frecuencia del FSB --> x6.5-->100MHz-->650MHz(PentiumIII) x6.5-->112MHz-->728MHz x6.5-->133MHz-->864,5MHz x20-->100MHz-->2000MHz(2GHz)(Pentium4) x18-->133MHz-->2394MHz(2,4GHz) x18-->200MHz-->3600MHz(3,6GHz) procesadores: Frecuencia del procesador En la tabla anterior se han ilustrado los valores de los factores decisivos en la frecuencia y su producto para obtener la frecuencia final del procesador. Podemos apreciar que, a un mismo multiplicador, y aumentando la frecuencia del FSB, obtenemos frecuencias mayores para un mismo procesador (esa es una de las técnicas, y la vamos a pasar a comentar en el siguiente apartado). Técnicas para implementar las mejoras Una vez vistos algunos conceptos importantes, vamos a pasar a describir cómo aumentar la frecuencia de trabajo. Existen dos maneras que pueden ser aplicadas de manera conjunta o independiente: 1.Aumentar la frecuencia 2.Aumentar el valor del multiplicador. del bus frontal (FSB) 3. Aumentar FSB y multiplicador. Sólo podremos aplicar ambas técnicas a la vez en procesadores AMD (y no en todos los modelos), ya que los Intel Pentium tienen el multiplicador bloqueado de fábrica, y por tanto, únicamente permiten la modificación del FSB. La modificación de ambos parámetros se debe realizar desde la BIOS del sistema, para acceder a ella debemos presionar un botón (generalmente la tecla “Supr”) durante el arranque del ordenador. Una vez dicho esto, queda patente que la calidad de la placa base es decisiva en esta etapa. Si disponemos de una buena placa base, podremos obtener un mayor rendimiento y más posibilidades en el OC. Tecnologías y Marcas Actuales En esta guía veremos que nos conviene más, AMD o Intel para armar o elegir nuestra PC de escritorio. Intel es la compañía Numero 1 en fabricación de Procesadores, ofrece múltiples procesadores, lo mas seguro ya hayas escuchado el nombre "Pentium 4", estos son los procesadores de gama media alta, antes eran de gama alta, pero fueron reemplazados por los Dual-Core (Dos Procesadores en vez de uno), los procesadores Dual-Core son los "Intel Core 2 Duo", "Intel Core Duo" y los "Pentium D". Después vienen los procesadores de gama baja los "Celeron", son como los Pentium 4 pero con menos velocidad y menos caché. Muchos se preguntan que es el "Hyper- Threading", esto es como un "segundo procesador virtual", que usa para tener más rendimiento. (Ojo, el Hyper-Transport de AMD se suele confundir con el "Hyper-Threading de Intel, pero el HyperTransport es un bus de conexión entre procesador y chipset que hace que rinda más). AMD es la compañía Numero 2 en fabricación de procesadores, los procesadores AMD antes eran "Clones" de los Intel, ya que usaban el código de Intel para producir sus procesadores, pero esto ya no sucede más en la actualidad. AMD siempre en sus modelos tienen un numero tal como "2800+", esto significa que rinde igual o mas que su oponente Intel, ojo, esto no significa que el procesador rinda a 2.8 GHz, muchas personas se equivocan con esto. Los procesadores que AMD ofrece en la Actualidad son: "AMD Athlon x2" (Dual Core), Athlon 64 y Sempron. Sucede lo mismo con los Sempron que con los Celeron, los Sempron son parecidos a los Athlon 64 pero con menos velocidad y menos caché. AMD fue la primera compañía en crear procesadores de 64 bits, ya que antes eran todos de 32 bits (los de 32 se siguen vendiendo en la actualidad), estos procesadores son compatibles con los sistemas operativos de 64 Bits, tales como Windows XP 64, Ubuntu 64 bits, etc. AMD la nombró "AMD64" mas adelante Intel "Crearía" las misma tecnología llamándola "EM64T" (Extended Memery 64-bit Technology). Ahora las comparaciones. Athlon 64 x2 Core 2 Duo /Core Duo /Pentium D. Athlon 64 - Pentium 4. Sempron - Celeron. AMD siempre provee procesadores a un mismo o más bajo precio que Intel, pero en rendimiento andan muy parecidos, aunque ahora el procesador más potente en argentina es el Core 2 Duo de Intel. Conclusiones. Si tienes bastante dinero para gastar y quieres potencia a raudales, un Dual Core. Si quieres PC que rinda, un Athlon 64 o un Pentium 4. Si quieres una PC buena, un Sempron o un Celeron. DESCRIBIR LOS BIOS DE UN PC Esta es un pequeña introducción de para qué sirve la BIOS del sistema (para mucha gente, cada vez más desconocida), y al menos que 3 cosillas debemos saber, bien para añadir funcionalidad a nuestro sistema, o bien para solucionar algún problemilla (a veces gordo). Un ordenador, al encenderlo, tiene que empezar a ejecutar un programa. Dicho "mini" programa se conoce con el nombre de BIOS (Basic Input Output System). La BIOS, reside en un chip tipo flash (normalmente). Esto quiere decir que el chip se puede borrar/grabar y por tanto se puede actualizar con nuevas versiones. Esto último es peligroso hacerlo, si no tenemos experiencia. Podemos quedarnos sin PC si falla la actualización. Aunque parezca una tontería, la BIOS, es importantísima en una maquina. Es el unico programa que "sabe" tratar el hardware que tenemos en la placa madre y los dispositivos incorporados en ella. Repito el "UNICO". Esto quiere decir que cualquier Sistema Operativo DEBE apoyarse en los servicios de la BIOS (con matices, pero a nuestro nivel -w98- nos sirve). La BIOS, admite configuración. En función de esa configuración, nuestra maquina funcionará mejor, o "dialogará" mejor con el Sistema Operativo. ¿Cómo se puede configurar? Depende del fabricante de la BIOS. Siempre se puede entrar cuando el PC se está inicializando (contando la memoria), pulsando alguna tecla o combinación de ellas. Las BIOS más extendidas son la AWARD y la AMI. En ellas se puede entrar pulsando la tecla DEL (SUPR) o la tecla ESC cuando está contando la memoria. Una vez dentro nos saldrá un menú. A partir de aquí las pantallas que nos salgan serán diferentes para cada tipo y modelo de BIOS, por lo que voy a describir genéricamente, que se debe buscar y como lo podemos modificar. IMPORTANTE: No tocar lo que no se sabe, podemos hacer que el PC no arranque. Normalmente se pueden cambiar los valores de cada opción, con las teclas de subir y bajar pagina (pero insisto, depende de cada BIOS). Y una cosa importante, todas las BIOS, suelen tener dos opciones por si acaso. Una, "Load BIOS configuration" y otra "Load SETUP configuration", o una cosa similar. La primera de ellas, carga los valores por defecto de la BIOS, es decir los MENOS óptimos, pero que garantizan siempre un arranque. La segunda, carga los valores de SETUP, es decir los valores que por defecto vienen de fabrica y que aunque no estén optimizados del todo, son mejor que los otros. En caso de no querer arrancar nuestra maquina por haber tocado algo incorrectamente, siempre podremos entrar en la BIOS, y restaurar. Bueno y ahora lo importante. Cosas que podemos tocar, y que nos solucionaran problemas o mejorarán el rendimiento. (Las tenemos que buscar en cada PC, ya que no puedo describir las pantallas porque dependen de cada BIOS). Puede ser que no todas las BIOS, soporten lo que voy a describir a continuación. 1. Puerto paralelo (parallel port): normalmente la mejor configuración es dejarlo como EPP/ECP, y en este caso con DMA 3 para evitar posibles conflictos con la tarjeta de sonido. Explico las posibilidades: SPP (single por parallel), lo más sencillo, permite comunicación una sola vía, es la más antigua y encima la peor, además hay impresoras que no funcionaran en ese modo. EPP (enhanced por parallel), ya admite transferencias en ambos sentidos -bidirección al-. Mejor que el anterior. ECP mejor que los anteriores, admite transferencias DMA. Y por fin el mejor EPP/ECP (o ECP/EPP). Contiene todas las mejoras de los anteriores. 2. Power Management (manejo del APM, es el que permite el modo de "espera" o StandBy). Para que el sistema operativo pueda controlar esto, se debe dejar el control de AMP al valor "by user" (por el usuario), o algo así, depende de la BIOS, pero nunca debe tener valores como "none", "Max", "Min"...etc. Además de ponerlo "By user", los timer (si los tuviese) que esten "disabled" o a cero, para que lo controle el sistema operativo. 3. PnP: Plug and Play : PINCHA y LISTO - (y de broma pero en serio, lo le llamo Plug and Pray : PINCHA y REZA). Bien esta es la pantalla más complicada. Vayamos por partes un poquito antes de intentar meterla mano. Quien quiera puede saltarse el siguiente párrafo. Cada dispositivo de la máquina para "llamar" la atención del procesador, debe emitir una interrupción (IRQ - interrupt request). Una interrupción, aunque sea una señal eléctrica, es como decir la procesador "oye niño que estoy aquí...". Bueno, pues el tema es que las interrupciones están limitadas en un PC. Son de la IRQ 0 a la IRQ 15. Pero además muchas de ellas, ya estan asignadas a capón, y no se permite su modificación. Además, el bus ISA, no puede compartir IRQ. El bus PCI, puede compartir, si lo soporta el sistema operativo, IRQs, es decir dos dispositivos pueden llamar la atención del procesador de la misma forma. La BIOS se encarga luego de decirle al procesador, quien era. El cisco, empieza por, Tenemos unas que no se pueden tocar: 0, 1, 2, 6, y 8 (son del sistema) Otras que por convenio son ISA : 3, 4, 7. Por convenio, pueden cambiarse, pero normalmente son para los dos puertos serie y el puerto paralelo. Si tenemos el ratón en puerto de ratón, utiliza la IRQ 12. Otras que aunque sean PCI, también por convenio, están casi reservadas. La 14 y la 15 (primer canal del controlador de disco duro y segundo canal) Nos quedan, la 5, 9, 10, 11. Normalmente la 5 suele ser para la tarjeta de sonido (ISA). Quedan ya únicamente 9, 10, y 11 para el resto de tarjetas del PC. Muy poquitas. Por eso w98 (y w95 OSR2), incorporan un driver que es el encargado de compartir esas IRQ y "enterarse" realmente quien está llamando a la puerta. Después del rollo. Para que nos sirve??? Pues bien, la pantalla PnP, nos deja (normalmente), decir si una IRQ es PCI o ISA. Suele convenir indicarlo en cada IRQ, con lo que hemos comentado anteriormente más la información que nos den de nuestros dispositivos, pero solo si tenemos problemas con algún dispositivo que Windows se niegue a reconocer. El protocolo de reconocimiento del w95 y del w98, es diferente, por lo que dispositivos que se ven en el w95, puede ser que nos den problemas en el w98 y al contrario. Por cierto, Si dicha pantalla, pregunta si nuestro sistema operativo es PnP, y tenemos problemas, decirle que NO. Aunque w98 lo sea busca un protocolo de comunicación con la BIOS (especificaciones MS de routing table), que puede ser que no lo soporte nuestra BIOS TECNOLOGÍAS DE LA INFORMACION Y LA COMUNICACIÓN ¿Qué son las TIC y cuales son sus inicios? Las tecnologías de la información y la comunicación (la unión de los computadores y las comunicaciones) desataron una explosión sin antecedentes de formas de comunicarse al comienzo de los años 90. A partir de ahí, la Internet pasó de ser un instrumento experto de la comunidad científica a ser una red de fácil uso que modificó las pautas de interacción social. Tecnologías de la información y de la comunicación se entiende como un término para designar lo referente a la informática conectada a Internet, y especialmente el aspecto social de éstos. Las nuevas tecnologías de la información y comunicación eligen a la vez un conjunto de innovaciones tecnológicas pero también las herramientas que permiten una redefinición radical del funcionamiento de la sociedad. Las tecnologías de la Información y Comunicación son aquellas herramientas computacionales e informáticas que procesan, almacenan, resumen, recuperan y presentan información representada de la más variada forma. Es un conjunto de herramientas, soportes y canales para el tratamiento y acceso a la información. Constituyen nuevos soportes y canales para dar forma, registrar, almacenar y difundir contenidos informacionales. Algunos ejemplos de estas tecnologías son la pizarra digital (ordenador personal+ proyector multimedia), los blogs, el podcast y, por supuesto la web. Para todo tipo de aplicaciones educativas, las TIC son medios y no fines. Es decir, son herramientas y materiales de construcción que facilitan el aprendizaje, el desarrollo de habilidades y distintas formas de aprender, estilos y ritmos de los aprendices. ¿Cuáles son las ventajas y desventajas de las TIC? Ventajas: *Brindar grandes beneficios y adelantos en salud y educación. *Desarrollar a las personas y actores sociales a través de redes de apoyo e intercambio y lista de discusión. *Apoyar a las personas empresarias, locales para presentar y vender sus productos a través de la Internet. *Permitir el aprendizaje interactivo y la educación a distancia. *Repartir nuevos conocimientos para la empleabilidad que requieren muchas competencias. *Ofrecer nuevas formas de trabajo, como teletrabajo *Dar acceso a la salida de conocimientos e información para mejorar las vidas de las personas. *Facilidades *Exactitud *Menores riesgos Menores costos Desventajas: *Falta de privacidad *Aislamiento *Fraude *Pérdida los puestos de trabajo ¿Cuáles son las características de las TIC? *Son de carácter innovador y creativo, pues dan acceso ha nuevas formas de comunicación. *Tienen mayor dominio y beneficia en mayor proporción al área educativa ya que la hace más accesible y dinámica. *Son considerados temas de debate público y político, pues su utilización implica un futuro prometedor. *Se relacionan con mayor frecuencia con el uso de la Internet y la informática. *Afectan a numerosos ámbitos de la ciencia humana como la sociología, la teoría de las organizaciones o la gestión. *En América Latina se destacan con su utilización en las universidades e instituciones. *Resultan un gran alivio económico a largo plazo. Aunque en el tiempo de ganancia resulte una fuerte inversión. *Constituyen medios de comunicación y ganancia de información de toda variedad, inclusive científica, a los cuales las personas pueden acceder por sus propios medios, es decir potencian la educación a distancia en la cual es casi una necesidad del alumno poder llegar a toda la información posible. Describir Grafica Y Teóricamente Al Modem Módem: Es un aparato que permite a los PC intercambiar datos por las líneas telefónicas. Es el dispositivo que se usa para navegar por Internet. También sirve para enviar y recibir faxes desde el PC (por ello algunos lo llaman fax-módem). La forma corriente de conectarse con Internet es a través del teléfono, por lo tanto se necesitará de uno. Hay módem de todas las formas y tamaños. Algunos son una cajita separada y se conocen como módems externos, con cables que se conectan al computador y a la línea telefónica. Algunos otros se encuentran dentro del computador con un sólo cable para el teléfono; los más nuevos son pequeños objetos del tamaño de una tarjeta de crédito que se insertan en la tarjeta madre. Además de la variedad de tamaños físicos, hay también una enorme variedad de características internas. La velocidad en la cual opera un módem (es decir, la velocidad a la cual puede transferir información del computador en la línea telefónica) va desde unos 2.400 bits por segundo, ya obsoleto hoy, hasta los 56 kilobits y algunas velocidades mayores si la conexión se realiza mediante cable (fibra óptica) o satelital. Al comprar un módem es importante que escoja uno compatible con el estándar V.90. Inicialmente, los módem de 56 kbps hacían parte de dos bandos: los que usaban la tecnología k56 flex y los que empleaban X2; V90 es un estándar que acabó con esa rivalidad. ¿Para qué se utiliza un módem? Un módem es un periférico utilizado para transferir información entre varios equipos a través de un medio de transmisión por cable (por ejemplo las líneas telefónicas). Los equipos funcionan digitalmente con un lenguaje binario (una serie de ceros y unos), pero los módem son analógicos. Las señales digitales pasan de un valor a otro. No hay punto medio o a mitad de camino. Es un "todo o nada" (uno o cero). Por otra parte, las señales analógicas no evolucionan "paso a paso" sino en forma continua. Por ejemplo, un piano funciona más o menos de manera digital ya que no existen "pasos" entre las notas. Por el contrario, un violín puede modular sus notas para pasar por todas las frecuencias posibles. Un equipo funciona como un piano y un módem como un violín. El módem convierte la información binaria de un equipo en información analógica para modularla a través de la línea telefónica que utiliza. Puede escuchar ruidos extraños si sube el sonido del módem. Por lo tanto, un módem modula información digital en ondas analógicas. En la dirección opuesta, demodula datos analógicos para convertirlos en datos digitales. La palabra "módem" es la sigla de "MOdulador/DEModulador". La velocidad de transmisión del módem se expresa generalmente en baudios, en honor a Emile Baudot (11 septiembre de 1845 - 28 marzo de 1903), un famoso ingeniero francés que trabajó en el área de las telecomunicaciones. Esta unidad de velocidad de transmisión caracteriza la frecuencia de (de)modulación, es decir, la cantidad de veces que el módem hace que la señal cambie de estado por segundo. Por lo tanto, el ancho de banda en baudios no es igual al ancho de banda en bits por segundo porque el cambio de estado de señal puede ser necesario para codificar un bit. Estándares de comunicación Al proliferar los módem, aumentó la necesidad de protocolos estandarizados para la comunicación por módem, para que todos los protocolos pudieran utilizar un lenguaje en común. Ésta es la razón por la que dos organizaciones desarrollaron estándares de comunicación: Los laboratorios BELL, precursores en el área de las telecomunicaciones. El Comité Consultivo Internacional Telefónico y Telegráfico (CCITT), conocido desde 1990 como la Unión Internacional de Telecomunicaciones (UIT). El objetivo de la ITU es definir estándares internacionales para las comunicaciones. Los estándares para módem pueden dividirse en 3 categorías: Estándares de modulación (por ejemplo CCITT V.21) Estándares de corrección de error (por ejemplo CCITT V.42) Estándares de compresión de datos (por ejemplo CCITT V.42bis) Módem interno Dispone de conexiones a la placa base, a la línea telefónica y a un teléfono. Hablar de las generalidades y/o historia del teclado y monitor. Introducción al teclado El teclado, como en las máquinas de escribir, permite la introducción de caracteres (como letras, números y símbolos). Es un dispositivo de entrada esencial para un equipo, ya que es lo que permite ingresar comandos. El término "QWERTY" (por las primeras seis letras del teclado) se refiere al tipo de teclado que se utiliza en casi todos los equipos del mundo de habla inglesa. En otros países, los diseños de los teclados son diferentes. El teclado Qwerty fue diseñado en 1868 en Milwaukee por Christopher Latham Sholes, quien colocó las teclas correspondientes a los pares de letras utilizados con más frecuencia (en la lengua inglesa) en extremos opuestos del teclado buscando, de esta manera, evitar que los martillos de las máquinas de escribir de la época se atoraran entre sí como era habitual. En 1873 la compañía Remington fue la primera en vender este teclado. Por lo tanto, el teclado Qwerty fue diseñado desde una perspectiva puramente técnica, lo que obstaculizó su funcionalidad y eficiencia. Se dice que la ubicación de las teclas a lo largo de la primera fila del teclado Qwerty fue impulsada por los comerciantes de máquinas de escribir de la época, que deseaban que todas las teclas necesarias para escribir la palabra"typewriter" (máquina de escribir) estuvieran ubicadas convenientemente a la hora de realizar una demostración del producto. En 1936, August Dvorak (profesor de la Universidad de Washington) diseñó un teclado cuyas teclas estaban dispuestas exclusivamente teniendo en cuenta la eficiencia. En el teclado Dvorak, todas las vocales del alfabeto y las cinco consonantes más comunes se encontraran en la fila central para poder acceder a ellas con mayor facilidad y, a la vez, distribuir uniformemente, el trabajo entre la mano derecha y la mano izquierda. Además, las letras más frecuentes del alfabeto se ubicaron en el centro del teclado. Diferentes estudios han demostrado que la eficiencia mejorada del teclado Dvorak resultó insuficiente en la práctica y que el esfuerzo necesario para pasar del teclado Qwerty al Dvorak resultaba demasiado exigente como para que valiera la pena, lo que explica por qué todos los equipos de hoy en día aún tienen teclados Qwerty. Conector de teclado Los teclados generalmente suelen conectarse a la parte trasera del CPU, en la placa madre, con un conector PS/2: Cómo funciona Cada vez que se presiona una tecla, una señal específica se transmite al equipo. El teclado a su vez, utiliza una red de barras cruzadas para identificar cada tecla en función de su fila y columna Al presionarse una tecla, se produce un contacto eléctrico entre la fila y la columna. Las señales eléctricas son transmitidas a un microcontrolador, que envía un código (BCD, ASCII o Unicode) al equipo describiendo el carácter que corresponde a dicha tecla. Tipos de teclados Existen cuatro tipos de teclados para PC. Los primeros tres fueron inventados por IBM, mientras que el último es el resultado de cambios realizados junto con el lanzamiento de Microsoft Windows 95. Los cuatro tipos de teclados son: El teclado de 83 teclas (PC/XT) El teclado de 84 teclas (PC/AT) El teclado de 102 teclas, llamado teclado extendido El teclado de 105 teclas es compatible con Microsoft Windows 95. Teclados PC/XT Este fue el primer teclado para PC y, a diferencia de los otros equipos de la época (como Apple II y Amiga), cuyos teclados estaban integrados, lo inusual era que estaba separado del equipo. Este teclado incluía 83 teclas, pero fue criticado por la disposición de las teclas y su tamaño desproporcionado (especialmente las teclas de Mayús y Aceptar, que resultaban demasiado pequeñas y estaban mal ubicadas). Además, la comunicación entre el teclado y el CPU era unidireccional, lo que significaba que el teclado no podía incluir un indicador LED. Teclados PC/AT El teclado PC/AT, que tenía 84 teclas, fue lanzado para el equipo PC/AT en 1984. Este teclado corrigió los errores de sus antecesores, modificando fundamentalmente el tamaño de las teclas Mayús y Aceptar. Además, el teclado era bidireccional, lo que le permitía mostrar su estado mediante luces indicadoras LED. Finalmente, la placa madre en el PC/AT incluía un controlador que permitía ajustar la configuración: La frecuencia de repetición (el número de caracteres enviados por segundo cuando se liberaba una tecla) Demora de repetición: El tiempo antes de que un equipo considerara que se había liberado una tecla, para distinguir entre escribir un único carácter y mantener una tecla presionada Teclados extendidos Los nuevos equipos compatibles con IBM lanzados en 1986 tenían un teclado de 102 teclas. Este nuevo teclado incluía distintos bloques de teclas: A partir de ese modelo, las teclas de funciones se desplazaron a la parte superior del teclado y se agregaron teclas de control del cursor, representadas por flechas. Teclados compatibles con Microsoft Windows Microsoft ha definido tres teclas nuevas, que se usan para accesos directos a ciertas características de Windows. Estas tres teclas nuevas son, de izquierda a derecha: La tecla Windows izquierda La tecla Windows derecha La tecla de Aplicación Historia de los monitores El monitor es el principal periférico de salida de una computadora. Estos se conectan a través de una tarjeta gráfica conocida con el nombre de adaptador o tarjeta de vídeo. La imagen que podemos observar en los monitores está formada por una matriz de puntos de luz. Cada punto de luz reflejado en la pantalla es denominado como un píxel. Clasificación según estándares de monitores Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la calidad de las imágenes. Monitores MDA: Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos. Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creaba irritación en los ojos de sus usuarios. Características: *Sin modo gráfico. * Resolución 720_350 píxeles. * Soporte de texto monocromático. * No soporta gráfico ni colores. * La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB. *Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos Monitor CGA: Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM. A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fue el primero en contener sistema gráfico a color. Características: *Resoluciones 160_200, 320×200, 640×200 píxeles. *Soporte de gráfico a color. *Diseñado principalmente para juegos de computadoras. *La tarjeta gráfica contenía 16 KB de memoria de vídeo. Monitor EGA: Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución. EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por un monitor de mayores características. Características: *Resolución de 640_350 píxeles. *Soporte para 16 colores. *La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo Monitor VGA: Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones. Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas. Características: *Soporte de 720×400 píxeles en modo texto. *Soporte de 640×480 píxeles en modo gráfico con 16 colores. *Soporte de 320×200 píxeles en modo gráfico con 256 colores. * Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo. Monitor SVGA: SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA. SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones. Características: *Resolución de 800×600, 1024_768 píxeles y superiores. * Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros. Clasificación según tecnología de monitores En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado. Monitores CRT: Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun. Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan. Funcionamiento: Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla. Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo. Ventajas: *Excelente calidad de imagen (definición, contraste, luminosidad). *Económico. *Tecnología robusta. *Resolución de alta calidad. Desventajas: *Presenta parpadeo por el refrescado de imagen. *Consumo de energía. *Generación de calor. *Generación de radiaciones eléctricas y magnéticas. *Alto peso y tamaño. Pantallas LCD: A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning. Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros. Funcionamiento: El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las propiedades de sólidos y líquidos a la vez. Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente eléctrica que cambie su polarización dejando pasar la luz o no. Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo, verde y azul. Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se aplica a los filtros. Ventajas: *Poco peso y tamaño. *Buena calidad de colores. *No contiene parpadeo. *Poco consume de energía. *Poca generación de calor. *No genera radiaciones eléctricas y magnéticas. Desventajas: *Alto costo. *Angulo limitado de visibilidad. *Brillo limitado. *Bajo tiempo de respuesta de píxeles. *Contienemercurio. Pantallas Plasma: La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow. Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad. Funcionamiento: El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado. Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma. El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible. Ventajas: *Excelente brillo. *Alta resolución. *Amplio ángulo de visión. *No contiene mercurio. *Tamaño de pantalla elevado. Desventajas: *Vida útil corta. Coste de fabricación elevado, superior a los LCD. *Consumo de electricidad elevado. *Poca pureza del color. *Consumo energético y emisión de calor elevada. Qué es la resolución de pantalla? Se denomina al número de píxeles (o máxima resolución de imagen) que puede ser mostrada en la pantalla. Viene dada por el producto de las columnas (”X”), el cual se coloca al principio y el número de filas (”Y”) con el que se obtiene una razón.