CURSO TÉCNICO EN MANTENIMIENTO DE COMPUTADORES OBJETIVO El curso de mantenimiento de computadores dará competencias al estudiante para diagnosticar y encontrar soluciones eficaces ante los diversos problemas que se presentan en los PCS, así mismo el estudiante podrá dar un mantenimiento preventivo a cualquier PC. DIRIGIDO A A todas aquellas personas que deseen profundizar en sus conocimientos o requieran adquirirlos. METODOLOGÍA Las clases serán presénciales y se trabajara con ayudas audiovisuales como video beam y retroproyectores. Los ejemplos se realizan con base en casos reales. Se realizaran practicas con equipos DURACIÓN El curso mantenimiento de computadores tiene una duración de 40 Horas presénciales incluyendo practicas. PLAN DE ESTUDIOS Para el Curso de mantenimiento de computadores se contemplan Siete (7) módulos detallados a continuación Modulo I: Fundamentación. Historia de los computadores Funcionamiento del PC Conceptos Sistema operativo Interrupciones DMA Dispositivos I/O BIOS Puertos: Seriales, USB, Paralelos Modulo II: MAINBOARDS BIOS. Tipos de BIOS. CHIP SET. Sockets de Procesadores. Configuración Setup. Slots y Configuración de Frecuencias de Voltajes. Modulo III: PROCESADORES Tipos de procesadores. Características principales. Arquitectura. Modulo IV: Tipos de Buses del Sistema. ISA. PCI. MICROCHANNEL. VESA LOCAL BUS. EISA. Modulo V: MEMORIAS Tipos de memoria. Características principales. Configuración y compatibilidad Modulo VI Unidades de Drive. Discos duros. Unidades de CD. Unidades de CD W y CD RW. Unidades DVD. Unidades ZIP. Unidades de cinta. Otras unidades de almacenamiento masivo. Modulo VII DETECCIÓN Y CORRECCIÓN DE FALLAS COMUNES Pasos iniciales. Fallas de disco duro. Fallas de memoria. Fallas de video. Fallas de main borrad. Daños en teclados. Daños en Mouse virus informáticos. HERRAMIENTAS DE DIAGNOSTICO Y RECUPERACION Disk manager. INSTALACION Y CORRECCIÓN DEL SISTEMA OPERATIVO Partición del disco duro Configuración de dispositivos . ENSAMBLAJE Y PUESTA EN OPERACION DE PCs MODULO I HISTORIA Las primeras máquinas En el siglo XVII el famoso matemático escocés John Napier, distinguido por la invención de los logaritmos, desarrolló un ingenioso dispositivo mecánico que utilizando unos palitos con números impresos permitía realizar operaciones de multiplicación y división. En 1642, el matemático francés Blaise Pascal construyó la primera calculadora mecánica. Utilizando una serie de piñones, la calculadora de Pascal sumaba y restaba. A finales del siglo XVII el alemán Gottfried Von Leibnitz perfeccionó la máquina de Pascal al construir una calculadora que mecánicamente multiplicaba, dividía y sacaba raíz cuadrada. Propuso desde aquella época una máquina calculadora que utilizara el sistema binario. A mediados del siglo XIX, el profesor inglés Charles Babbage diseñó su "Máquina Analítica" e inclusive construyó un pequeño modelo de ella. La tragedia histórica radica en que no pudo elaborar la máquina porque la construcción de las piezas era de precisión muy exigente para la tecnología de la época. Babbage se adelantó casi un siglo a los acontecimientos. Su Máquina Analítica debía tener una entrada de datos por medio de tarjetas perforadas, un almacén para conservar los datos, una unidad aritmética y la unidad de salida. Desde la muerte de Babbage, en 1871, fue muy lento el progreso. Se desarrollaron las calculadoras mecánicas y las tarjetas perforadas por Joseph Marie Jacquard para utilizar en los telares, posteriormente Hollerith las utilizó para la "máquina censadora", pero fue en 1944 cuando se dio un paso firme hacia el computador de hoy. La Era Electrónica En la Universidad de Harvard, en 1944, un equipo dirigido por el profesor Howard Aiken y patrocinado por la IBM construyó la Mark I, primera calculadora automática. En lugar de usar piñones mecánicos, Mark I era un computador electromecánico: utilizaba relevadores electromagnéticos y contadores mecánicos. Sólo dos años más tarde, en 1946, se construyó en la Escuela Moore, dirigida por Mauchly y financiada por el Ejército de los Estados Unidos, la ENIAC (Electronic Numerical Integrator and Calculator), la cual podía ejecutar multiplicaciones en 3 milésimas de segundo (Mark I tardaba 3 segundos). Sin embargo, las instrucciones de ENIAC debían ser dadas por medio de una combinación de contactos externos, ya que no tenía cómo almacenarlas internamente. A mediados de los años 40 el matemático de Princeton John Von Neumann diseñó las bases para un programa almacenable por medio de codificaciones electrónicas. Esta capacidad de almacenar instrucciones es un factor definitivo que separa la calculadora del computador. Además propuso la aritmética binaria codificada, lo que significaba sencillez en el diseño de los circuitos para realizar este trabajo. Simultáneamente se construyeron dos computadores: el EDVAC (Electronic Discrete Variable Automatic Computer) y en 1949 en la Universidad de Cambridge el EDSAC (Electronic Delay Storage Automatic Computer), que fue realmente la primera computadora electrónica con programa almacenado. En 1951 John W. Mauchly y J. Presper Eckert Jr. construyen el UNIVAC I, el primer computador para el tratamiento de información comercial y contable. UNIVAC (Universal Automatic Computer) reemplazó el objetivo de sus antecesoras que era científico y militar, abriendo paso a la comercialización de los computadores; aquí se inician las generaciones de computadores. Las Generaciones de los Computadores A partir de ese momento, la evolución de los computadores ha sido realmente sorprendente. El objetivo inicial fue el de construir equipos más rápidos, más exactos, más pequeños y más económicos. Este desarrollo se ha clasificado por "generaciones de computadores", así: Primera generación de computadores 1950 - 1958 En esta generación nace la industria de los computadores. El trabajo del ENIAC, del EDVAC, del EDSAC y demás computadores desarrollados en la década de los 40 había sido básicamente experimental. Se habían utilizado con fines científicos pero era evidente que su uso podía desarrollarse en muchas áreas. La primera generación es la de los tubos al vacío. Eran máquinas muy grandes y pesadas con muchas limitaciones. El tubo al vacío es un elemento que presenta gran consumo de energía, poca duración y disipación de mucho calor. Era necesario resolver estos problemas. UNIVAC I fue adquirido por el Census Bureau de los Estados Unidos para realizar el censo de 1951. IBM perdió este contrato porque sus máquinas de tarjetas perforadas fueron desplazadas por el computador. Fue desde ese momento que la IBM empezó a ser una fuerza activa en la industria de los computadores. En 1953 IBM lanzó su computador IBM 650, una máquina mediana para aplicaciones comerciales. Inicialmente pensó fabricar 50, pero el éxito de la máquina los llevó a vender más de mil unidades. Segunda generación 1959 - 1964 En 1947 tres científicos: W. Shockley, J. Bardeen y H.W. Brattain, trabajando en los laboratorios Bell, recibieron el premio Nobel por inventar el transistor. Este invento nos lleva a la segunda generación de computadores. El transistor es mucho más pequeño que el tubo al vacío, consume menos energía y genera poco calor. La utilización del transistor en la industria de la computación conduce a grandes cambios y una notable reducción de tamaño y peso. En esta generación aumenta la capacidad de memoria, se agilizan los medios de entrada y salida, aumentan la velocidad y programación de alto nivel como el Cobol y el Fortran. Entre los principales fabricantes se encontraban IBM, Sperry - Rand, Burroughs, General Electric, Control Data y Honeywell. Se estima que en esta generación el número de computadores en los Estados Unidos pasó de 2.500 a 18.000. Tercera generación 1965 - 1971 El cambio de generación se presenta con la fabricación de un nuevo componente electrónico: el circuito integrado. Incorporado inicialmente por IBM, que lo bautizó SLT (Solid Logic Technology). Esta tecnología permitía almacenar los componentes electrónicos que hacen un circuito en pequeñas pastillas, que contienen gran cantidad de transistores y otros componentes discretos. Abril 7 de 1964 es una de las fechas importantes en la historia de la computación. IBM presentó el sistema IBM System/360, el cual consistía en una familia de 6 computadores, compatibles entre sí, con 40 diferentes unidades periféricas de entrada, salida y almacenaje. Este sistema fue el primero de la tercera generación de computadores. Su tecnología de circuitos integrados era mucho más confiable que la anterior, mejoró además la velocidad de procesamiento y permitió la fabricación masiva de estos componentes a bajos costos. Otro factor de importancia que surge en esta tercera generación es el sistema de procesamiento multiusuario. En 1964 el doctor John Kemeny, profesor de matemáticas del Darmouth College, desarrolló un software para procesamiento multiusuario. El sistema Time Sharing (tiempo compartido) convirtió el procesamiento de datos en una actividad interactiva. El doctor Kemeny también desarrolló un lenguaje de tercera generación llamado BASIC. Como consecuencia de estos desarrollos nace la industria del software y surgen los minicomputadores y los terminales remotos, aparecen las memorias electrónicas basadas en semiconductores con mayor capacidad de almacenamiento. Cuarta generación 1972 - ? Después de los cambios tan específicos y marcados de las generaciones anteriores, los desarrollos tecnológicos posteriores, a pesar de haber sido muy significativos, no son tan claramente identificables. En la década del 70 empieza a utilizarse la técnica LSI (Large Scale Integration) Integración a Gran Escala. Si en 1965 en un "chip" cuadrado de aproximadamente 0.5 centímetros de lado podía almacenarse hasta 1.000 elementos de un circuito, en 1970 con la técnica LSI podía almacenarse 150.000. Algunos investigadores opinan que esta generación se inicia con la introducción del sistema IBM System/370 basado en LSI. Otros dicen que la microtecnología es en realidad el factor determinante de esta cuarta generación. En 1971 se logra implementar en un chip todos los componentes de la Unidad Central de Procesamiento fabricándose así un microprocesador, el cual a vez dio origen a los microcomputadores. Algunas características de esta generación de microelectrónica y microcomputadores son también: incremento notable en la velocidad de procesamiento y en las memorias; reducción de tamaño, diseño modular y compatibilidad entre diferentes marcas; amplio desarrollo del uso del minicomputador; fabricación de software especializado para muchas áreas y desarrollo masivo del microcomputador y los computadores domésticos CONCLUSIONES: En el caso del Hardware, las generaciones han sido marcadas por grandes avances en los componentes utilizados, pasando de válvulas ( primera generación ) a transistores ( segunda generación ), a circuitos integrados ( tercera generación), a circuitos integrados de gran y muy gran escala (cuarta generación). Cada generación Sucesiva de hardware ha ido acompañada de reducciones substanciales en los costos, tamaño, emisión de calor y consumo de energía, y por incrementos notables en velocidad y capacidad. Según la "Ley de Moore" el número de transistores por microprocesador se duplica cada 18 meses. Se ha cumplido en los últimos 30 años y se prevé se cumpla durante los próximos 20 años. Modelo Fecha Velocidad de reloj Ancho de bus interno 4004 15/11/1971 108 Khz 4 bits 8008 1/4/1972 108 Khz 8 bits 8080 1/4/1974 2 Mhz 8 bits 8088 8/6/1978 5-8 Mhz 8 bits 8086 1/6/1979 5-10 Mhz 16 bits 80286 1/2/1982 8-12 Mhz 16 bits 80386 SX 17/10/1985 16-33 Mhz 16 bits 80386 DX 16/6/1988 16-20 Mhz 32 bits 80486 SX 10/4/1989 16-33 Mhz 32 bits 80486 DX 22/4/1991 25-50Mhz 32 bits PENTIUM 22/3/1993 60-200 Mhz 32 bits PENTIUM PRO 27/3/1995 150-200 Mhz 64 bits PENTIUM II 7/5/1997 233-300 Mhz 64 bits PENTIUM III 7/5/1999 > 400 Mhz 64 bits FUNCIONAMIENTO DEL PC Principio Básico de como Funiona un Ordenador En los años 1950 se usó el término CPU (Central Processing Unit) para referirse a una caja que contenía circuitos con válvulas electrónicas para procesador datos. Actualmente esta función se ha logrado implementar en un solo chip o pastilla de material semiconductor, denominado microprocesador. Aunque ninguna máquina es realmente inteligente en el sentido de que pueda pensar y decidir, se dice que el microprocesador es la parte inteligente del computador, porque compara resultados de operaciones y toma por caminos previstos por el programador. El microprocesador lee las instrucciones de los programas que están cargados en la memoria y las va procesando de una en una a muy alta velocidad, haciendo las operaciones aritméticas y lógicas que se requieran. De las operaciones con cifras decimales, denominadas de punto flotante, se encarga una sección llamada coprocesador matemático. Las CPUs se pueden dividir en dos categorías: las de un solo voltaje de alimentación, o single voltage, como las Pentium 6x86 y las AMD K5, que utilizan 3,5V para el núcleo (core voltage) y para los circuitos de entrada y salida (I/O voltage), y las que requieren dos voltajes distintos (dual-voltage), como las Pentium MMX, los cuales se configuran en el motherboard mediante puentes removibles. El bus para manejar los datos internos también se puede ajustar para operar a una velocidad comprendida entre 60 y 100 MHz. Lo uno y lo otro dependen del fabricante y la referencia de la CPU. La relación que hay entre la velocidad de la CPU y la velocidad de su bus, se llama CPU to Bus Frequency Ratio. El usuario del computador maneja textos, cifras decimales y programas con caracteres alfanuméricos diversos, pero debido a que los circuitos internos de la máquina funcionan con impulsos de corriente eléctrica de sólo dos niveles de voltaje, deben convertir tales caracteres a un sistema binario equivalente, en el que el nivel bajo usualmente equivale al cero (0) y el nivel alto representa al uno (1). El 0 y el 1 se llaman dígitos binarios, pero se acostumbra más llamarlos bits, una abreviatura de binary digits. Con una combinación de 8 unos y ceros —8 bits—, denominada byte, se puede representar cualquier letra o signo del alfabeto. Y puesto que es posible hacer hasta 256 combinaciones distintas, ello quiere decir que se pueden representar hasta 256 caracteres. Por ejemplo, la frase MANUAL DEL USUARIO requiere 18 bytes —18 caracteres—, ya que los espacios en blanco también se cuentan. Tales espacios son los que eliminan los programas compresores de archivos para ahorrar espacio en el disco. Los chips de memoria son circuitos electrónicos que tienen miles o millones de celdas que permiten retener temporalmente cargas eléctricas. La presencia de una carga eléctrica en la celda equivale a tener memorizado o escrito un 1 binario, y la ausencia equivale a tener un 0. Por ser el bit una unidad muy pequeña para uso práctico, la memoria se organiza en bancos o hileras de chips que permitan retener kilobytes (miles de grupos de ocho bits) o megabytes (millones de grupos de ocho bits). Para ubicar y poder encontrar posteriormente cada uno de los bytes de datos escritos en la memoria, a cada celda o posición de memoria se le asigna una dirección que la identifique. La memoria se puede usar para grabar programas o información, como en el caso de la memoria ROM, los discos CD-ROM, el disco duro o los diskettes, o se puede usar para retener y manipular temporalmente los datos, tal como ocurre con la memoria RAM y la memoria caché. Se denomina RAM a la memoria que, a manera de un cuaderno de borrador, retiene temporalmente información, instrucciones de programas y resultados parciales de operaciones de la CPU. Su nombre es el acrónimo de Random Access Memory, que significa "memoria de acceso directo a cualquiera de las posiciones". Existen varios tipos de memoria RAM, pero los más usuales son la DRAM, la SRAM (o caché), la FPM y la EDO. Cargar un programa es leerlo total o parcialmente de la unidad de almacenamiento (disco, cinta magnética o lector de CD-ROM) y grabarlo en la memoria RAM, para ejecutarlo de manera más eficiente. Para entender el funcionamiento de la memoria, imagina que hemos dibujado algo que ha de ser visto desde un lugar alto, y lo hicimos colocando en el piso del salón miles de copitas vacías y llenas con agua coloreada. Imagina también que el material de las copitas es poroso, y el agua se derrama lentamente. Si queremos conservar en buen estado el dibujo, entonces, periódicamente, a intervalos de tiempo, tendremos que cerrar al público las puertas del salón para proceder a rellenar cada una de las copitas antes de que su agua se seque. Claro que existe otra opción mejor: cambiar las copitas por otras de mejor calidad, que no requieran refrescamiento de la información, pero eso implica invertir más dinero. Existen dispositivos o circuitos integrados —chips— que hacen las veces de las copitas del ejemplo, pero en vez de agua almacenan electrones (carga eléctrica). Unos pueden ser los denominados condensadores eléctricos, que presentan usualmente fugas de corriente a través del material aislante, y otros pueden ser los circuitos flip-flops de enclavamiento, que actúan como interruptores de encendido y apagado. Según el tipo de elemento empleado para retener las cargas, algunos tipos de circuitos integrados de memoria RAM pueden necesitar refrescamiento de los datos almacenados en sus celdas. Se llama DRAM (Dynamic RAM) a los chips de memoria que necesitan interrumpir periódicamente la tarea de la CPU para solicitar el refrescamiento (refresh) de las celdas que tienen datos. Esta memoria dinámica es la que más se utiliza en los computadores como memoria principal (memoria de trabajo). Algunos fabricantes de computadores utilizan una placa madre (motherboard) que permite la colocación de cierta cantidad de memoria RAM estática (SRAM), también llamada memoria caché, implementada con circuitos integrados que no necesitan refrescamiento, lo cual permite que la CPU trabaje de manera más eficiente, dedicando todo el tiempo al proceso de los programas. El circuito del sistema está diseñado de tal manera que la CPU trata de usar al máximo la memoria caché, y lo que desborde su capacidad se trabaja en la RAM convencional. La memoria EDO (Extended Data Output), también conocida como EDO DRAM o EDO RAM, es una RAM dinámica con salida de datos optimizada para uso en computadores con procesador Pentium. Acelera los accesos a ubicaciones consecutivas en la memoria, asumiendo que la siguiente operación de lectura o escritura tendrá como objetivo una dirección en la misma fila de transistores que el acceso anterior. Pone los datos en la salida del chip de tal forma que puedan ser leídos incluso al mismo tiempo en que las entradas cambian a la siguiente posición en la memoria. La memoria EDO RAM reduce los tiempos de acceso al banco de memoria en un promedio de 10% en comparación con los chips de memoria DRAM, y su fabricación es tan solo un poco más costosa. En muchos sistemas modernos se está usando para reemplazar a la memoria DRAM convencional. Entre las ventajas de la memoria EDO DRAM, están las siguientes: 1. Es más corto el ciclo de modo de página, y más rápida la transmisión de datos. 2. Rompe la limitación del acceso convencional temporizado por el sistema. 3. Su modo de página reduce la carga global del sistema. 4. El desempeño es un 5% mejor que el de la memoria FPDRAM para un sistema con caché de nivel 2. El banco de memoria RAM en los primeros computadores personales estaba formado por filas de chips insertados en la placa principal. En una fila se usaban 8 chips para los datos propiamente dichos y un noveno para control de paridad, un método para detección de errores en el proceso de la grabación o lectura de los datos. Al llegar programas más complejos, con exigencia de más memoria, los fabricantes debieron recurrir al empleo de barras o módulos de memoria con bancos de chips. Las primeras barras tenían capacidad para 256 KB. Los computadores actuales tienen de 2 a 4 zócalos para inserción de barras de memoria SIMM (72 pines) o DIMM (168 pines), tipo FPM (Fast Page Mode) o EDO (Extended Data Output), usualmente con capacidad para 16 MB, 32 MB, 64 MB, 128 MB ó 256 MB. Además de la memoria RAM, o memoria de trabajo, en la que se pueden escribir, leer y borrar datos, existe un tipo de memoria electrónica que usualmente se graba una sola vez y no se vuelve a modificar ni borrar. ¿Recuerdas la cajita de música, aquella que funcionaba con cuerda y que tocaba esa melodía que tanto te gustaba cuando eras niño o niña? Todavía se consigue como parte de juguetes móviles para bebé y cofrecillos joyeros. Es un mecanismo formado por un cilindro cubierto por unos botoncitos o clavitos de acero ubicados convenientemente, de modo que al girar lentamente el cilindro pulsan las lengüetas de un peine metálico templado y afinado para dar las notas musicales. A mayor cantidad de clavitos en el cilindro, mayor es el repertorio de combinación de las notas. La cajita de música se comporta como una memoria mecánica para lectura solamente, ya que no puede ser regrabada. En inglés se dice que es una Read Only Memory y se identifica con el acrónimo ROM. La canción ha sido escrita en forma digital en el cilindro por el fabricante. Para almacenar códigos de texto y de video, además de música, sería necesario un cilindro con millones de clavitos pulsadores y un sensor lector apropiado. En la práctica, en vez del cilindro se utilizan medios magnéticos, ópticos y electrónicos que soportan mayor cantidad de elementos de información (equivalentes también a los clavitos de la cajita, aunque de otro estilo). Si el medio es magnético, como en las unidades de cinta y algunos discos, los clavitos son reemplazados por grupitos de imanes muy pequeños inducidos en la superficie mediante un electroimán llamado cabeza de lectura/escritura (R/W head). Si el medio es óptico, como en los discos compactos digitales (CD), en vez de clavitos se utilizan pistas de millones de microscópicos hoyitos —pits— o quemones, los cuales hacen pulsar el reflejo de un rayo de luz láser que hace las veces de las lengüetas lectoras de la cajita de música. Si el medio es electrónico, los clavitos se representan por miles o millones de interruptores o celdas que pueden retener electricidad (electrones con cierto voltaje o presión). La memoria ROM (Read Only Memory) o de sólo lectura se usa para almacenar programas o datos que tienen que ver con el diseño del sistema principal, o con alguna de sus partes, tal como la tarjeta de video VGA (maneja lo que tiene que ver con la imagen), la tarjeta controladora de las unidades de disco, la tarjeta de sonido, etc. Algunos chips de memoria ROM, los EE-ROM, se pueden borrar mediante señales eléctricas. Otros, los EPROM, se pueden borrar iluminando con luz ultravioleta la pastilla del semiconductor a través de una ventanilla que tienen en la parte superior del encapsulado. Por lo general, los datos escritos en una memoria ROM permanecen intactos aunque falle el suministro de corriente eléctrica, o el usuario se equivoque en el manejo del computador. Lo que hace funcionar a un computador, son los programas o juegos de instrucciones que la CPU debe interpretar y ejecutar. A tales instrucciones se les llama software, un nombre genérico que significa blando, flexible, porque originalmente se graban en un disco y son susceptibles de modificaciones. Hacer que un computador comience a funcionar y se mantenga funcionando es más fácil cuando parte del software está grabado de manera permanente en una memoria ROM en el interior del computador, y no en un disco. A los programas grabados en ROM se les llama firmware, que significa duro, inflexible, que no se puede modificar. La memoria ROM se usa para grabar las rutinas de inicio, el POST y los programas del BIOS. Las rutinas de inicio son los programas encargados de supervisar de manera automática la puesta en marcha del computador cuando es encendido. Verifican la memoria RAM instalada, comprueban los dispositivos periféricos instalados, y sincronizan y ponen en posición de inicio (reset) los chips del sistema. Por último, el BIOS busca y ejecuta en las unidades de disco duro, de diskette o de CD, los archivos de arranque del sistema operativo. Si el computador no tiene disco, cosa poco corriente hoy día, los programas de arranque de la ROM principal buscan una memoria Boot ROM secundaria que tenga grabados los archivos de inicio del sistema. A las pruebas automáticas de la fiabilidad del computador, para estar seguros de que todo está trabajando como debe ser, se les llama POST (Power-On Self Test). Cuando éstas terminan, en algunos computadores se produce un sonido corto, a manera de bip, para indicar que el control ha pasado al sistema operativo del disco (a los programas de extensión de la ROM). El BIOS es un conjunto de rutinas o servicios en lenguaje de máquina, grabados en uno o dos chips de memoria ROM o de memoria Flash, la cual se puede actualizar mediante un programa externo. Se utiliza para controlar las operaciones de entrada y salida de datos del sistema, tales como la comunicación con la impresora, las unidades de disco, el teclado, el monitor de video y cualquier otro dispositivo similar. Los programas del BIOS convierten un comando simple, tal como la orden para leer texto del disco, en una secuencia de pasos necesarios para ejecutar dicha tarea, incluyendo la detección y corrección de errores. El BIOS sirve de intermediario entre los programas que se están ejecutando en la memoria RAM y los dispositivos periféricos (hardware). Recibe las solicitudes efectuadas por los programas para realizar los servicios de entrada/salida, lo cual hacen mediante combinación de dos números: el número de la interrupción (indica cuál es el dispositivo solicitado, tal como la impresora), y número de servicio (indica la tarea específica que se quiere realizar). El BIOS también se comunica con los dispositivos (hardware) del computador (pantalla, unidades controladoras de disco, etc.) usando los códigos de control específicos requeridos por cada dispositivo. El BIOS maneja, además, algunas interrupciones de hardware generadas por dispositivos para solicitar atención de la CPU. Por ejemplo, cada vez que el usuario pulsa una tecla, el teclado genera una señal de solicitud de interrupción que es reconocida por el BIOS y éste ejecuta el servicio correspondiente. Debido a que de un disco duro a otro pueden variar el número de cabezas de lectura/escritura (dos por cada plato), la cantidad de cilindros y el número de sectores por pista, según el diseño y la capacidad de información, el BIOS necesita conocer exactamente la geometría o características de las unidad controladora de disco instalada en el computador. Los BIOS modernos contienen una tabla con los parámetros de los discos duros más usuales, para que el usuario seleccione con un número los que corresponden a su máquina. En los BIOS modernos, si la tabla interna no tiene los parámetros del disco requerido por el usuario, éste dispone de uno o dos renglones para actualizarla. Este dato se necesita para el formateo de bajo nivel del disco y para que la tabla FAT reserve una cantidad de entradas correspondientes con el número de sectores del disco. A los programas que se agregan a los del BIOS cuando se instala cierto equipo opcional, tal como un disco duro tipo SCSI, se les llama extensiones del BIOS. También se considera extensión al archivo oculto IBMBIO.COM del sistema operativo DOS grabado en el disco (o al equivalente del sistema operativo instalado en el equipo). En vez de BIOS en memoria ROM convencional, los sistemas modernos vienen equipados con un Flash ROM que le permite al usuario actualizar las rutinas del BIOS a versiones nuevas sin tener que cambiar piezas. Es un chip de memoria que se puede actualizar eléctricamente con las mejoras que haya hecho el fabricante, mediante un programa suministrado en disco o bajado por Internet. Para los BIOS Award se llama AWDFLASH. A diferencia de la memoria RAM, la Flash no se borra al faltar la energía. El Chipset es uno o más circuitos integrados LSI (usualmente dos de muy alta integración) que albergan en su interior toda la circuitería de otros integrados menores usados, entre otras cosas, para dar soporte al microprocesador en lo que tiene que ver con la transferencia de entrada y salida de datos. Manejan el bus de direcciones y de datos; tienen a su cargo las funciones del generador de reloj, del controlador de bus, el reloj de tiempo real (hora y fecha) y la implementación Maestro-Esclavo de los controladores programables de interrupciones. El chipset permite modificar la hora y la fecha del sistema (tiempo real o RTC), definir el tipo de monitor, ajustar la velocidad de reloj para las conexiones de entrada y salida de datos de las tarjetas de expansión con el bus AT (bus ISA de 16 bits), activar o desactivar la memoria caché, ajustar los tiempos de espera y retardo para la memoria y las operaciones de entrada/salida (I/O). Algunos también permiten especificar el tipo de chips de memoria DRAM utilizados y activar la función de memoria sombra (shadow RAM). El setup es parte crucial en la determinación de la configuración del computador, ya que una buena definición hace al sistema más rápido, y una mala puede producir bloqueos esporádicos. La placa principal (main board, system board) de todo computador (se excluyen los viejos XT) tiene un circuito integrado de tecnología CMOS (Complementary Metal Oxide Semiconductor) encargado de guardar la información que el usuario define cuando instala o reconfigura el sistema, proceso que en inglés se llama setup (pronúncialo "sérap"). Dicho integrado tiene en su interior el circuito de un reloj para mantener la hora y la fecha reales (real-time clock), así como 64 bytes de memoria RAM. Usualmente la referencia del chip es MC146818, HM6818A u 82230. El reloj de tiempo real utiliza 14 bytes de memoria RAM para almacenar los datos. Los otros 50 bytes son de uso general; se emplean para guardar la configuración, tal como la cantidad de memoria, los tiempos de espera (wait state) para las transferencias de datos, el tipo de monitor y discos usados. Esta información se introducía inicialmente con un programa que se suministraba en un diskette, pero actualmente forma parte de la programación grabada en el integrado ROM BIOS de la máquina. En unos equipos se puede entrar al menú del setup oprimiendo la tecla DEL (o Supr si tienes teclado en español) un poco después de encender el computador, cuando aparezca en la pantalla la frase "hit <DEL> if you want to run setup". En otros, es necesario oprimir a la vez la combinación de teclas Ctrl + Alt + Esc, o Ctrl + Alt + S. Para que no se borre la información grabada en el bloque de memoria RAM del circuito integrado CMOS RAM, éste recibe energía permanente de una batería de respaldo (battery backup), la cual puede durar hasta dos o más años. En reemplazo de la batería original se pueden colocar de 3 a 4 pilas corrientes de 1,5V, conectadas en serie para obtener 4,5 ó 6 voltios. Funcionamiento Interno Del Computador Al iniciar el arranque, en la mayoría de computadores, cualquiera sea su tamaño o potencia, el control pasa mediante circuito cableado a unas memorias de tipo ROM, grabadas con información permanente (datos de configuración, fecha y hora, dispositivos, etc.) Después de la lectura de esta información, el circuito de control mandará a cargar en la memoria principal desde algún soporte externo (disco duro o disquete) los programas del sistema operativo que controlarán las operaciones a seguir, y en pocos segundos aparecerá en pantalla el identificador o interfaz, dando muestra al usuario que ya se está en condiciones de utilización. Si el usuario carga un programa con sus instrucciones y datos desde cualquier soporte de información, bastará una pequeña orden para que dicho programa comience a procesarse, una instrucción tras otra, a gran velocidad, transfiriendo la información desde y hacia donde esté previsto en el programa con pausas si el programa es inactivo, en las que se pide al usuario entradas de información. Finalizada esta operación de entrada, el ordenador continuará su proceso secuencial hasta culminar la ejecución del programa, presentando sus resultados en pantalla, impresora o cualquier periférico. Cada una de las instrucciones tiene un código diferente expresado en formato binario. Esta combinación distinta de unos y ceros la interpreta el <<cerebro>> del ordenador, y como está diseñado para que sepa diferenciar lo que tiene que hacer al procesar cada una de ellas, las ejecuta y continúa con la siguiente instrucción, sin necesidad de que intervenga el ordenador. El proceso de una instrucción se descompone en operaciones muy simples de transferencia de información u operaciones aritméticas y lógicas elementales, que realizadas a gran velocidad le proporcionan una gran potencia que es utilizada en múltiples aplicaciones. Realmente, esa información digitalizada en binario, a la que se refiere con unos y ceros, el ordenador la diferencia porque se trata de niveles diferentes de voltaje. Cuando se emplean circuitos integrados, los niveles lógicos bajo y alto, que se representan por ceros y unos, corresponden a valores muy próximos a cero y cinco voltios en la mayoría de los casos. Cuando las entradas de las puertas lógicas de los circuitos digitales se les aplica el nivel alto o bajo de voltaje, el comportamiento muy diferente. Por ejemplo, si se le aplica nivel alto conducen o cierran el circuito; en cambio si se aplica nivel bajo no conducen o dejan abierto el circuito. Para que esto ocurra, los transistores que constituyen los circuitos integrados trabajan en conmutación, pasando del corte a la saturación. Estructura Interna Del Computador En ella la conforman cada uno de los chips que se encuentran en la plaqueta base o tarjeta madre, estos son: o o o o o Bios Caché Chipset Puestos USB Zócalo ZIF Slot de Expansión Ranuras PCI Ranuras DIMM Ranuras SIMM Ranuras AGP Ranuras ISA Pila Conector disquetera Conector electrónico Conector EIDE (disco duro) CONCEPTOS Bios: "Basic Input-Output System", sistema básico de entrada-salida. Programa incorporado en un chip de la placa base que se encarga de realizar las funciones básicas de manejo y configuración del ordenador. Caché: es un tipo de memoria del ordenador; por tanto, en ella se guardarán datos que el ordenador necesita para trabajar. Esta también tiene una segunda utilidad que es la de memoria intermedia que almacena los datos mas usados, para ahorrar mucho mas tiempo del tránsito y acceso a la lenta memoria RAM. Chipset: es el conjunto (set) de chips que se encargan de controlar determinadas funciones del ordenador, como la forma en que interacciona el microprocesador con la memoria o la caché, o el control de los puertos y slots ISA, PCI, AGP, USB. USB: En las placas más modernas (ni siquiera en todas las ATX); de forma estrecha y rectangular, inconfundible pero de poca utilidad por ahora. Zócalo ZIF: Es el lugar donde se inserta el "cerebro" del ordenador. Durante más de 10 años ha consistido en un rectángulo o cuadrado donde el "micro", una pastilla de plástico negro con patitas, se introducía con mayor o menor facilidad; recientemente, la aparición de los Pentium II ha cambiado un poco este panorama. Slot de Expansión: son unas ranuras de plástico con conectores eléctricos (slots) donde se introducen las tarjetas de expansión (tarjeta de vídeo, de sonido, de red...). Según la tecnología en que se basen presentan un aspecto externo diferente, con diferente tamaño y a veces incluso en distinto color. En esta se encuentran: Ranuras PCI: el estándar actual. Pueden dar hasta 132 MB/s a 33 MHz, lo que es suficiente para casi todo, excepto quizá para algunas tarjetas de vídeo 3D. Miden unos 8,5 cm y generalmente son blancas. Ranuras DIMM: son ranuras de 168 contactos y 13 cm. Originalmente de color negro. Ranuras SIMM: los originales tenían 30 conectores, esto es, 30 contactos, y medían unos 8,5 cm. Hacia finales de la época del 486 aparecieron los de 72 contactos, más largos: unos 10,5 cm de color blanco. Ranuras AGP: o más bien ranura, ya que se dedica exclusivamente a conectar tarjetas de vídeo 3D, por lo que sólo suele haber una; además, su propia estructura impide que se utilice para todos los propósitos, por lo que se utiliza como una ayuda para el PCI. Según el modo de funcionamiento puede ofrecer 264 MB/s o incluso 528 MB/s. Mide unos 8 cm y se encuentra bastante separada del borde de la placa. Ranuras ISA: son las más veteranas, un legado de los primeros tiempos del PC. Funcionan a unos 8 MHz y ofrecen un máximo de 16 MB/s, suficiente para conectar un módem o una tarjeta de sonido, pero muy poco para una tarjeta de vídeo. Miden unos 14 cm y su color suele ser negro; existe una versión aún más antigua que mide sólo 8,5 cm. Pila: se encarga de conservar los parámetros de la BIOS cuando el ordenador está apagado. Sin ella, cada vez que encendiéramos tendríamos que introducir las características del disco duro, del Chipset, la fecha y la hora... Conectores internos: Bajo esta denominación englobamos a los conectores para dispositivos internos, como puedan ser la disquetera, el disco duro, el CD-ROM o el altavoz interno, e incluso para los puertos serie, paralelo y de joystick. SISTEMA OPERATIVO Historia de los sistemas operativos Los Sistemas Operativos, al igual que el Hardware de los computadores, han sufrido una serie de cambios revolucionarios llamados generaciones. En el caso del Hardware, las generaciones han sido marcadas por grandes avances en los componentes utilizados, pasando de válvulas ( primera generación ) a transistores ( segunda generación ), a circuitos integrados ( tercera generación), a circuitos integrados de gran y muy gran escala (cuarta generación). Cada generación Sucesiva de hardware ha ido acompañada de reducciones substanciales en los costos, tamaño, emisión de calor y consumo de energía, y por incrementos notables en velocidad y capacidad. Generación Cero (década de 1940) Los primeros sistemas computacionales no poseían sistemas operativos. Los usuarios tenían completo acceso al lenguaje de la maquina. Todas las instrucciones eran codificadas a mano. Primera Generación (década de 1950) Los sistemas operativos de los años cincuenta fueron diseñados para hacer mas fluida la transición entre trabajos. Antes de que los sistemas fueran diseñados, se perdía un tiempo considerable entre la terminación de un trabajo y el inicio del siguiente. Este fue el comienzo de los sistemas de procesamiento por lotes, donde los trabajos se reunían por grupos o lotes. Cuando el trabajo estaba en ejecución, este tenia control total de la maquina. Al terminar cada trabajo, el control era devuelto al sistema operativo, el cual limpiaba y leía e iniciaba el trabajo siguiente. Al inicio de los 50's esto había mejorado un poco con la introducción de tarjetas perforadas (las cuales servían para introducir los programas de lenguajes de máquina), puesto que ya no había necesidad de utilizar los tableros enchufables. Además el laboratorio de investigación General Motors implementó el primer sistema operativo para la IBM 701. Los sistemas de los 50's generalmente ejecutaban una sola tarea, y la transición entre tareas se suavizaba para lograr la máxima utilización del sistema. Esto se conoce como sistemas de procesamiento por lotes de un sólo flujo, ya que los programas y los datos eran sometidos en grupos o lotes. La introducción del transistor a mediados de los 50's cambió la imagen radicalmente. Se crearon máquinas suficientemente confiables las cuales se instalaban en lugares especialmente acondicionados, aunque sólo las grandes universidades y las grandes corporaciones o bien las oficinas del gobierno se podían dar el lujo de tenerlas. Para poder correr un trabajo (programa), tenían que escribirlo en papel (en Fortran o en lenguaje ensamblador) y después se perforaría en tarjetas. Enseguida se llevaría la pila de tarjetas al cuarto de introducción al sistema y la entregaría a uno de los operadores. Cuando la computadora terminara el trabajo, un operador se dirigiría a la impresora y desprendería la salida y la llevaría al cuarto de salida, para que la recogiera el programador. Segunda Generación (a mitad de la década de 1960) La característica de los sistemas operativos fue el desarrollo de los sistemas compartidos con multiprogramación, y los principios del multiprocesamiento. En los sistemas de multiprogramación, varios programas de usuario se encuentran al mismo tiempo en el almacenamiento principal, y el procesador se cambia rápidamente de un trabajo a otro. En los sistemas de multiprocesamiento se utilizan varios procesadores en un solo sistema computacional, con la finalidad de incrementar el poder de procesamiento de la maquina. La independencia de dispositivos aparece después. Un usuario que desea escribir datos en una cinta en sistemas de la primera generación tenia que hacer referencia especifica a una unidad de cinta particular. En la segunda generación, el programa del usuario especificaba tan solo que un archivo iba a ser escrito en una unidad de cinta con cierto número de pistas y cierta densidad. Se desarrollo sistemas compartidos, en la que los usuarios podían acoplarse directamente con el computador a través de terminales. Surgieron sistemas de tiempo real, en que los computadores fueron utilizados en el control de procesos industriales. Los sistemas de tiempo real se caracterizan por proveer una respuesta inmediata. Tercera Generación (mitad de década 1960 a mitad década de 1970) Se inicia en 1964, con la introducción de la familia de computadores Sistema/360 de IBM. Los computadores de esta generación fueron diseñados como sistemas para usos generales . Casi siempre eran sistemas grandes, voluminosos, con el propósito de serlo todo para toda la gente. Eran sistemas de modos múltiples, algunos de ellos soportaban simultáneamente procesos por lotes, tiempo compartido, procesamiento de tiempo real y multiprocesamiento. Eran grandes y costosos, nunca antes se había construido algo similar, y muchos de los esfuerzos de desarrollo terminaron muy por arriba del presupuesto y mucho después de lo que el planificador marcaba como fecha de terminación. Estos sistemas introdujeron mayor complejidad a los ambientes computacionales; una complejidad a la cual, en un principio, no estaban acostumbrados los usuarios. Cuarta Generación (mitad de década de 1970 en adelante) Los sistemas de la cuarta generación constituyen el estado actual de la tecnología. Muchos diseñadores y usuarios se sienten aun incómodos, después de sus experiencias con los sistemas operativos de la tercera generación. Con la ampliación del uso de redes de computadores y del procesamiento en línea los usuarios obtienen acceso a computadores alejados geográficamente a través de varios tipos de terminales. Los sistemas de seguridad se ha incrementado mucho ahora que la información pasa a través de varios tipos vulnerables de líneas de comunicación. La clave de cifrado esta recibiendo mucha atención; han sido necesario codificar los datos personales o de gran intimidad para que; aun si los datos son expuestos, no sean de utilidad a nadie mas que a los receptores adecuados. El porcentaje de la población que tiene acceso a un computador en la década de los ochenta es mucho mayor que nunca y aumenta rápidamente. El concepto de maquinas virtuales es utilizado. El usuario ya no se encuentra interesado en los detalles físicos de; sistema de computación que esta siendo accedida. En su lugar, el usuario ve un panorama llamado maquina virtual creado por el sistema operativo. Los sistemas de bases de datos han adquirido gran importancia. Nuestro mundo es una sociedad orientada hacia la información, y el trabajo de las bases de datos es hacer que esta información sea conveniente accesible de una manera controlada para aquellos que tienen derechos de acceso. ¿Qué es un sistema operativo? Un sistema operativo es un programa que tiene encontradas una serie de funciones diferentes cuyo objetivo es simplificar el manejo y la utilización de la computadora, haciéndolo seguro y eficiente. Maquina desnuda El término de máquina desnuda se aplica a una computadora carente de sistema operativo, el término es interesante porque resalta el hecho de que una computadora en si misma no hace nada y para realizar una determinada función es necesario que contenga un sistema operativo. Funciones del sistema operativo Las funciones clásicas del sistema operativo se pueden agrupar en las tres categorías siguientes: Gestión de los recursos de la computadora. Ejecución de servicios para los programas. Ejecución de los mandatos de los usuarios. El sistema operativo como gestor de recursos En una computadora actual suelen coexistir varios programas, del mismo o de varios usuarios, ejecutándose simultáneamente. Estos programas compiten por los recursos de la computadora, siendo el sistema operativo el encargado de arbitrar su asignación y uso. Como complemento a la gestión de recursos, el sistema operativo ha de garantizar la protección de unos programas frente a otros y ha de suministrar información sobre el uso que se hace de los recursos. El sistema operativo como máquina extendida. El sistema operativo ofrece a los programas un conjunto de servicios, o llamadas al sistema, que pueden solicitar cuando lo necesiten, proporcionando a los programas una visión de máquina extendida. Los servicios se pueden agrupar en las cuatro clases siguientes: Ejecución de programas Operaciones de E/S Operaciones sobre archivos Detección de tratamiento de errores. Concepto de usuario y de grupo de usuario Un usuario es una persona autorizada para utilizar un sistema informático. El usuario se autentica mediante su nombre de cuenta y su contraseña o password. Arranque de la computadora El arranque de una computadora actual tiene dos fases: Arranque hardware Arranque software Que por el arranque hardware se entiende que es la parte dura es decir el inicio o encendido de todos los componentes de la PC Ahora el arranque software es el inicio del sistema operativo en una computadora Componentes y estructura del sistema operativo El sistema operativo está formado por una serie de componentes especializados en determinadas funciones. Cada sistema operativo estructura estos componentes de forma distinta. En esta sección se describen en primer lugar los distintos componentes que conforman un sistema operativo. Componentes del sistema operativo Un sistema operativo está formado por tres capas: El núcleo Los servicios y el intérprete de mandatos o shell. El núcleo es la parte del sistema operativo que interacciona directamente con el hardware de la máquina. Las funciones básicas de manipulación de menmoria. Estructura del sistema operativo Internamente los sistemas operativos estructuralmente de se clasifican según como se hayan organizado internamente en su diseño, por esto la clasificación más común de los sistemas operativos son: Sistemas monolíticos En estos sistemas operativos se escriben como un conjunto de procedimientos, cada uno de los cuales puede llamar a cualquiera de los otros siempre que lo necesite. Cuando se emplea esta técnica, cada procedimiento del sistema tiene una interfaz bien definida en términos de parámetros y resultados, y cada una tiene la libertad de llamar a cualquiera otra, si la última ofrece algún cálculo útil que la primera necesite. Para construir el programa objeto real del sistema operativo cuando se usa este método, se compilan todos los procedimientos individuales a archivos que contienen los procedimientos y después se combinan todos en un solo archivo objeto con el enlazador. En términos de ocultamiento de información, esencialmente no existe ninguno; todo procedimiento es visible para todos (al contrario de una estructura que contiene módulos o paquetes, en los cuales mucha información es local a un módulo y sólo pueden llamar puntos de registro designados oficialmente del exterior del módulo) Sistemas operativos estructurados A medida que fueron creciendo las necesidades de los usuarios y se perfeccionaron los sistemas, se hizo necesaria una mayor organización del software, del sistema operativo, donde una parte del sistema contenía subpartes y esto organizado en forma de niveles. Se dividió el sistema operativo en pequeñas partes, de tal forma que cada una de ellas estuviera perfectamente definida y con un claro interfase con el resto de elementos Cliente-servidor El tipo más reciente de sistemas operativos es el denominado Cliente-servidor, que puede ser ejecutado en la mayoría de las computadoras, ya sean grandes o pequeñas. Este sistema sirve para toda clase de aplicaciones por tanto, es de propósito general y cumple con las mismas actividades que los sistemas operativos convencionales. El núcleo tiene como misión establecer la comunicación entre los clientes y los servidores. Los procesos pueden ser tanto servidores como clientes. Por ejemplo, un programa de aplicación normal es un cliente que llama al servidor correspondiente para acceder a un archivo o realizar una operación de entrada/salida sobre un dispositivo concreto. A su vez , un proceso cliente puede actuar como servidor para otro. Métodos de acceso en los sistemas de archivos. Los métodos de acceso se refieren a las capacidades que el subsistema de archivos provee para accesar datos dentro de los directorios y medios de almacenamiento en general. Se ubican tres formas generales: acceso secuencial, acceso directo y acceso directo indexado. Acceso secuencial: Es el método más lento y consiste en recorrer los componentes de un archivo uno en uno hasta llegar al registro deseado. Se necesita que el orden lógico de los registros sea igual al orden físico en el medio de almacenamiento. Este tipo de acceso se usa comúnmente en cintas y cartuchos. Acceso directo: Permite accesar cualquier sector o registro inmediatamente, por medio de llamadas al sistema como la de seek. Este tipo de acceso es rápido y se usa comúnmente en discos duros y discos o archivos manejados en memoria de acceso aleatorio. _ Acceso directo indexado: Este tipo de acceso es útil para grandes volúmenes de información o datos. Consiste en que cada archivo tiene una tabla de apuntadores, donde cada apuntador va a la dirección de un bloque de índices, lo cual permite que el archivo se expanda a través de un espacio enorme. Consume una cantidad importante de recursos en las tablas de índices pero es muy rápido. Operaciones soportadas por el subsistema de archivos Independientemente de los algoritmos de asignación de espacio, de los métodos de acceso y de la forma de resolver las peticiones de lectura y escritura, el subsistema de archivos debe proveer un conjunto de llamadas al sistema para operar con los datos y de proveer mecanismos de protección y seguridad. Las operaciones básicas que la mayoría de los sistemas de archivos soportan son: Crear ( create ) : Permite crear un archivo sin datos, con el propósito de indicar que ese nombre ya está usado y se deben crear las estructuras básicas para soportarlo. Borrar ( delete ): Eliminar el archivo y liberar los bloques para su uso posterior. Abrir ( open ): Antes de usar un archivo se debe abrir para que el sistema conozca sus atributos, tales como el dueño, la fecha de modificación, etc. Cerrar ( close ): Después de realizar todas las operaciones deseadas, el archivo debe cerrarse para asegurar su integridad y para liberar recursos de su control en la memoria. Leer o Escribir ( read, write ): Añadir información al archivo o leer el caracter o una cadena de caracteres a partir de la posición actual. Concatenar ( append ): Es una forma restringida de la llamada `write', en la cual sólo se permite añadir información al final del archivo. Localizar ( seek ): Para los archivos de acceso directo se permite posicionar el apuntador de lectura o escritura en un registro aleatorio, a veces a partir del inicio o final del archivo. Leer atributos: Permite obtener una estructura con todos los atributos del archivo especificado, tales como permisos de escritura, de borrado, ejecución, etc. Poner atributos: Permite cambiar los atributos de un archivo, por ejemplo en UNIX, donde todos los dispositivos se manejan como si fueran archivos, es posible cambiar el comportamiento de una terminal con una de estas llamadas. Renombrar ( rename ): Permite cambiarle el nombre e incluso a veces la posición en la organización de directorios del archivo especificado. Los subsistemas de archivos también proveen un conjunto de llamadas para operar sobre directorios, las más comunes son crear, borrar, abrir, cerrar, renombrar y leer. Sus funcionalidades son obvias, pero existen también otras dos operaciones no tan comunes que son la de `crear una liga' y la de `destruir la liga'. La operación de crear una liga sirve para que desde diferentes puntos de la organización de directorios se pueda accesar un mismo directorio sin necesidad de copiarlo o duplicarlo. La llamada a `destruir la liga' lo que hace es eliminar esas referencias, siendo su efecto la de eliminar las ligas y no el directorio real. El directorio real es eliminado hasta que la llamada a `destruir liga' se realiza sobre él. Algunas facilidades extras de los sistemas de archivos Algunos sistemas de archivos proveen herramientas al administrador del sistema para facilitarle la vida. Las más notables es la facilidad de compartir archivos y los sistemas de `cotas'. La facilidad de compartir archivos se refiere a la posibilidad de que los permisos de los archivos o directorios dejen que un grupo de usuarios puedan accesarlos para diferentes operaciones" leer, escribir, borrar, crear, etc. El dueño verdadero es quien decide qué permisos se aplicarán al grupo e, incluso, a otros usuarios que no formen parte de su grupo. La facilidad de `cotas' se refiere a que el sistema de archivos es capaz de llevar un control para que cada usuario pueda usar un máximo de espacio en disco duro. Cuando el usuario excede ese límite, el sistema le envía un mensaje y le niega el permiso de seguir escribiendo, obligándolo a borrar algunos archivos si es que quiere almacenar otros o que crezcan. La versión de UNIX SunOS contiene esa facilidad. Sistemas de Archivos Aislados Los sistemas de archivos aislados son aquellos que residen en una sola computadora y no existe la posibilidad de que, aún estando en una red, otros sistemas puedan usar sus directorios y archivos. Por ejemplo, los archivos en discos duros en el sistema MS-DOS clásico se puede ver en esta categoría. Sistemas de Archivos Compartidos o de Red Estos sistemas de archivos es factible accesarlos y usarlos desde otros nodos en una red. Generalmente existe un `servidor' que es la computadora en donde reside el sistema de archivos físicamente, y por otro lado están los `clientes', que se valen del servidor para ver sus archivos y directorios de manera como si estuvieran localmente en el cliente. Algunos autores les llaman a estos sistemas de archivos `sistemas de archivos distribuidos' lo cual no se va a discutir en este trabajo. Los sistemas de archivos compartidos en red más populares son los provistos por Netware, el Remote Filke Sharing ( RFS en UNIX ), Network File System ( NFS de Sun Microsystems ) y el Andrew File System ( AFS ). En general, lo que proveen los servidores es un medio de que los clientes, localmente, realicen peticiones de operaciones sobre archivos los cuales con `atrapadas' por un `driver' o un `módulo' en el núcleo del sistema operativo, el cual se comunica con el servidor a través de la red y la operación se ejecuta en el servidor. Existen servidores de tipo "stateless y no-stateless". Un servidor "stateless" no registra el estado de las operaciones sobre los archivos, de manera que el cliente se encarga de todo ese trabajo. La ventaja de este esquema es que si el servidor falla, el cliente no perderá información ya que ésta se guarda en memoria localmente, de manera que cuando el servidor reanude su servicio el cliente proseguirá como si nada hubiese sucedido. Con un servidor "no-stateless", esto no es posible. La protección sobre las operaciones se lleva a cabo tanto el los clientes como en el servidor: si el usuario quiere ejecutar una operación indebida sobre un archivo, recibirá un mensaje de error y posiblemente se envíe un registro al subsistema de `seguridad' para informar al administrador del sistema de dicho intento de violación. En la práctica, el conjunto de permisos que cada usuario tiene sobre el total de archivos se almacena en estructuras llamadas `listas de acceso' ( access lists ). Tendencias actuales Con el gran auge de las redes de comunicaciones y su incremento en el ancho de banda, la proliferación de paquetes que ofrecen la comparición de archivos es común. Los esquemas más solicitados en la industria es el poder accesar los grandes volúmenes de información que residen en grandes servidores desde las computadoras personales y desde otros servidores también. Es una realidad que la solución más socorrida en las empresas pequeñas es usar Novell Netware en un servidor 486 o superior y accesar los archivos desde máquinas similares. A veces se requieren soluciones más complejas con ambientes heterogéneos: diferentes sistemas operativos y diferentes arquitecturas. Uno de los sistemas de archivos más expandidos en estaciones de trabajo es el NFS, y prácticamente todas las versiones de UNIX traen instalado un cliente y hasta un servidor de este servicio. Es posible así que una gran cantidad de computadoras personales (de 10 a 80 ) accesen grandes volúmenes de información o paquetería (desde 1 a 8 Giga bites ) desde una sola estación de trabajo, e incluso tener la flexibilidad de usar al mismo tiempo servidores de Novell y NFS. Soluciones similares se dan con algunos otros paquetes comerciales, pero basta ya de `goles'. Lo importante aquí es observar que el mundo se va moviendo poco a poco hacia soluciones distribuidas, y hacia la estandarización que, muchas veces, es `de facto'. Seguridad y protección La seguridad reviste dos aspectos, uno es garantizar la identidad de los usuarios y otro es definir lo que puede hacer cada uno de ellos. El primer aspecto se trata bajo el término de autenticación, mientras que el segundo se hace mediante los privilegios. La seguridad es una de las funciones del sistema operativo que, para llevarla a cabo, se ha de basar en los mecanismos de protección que le proporciona el hardware. Autenticación. El objetivo de la autenticación es determinar que un usuario ( persona, servicio o computadora) es quien dice ser. Privilegios. Los privilegios especifican los recursos que puede acceder cada usuario. Para simplificar la información de privilegi9os es corriente organizar a los usuarios en grupos, asignando determinados privilegios a cada grupo. Activación del sistema operativo. Una vez presentadas las funciones y principales componentes del sistema operativo, es importante describir cuáles son las acciones que activan la ejecución del mismo, el sistema operativo es un servidor que está a la espera de que se encargue trabajo. Sistema Operativo Definición: Es el programa o grupo de programas que controlan el funcionamiento del hardware y nos ofrecen un modo sencillo de acceso al ordenador. El sistema operativo del ordenador coordina y jerarquiza todos los procesos que se llevan a cabo en un ordenador y los periféricos (operaciones de escritura y lectura - entrada y salida). Conceptos afines Proceso: se denomina proceso o tarea a un instante de un programa en ejecución. Multitarea o multiproceso: capacidad para soportar dos o más procesos activos simultáneamente. Multiprogramación: cuando los procesos en memoria pertenecen a programas distintos. No tienen nada en común. En el caso de la multitarea los procesos son distintos pero no corresponden a programas distintos. Todo sistema operativo multiprogramación comparte todos los recursos entre procesos de programas distintos, por este motivo se habla de tiempo compartido. Según se distribuya el tiempo en partes iguales o según prioridades, se habla de multiprogramación simétrica o por prioridades. El sistema operativo se compone de un núcleo o Kernel y un intérprete de comandos denominado Shell. El shell es un interface entre la CPU y el usuario. Cuando le pedimos algo al ordenador, el shell se encarga de traducirlo en llamadas o peticiones a los programas que componen el kernel o núcleo, y éste acciona el hardware (a través de un comando o un botón). El kernel del sistema operativo tiene entre otros los siguientes componentes: o o o o o o Cargador inicial (programa de arranque) Planificador de trabajo de la CPU (Planifica procesos y tareas) Administrador de periféricos Comunicador entre procesos Administrador de memoria Administrador de archivos Para que el ordenador pueda arrancar, los programas de arranque y otros de utilidades básicas se guardan en la ROM, que tiene especificado pedir un disco de sistema. Una vez se introduce este disco, el control lo asume el sistema operativo. El disco de sistema puede ser flexible A: o duro C: . INTERRUPCIONES (IRQ) (Interrupt Request) Petición de interrupción. Este recurso es utilizado para dar prioridad a unos periféricos respecto a otros en el uso del procesador. Como los sistemas operativos modernos son multiproceso, el procesador del sistema está casi siempre ocupado en diferentes tareas. Los niveles IRQ legitiman a los periféricos para poder interrumpir las tareas que realiza el procesador imponiendo las suyas propias. Además, al estar jerarquizadas, si dos elementos solicitan acceso al mismo tiempo, el que tenga mayor prioridad será el que consiga el uso del procesador. Invocacion de Interrupciones Las interrupciones del procesador, hardware y software son invocadas de diferente manera: Procesador: Las interrupciones del procesador o interrupciones lógicas son invocadas por el procesador como consecuencia de un resultado inusual del programa, tal como un intento de división por cero. Hardware: Las interrupciones de hardware son invocadas por mecanismos periféricos estos fijan sus respectivas líneas de petición de interrupción (IRQ). Cada vez que una tecla es presionada, por ejemplo, el teclado genera una interrupción. Las interrupciones de hardware son vectoreadas a rutinas de servicio de interrupción (ISRs) estas generalmente residen en el BIOS. Software: Las interrupciones de software son invocadas a través de la instrucción INT del 8086. La mayoría de las interrupciones de software son vectoreadas a (DSRs) localizado en el BIOS, o en programas de aplicación. Cada dispositivo de la maquina para "llamar" la atencion del procesador, debe emitir una inerrupcion (IRQ - interrupt request). Una interrupcion, aunque sea una señal electrica, es como decire la procesador "oye niño que estoy aquí...". Bueno, pues el tema es que las interrupciones están limitadas en un PC. Son de la IRQ 0 a la IRQ 15. Pero además muchas de ellas, ya estan asignadas a capón, y no se permite su modificacion. Ademas, el bus ISA, no puede compartir IRQ. El bus PCI, puede compartir, si lo soporta el sistema operativo, IRQs, es decir dos dispositivos pueden llamar la atancion del procesador de la misma forma. La BIOS se encarga luego de decirle al procesador, quien era. Tenemos unas que no se pueden tocar: 0, 1, 2, 6, y 8 (son del sistema) Otras que por convenio son ISA : 3, 4, 7. Por convenio, pueden cambiarse, pero normalmente son para los dos puertos serie y el puerto paralelo. Si tenemos el raton en puerto de raton, utiliza la IRQ 12. Otras que aunque sean PCI, tambien por convenio, están casi reservadas. La 14 y la 15 (primer canal del controlador de disco duro y segundo canal) Nos quedan, la 5, 9, 10, 11. Normalmente la 5 suele ser para la tarjeta de sonido (ISA). Quedan ya unicamente 9, 10, y 11 para el resto de tarjetas del PC. Muy poquitas. Por eso w98 (y w95 OSR2), incorporan un driver que es el encargado de compartir esas IRQ y "enterarse" realmente quien está llamando a la puerta. Usos mas comunes de las IRQ en la PC IRQ 0=Timer Reloj (55ms de intervalo, 18.2 por segundo) IRQ 1=Teclado IRQ 2=Interrupción video IRQ 3=Puerto serial 2 ( COM2 ) IRQ 4=Puerto serial 1 ( COM1 ) IRQ 5=Puerto paralelo 2 ( LPT2 )/Tarjeta de sonido IRQ 6=Controlador de disco flexible IRQ 7=Puerto paralelo 1 ( LPT1 ) IRQ 8=Reloj IRQ 9=Adaptador de LAN IRQ 10=Reservada IRQ 11=Reservada IRQ 12=Reservada IRQ 13=Coprocesador matematico IRQ 14=Controlador de disco duro IRQ 15=Reservada DMA (Direct Memory Access) Canales DMA Puesto que la CPU puede estar ocupada en otras tareas, en ocasiones puede ser muy lenta la transferencia de datos de un dispositivo hacia las celdas de memoria, y viceversa. Es por ello que se ha previsto que algunos dispositivos puedan leer y escribir sus datos directamente de las direcciones de memoria, sin pasar por la CPU. Esto se llama Acceso Directo a la Memoria (DMA - Direct Memory Access). El empleo de un canal DMA acelera el rendimiento de la tarjeta que controla el dispositivo, pero se puede dar el caso en el cual un computador determinado no tenga disponible ningún canal de DMA al agregar un nuevo dispositivo. Para este caso, algunas tarjetas controladoras ofrecen la oportunidad de desconectar la opción DMA, lo cual obliga a que todos los datos pasen por la CPU. Acceso directo a memoria (DMA Direct Memory Access) controlador especializado que transfiere los datos entre el dispositivo de I/O y la memoria independiente del procesador. el controlador de DMA es el maestro y dirige las lecturas o escrituras sobre sí mismo y sobre la memoria. 3 pasos en una transferencia DMA : El procesador configura el DMA, enviándole la identidad del dispositivo, la operación a realizar, la dirección de memoria que es fuente o destino de los datos transferidos, y el número de bytes a transferir. El DMA comienza la operación sobre el dispositivo y arbitra el acceso al bus Al terminar, el controlador interrumpe al procesador, el cual determina interrogando al DMA si la operación entera fue realizada satisfactoriamente. DISPOSITIVOS I/O Puertos I/O Se denomina direcciones I/O (entrada/salida) a unos rangos de posiciones de memoria asignadas en la CPU para recibir y pasar información a los dispositivos periféricos. Así como la CPU puede leer y escribir en las direcciones de memoria RAM, también puede leer y escribir en las direcciones de I/O. A cada dispositivo que se tiene previsto que en un momento dado necesita comunicarse con la CPU, se le asigna una determinada dirección comprendida dentro de un cierto rango ya definido. La dirección de puerto I/O no puede ser utilizada por ningún otro dispositivo. La CPU envía datos o información de control a un puerto determinado especificando su numero, y este responde pasando al bus de datos, el byte que tenga, o la información de su estado. Los puertos I/O se parecen a las direcciones de memoria. Sin embargo, sus datos se pueden leer escribir no solo por la CPU sino también por dispositivos que se acoplan externamente al computador. Además de servir para entrada y salida de datos del sistema, los puertos también se usan para configurar, controlar, y conseguir información acerca del estado de la maquina. Otras direcciones se pueden usar para averiguar si hay otro dispositivo conectado del otro lado del cable, o si ha sido recibido un carácter que fue transmitido desde otro lugar. Normalmente un programa de bajo nivel, tal como el BIOS del sistema, maneja la configuración de los puertos, los controla y administra su estado. Lo único que los usuarios deben hacer es escribir al dispositivo o leer datos de este. La transferencia de datos hacia o desde los puertos I/O se parece bastante a la relacionada con la memoria RAM. Para la salida, la CPU coloca las direcciones en el bus de direcciones y el byte de datos en el bus de datos. A continuación activa con voltaje la linea IOW (I/O Write) del bus de control para indicar a todos los elementos de entrada y salida (I/O) unidos al bus que desea escribir (write) a un puerto en vez de a una ubicación de memoria RAM. El byte se graba en un registro de memoria del puerto de destino, independiente de la memoria RAM del sistema. Para el proceso inverso, tal como leer en byte que esta siendo enviado por el mouse al puerto COM1, se activa la señal IOR (input/output read) de bus de control y se coloca en el bus de direcciones el byte correspondiente a la dirección del puerto COM1. El puerto responde colocando el byte de su memoria en el bus de datos. Cuando la CPU desea comunicarse con la memoria RAM principal, en vez de la memoria de un puerto I/O, activa con voltaje la línea MEMW (escribir) o la línea MEMR (leer) del bus de control. Para evitar que los dispositivos entren en conflicto al operar, muchos fabricantes de las tarjetas controladoras de los dispositivos periféricos, colocan entre ellas unos puentes removibles (jumpers) que permiten elegir entre una o varias alternativas de direcciones. Las nuevas tarjetas PCI son configuradas automáticamente por los sistemas operativos superiores a Windows 95. características principales del sistema de I/O: Comportamiento: entrada, salida, o almacenamiento (múltiples entradas y salidas) Involucrados: humano o máquina. Quien está al final de la línea del dispositivo de I/O, o alimentando datos de entrada o leyendo datos de salida. Velocidad de Transmisión. Velocidad en que los datos pueden ser transferidos entre el dispositivo y la memoria principal o el procesador El sistema de I/O es compartido por los múltiples programas que usan el procesador El sistema de I/O frecuentemente usa interrupciones para comunicar información acerca de operaciones de I/O. El control de bajo nivel de un dispositivo de I/O es complejo, porque requiere manejar un conjunto de eventos concurrentes y porque los requerimientos para el correcto control del dispositivo son muchos. Dispositivos de I/O estandares Dispositivo Teclado Mouse Entrada de voz Scanner Salida de voz Impresora de líneas Impresora láser Pantalla gráfica Terminal Red LAN Disketera Disco óptico Cinta magnética Disco magnético Comportamiento Involucrados KB/seg. Entrada Humano 0.01 Entrada Humano 0.02 Entrada Humano 0.02 Entrada Humano 200.00 Salida Humano 0.60 Salida Humano 1.00 Salida Humano 100.00 Salida Humano 30 000.00 Entrada o Salida Máquina 0.05 Entrada o Salida Máquina 200.00 Almacenamiento Máquina 50.00 Almacenamiento Máquina 500.00 Almacenamiento Máquina 2 000.00 Almacenamiento Máquina 2 000.00 BIOS BIOS: "Basic Input-Output System", sistema básico de entrada-salida. Programa incorporado en un chip de la placa base que se encarga de realizar las funciones básicas de manejo y configuración del ordenador. Cuando encendemos el ordenador, el sistema operativo se encuentra o bien en el disco duro o bien en un disquete; sin embargo, si se supone que es el sistema operativo el que debe dar soporte para estos dispositivos, ¿cómo demonios podría hacerlo si aún no está cargado en memoria? Lo que es más: ¿cómo sabe el ordenador que tiene un disco duro (o varios)? ¿Y la disquetera? ¿Cómo y donde guarda esos datos, junto con el tipo de memoria y caché o algo tan sencillo pero importante como la fecha y la hora? Pues para todo esto está la BIOS. Resulta evidente que la BIOS debe poderse modificar para alterar estos datos (al añadir un disco duro o cambiar al horario de verano, por ejemplo); por ello las BIOS se implementan en memoria. Pero además debe mantenerse cuando apaguemos el ordenador, pues no tendría sentido tener que introducir todos los datos en cada arranque; por eso se usan memorias especiales, que no se borran al apagar el ordenador: memorias tipo CMOS, por lo que muchas veces el programa que modifica la BIOS se denomina "CMOS Setup". En realidad, estas memorias sí se borran al faltarles la electricidad; lo que ocurre es que consumen tan poco que pueden ser mantenidas durante años con una simple pila, en ocasiones de las de botón (como las de los relojes). Esta pila (en realidad un acumulador) se recarga cuando el ordenador está encendido, aunque al final fenece, como todos... Entrando en la BIOS Ante todo, conózcanse. La BIOS es la responsable de la mayoría de esos extraños mensajes que surgen al encender el ordenador, justo antes del "Iniciando MS-DOS" o bien Windows 95, NT, Linux, OS/2 o lo que sea. La secuencia típica en que aparecen (eso sí, muy rápido) suele ser: Primero los mensajes de la BIOS de la tarjeta gráfica (sí, las tarjetas gráficas suelen tener su propia BIOS, ¿passa algo?). El nombre del fabricante de la BIOS y el número de versión. El tipo de microprocesador y su velocidad. La revisión de la memoria RAM y su tamaño. Un mensaje indicando cómo acceder a la BIOS ("Press Del to enter CMOS Setup" o algo similar); volveremos sobre esto). Mensajes de otros dispositivos, habitualmente el disco duro. Todo esto sucede en apenas unos segundos; a veces, si el monitor está frío y tarda en encender, resulta casi imposible verlos, no digamos leerlos, así que ármese de valor y reinicie varias veces, ¡pero no a lo bestia! Espere a que termine de arrancar el ordenador cada vez y use mejor el Ctrl-Alt-Del (es decir, pulsar a la vez y en este orden las teclas "Ctrl", "Alt" y "Del" -el "Supr" de los teclados en español-) que el botón de "Reset". Es más, si tiene un sistema operativo avanzado como OS/2, Linux, Windows 9x o NT, debe hacerlo mediante la opción de reiniciar del menú correspondiente, generalmente el de apagar el sistema (o con la orden "reboot" en Linux). Bien, el caso es que al conjunto de esos mensajes se le denomina POST (Power-On Self Test, literalmente autotesteo de encendido), y debe servirnos para verificar que no existen mensajes de error, para ver si, grosso modo, la cantidad de memoria corresponde a la que debería (puede que sean unos pocos cientos de bytes menos, eso es normal y no es un error, es que se usan para otras tareas) y para averiguar cómo se entra en la BIOS. Generalmente se hará mediante la pulsación de ciertas teclas al arrancar, mientras salen esos mensajes. Uno de los métodos más comunes es pulsar "Del", aunque en otras se usa el "F1", el "Esc" u otra combinación de teclas (Alt-Esc, Alt-F1...). Existen decenas de métodos, así que no le queda más remedio que estar atento a la pantalla o buscar en el manual de su placa o en el sitio web del fabricante de la BIOS. Por cierto, es bastante raro que un fabricante de placas base sea su propio suministrador de BIOS, en general todas provienen de apenas un puñado de fabricantes: Award, AMI, Phoenix y pocos más. Manejo básico de la BIOS Bien, ya entró en la BIOS. ¿Y ahora, qué? Bueno, depende de su BIOS en concreto. Las BIOS clásicas se manejan con el teclado, típicamente con los cursores y las teclas de Intro ("Enter"), "Esc" y la barra espaciadora, aunque también existen BIOS gráficas, las llamadas WinBIOS, que se manejan con el ratón en un entorno de ventanas, lo cual no tiene muchas ventajas pero es mucho más bonito. La pantalla principal de una BIOS clásica es algo así: Mientras que la de una WinBIOS tiene este aspecto: Como se ve, casi la totalidad de las BIOS vienen en inglés, y aunque algunas de las más modernas permiten cambiar este idioma por el español, conviene que sepa algo de inglés o que se ayude de alguien que lo entienda. De cualquier modo, observamos que existen varios apartados comunes a todas las BIOS: Configuración básica, llamado generalmente "Standard CMOS Setup" o bien "Standard Setup". Opciones de la BIOS, llamado "BIOS Features Setup" o "Advanced Setup". Configuración avanzada y del chipset, "Chipset Features Setup". Otras utilidades, en uno o varios apartados (autoconfiguración de la BIOS, manejo de PCI, introducción de contraseñas -passwords-, autodetección de discos duros...). Pulse en las imágenes sobre los apartados que le interesen o siga leyendo para una explicación en profundidad uno por uno. Los ejemplos corresponderán a BIOS clásicas de las que se manejan por teclado, aunque sirven perfectamente para BIOS gráficas, que sólo añaden más colorido a las operaciones. Tenga en cuenta que JUGAR CON LA BIOS PUEDE SER REALMENTE PELIGROSO para su ordenador, así que COPIE LA CONFIGURACIÓN ACTUAL en unos folios antes de tocar nada, e incluso si no piensa hacer modificaciones; nunca se sabe, recuerde la Ley de Murphy... Y por supuesto, aunque los consejos que se darán sirven para la mayoría de los casos, nadie mejor que el fabricante para hablar de su propio producto, así que léase en profundidad el manual de su placa base y téngalo a mano. Si no se lo entregaron con el ordenador, mal asunto. Intente que se lo den o que le hagan una copia, aunque si se trata de un ordenador de marca a veces es casi imposible; miedo a que les copien sus secretos o afán de tener al usuario atado a su servicio técnico, vaya usted a saber... Por cierto, para salir de un menú se suele usar la tecla "Esc"; además, ningún cambio queda grabado hasta que no se lo indicamos al ordenador al salir de la BIOS (lo cual es un consuelo para los manazas). Configuración básica ¿Ya ha copiado la configuración actual de su BIOS en unos folios? ¿Y a qué espera? En fin... bajo el nombre de Standard CMOS Setup o similar, se suele englobar la puesta al día de la fecha y hora del sistema, así como la configuración de discos duros y disqueteras. La pantalla de manejo suele ser similar a ésta: Cambiar la fecha y hora no tiene más historia que situarse sobre ella e introducir la nueva, bien mediante el teclado, el ratón, los cursores o las teclas de avance y retroceso de página. Practique un poco con ello, así estará preparado para cuando vaya a cambiar algo más crítico. El tipo de disquetera y pantalla es también sencillo de entender y manejar. Salvo casos prehistóricos la pantalla será VGA o bien EGA, y esto último ya es bastante raro; cuando dice "monocromo" suele referirse a pantallas MGA, ésas de fósforo blanco, verde o ámbar de hace más de diez años, no a las VGA de escala de grises modernas, téngalo en cuenta. Lo más interesante y difícil está en la configuración de los discos duros. En general serán únicamente discos del tipo IDE (incluyendo los EIDE, Ata-4, Ultra-DMA y demás ampliaciones del estándar), en ningún caso SCSI (vaya, casi un pareado, SCSI se dice "es-ca-si") ni otros antiguos como MFM o ESDI, que se configuran de otras formas, por ejemplo mediante otra BIOS de la propia controladora SCSI. En los casos antiguos (muchos 486 y anteriores) podremos dar valores sólo a dos discos duros, que se configuran como Maestro, master, el primero y Esclavo, slave, el segundo, del único canal IDE disponible. En los casos más modernos de controladoras EIDE podremos configurar hasta cuatro, en dos canales IDE, cada uno con su maestro y su esclavo. Para los que no entiendan nada de esto, recomiendo la lectura del apartado Instalar un disco duro. Los campos a rellenar suelen ser: Tipo (Type): o uno predefinido, o Auto para que calcule el ordenador los valores correctos, o User para introducir los valores a mano, o bien None para indicar que no hay ningún disco. Tamaño (Size): lo calcula el ordenador a partir de los datos que introducimos. Cilindros (Cylinders): pues eso, cuántos son. Cabezas (Heads): lo dicho, cuántas son. Precompensación de escritura (WritePrecomp): un parámetro muy técnico, usado sobre todo en los discos antiguos. En los modernos suele ser cero. Zona de aparcado de las cabezas (LandZone): otro tecnicismo, que modernamente suele ser cero o bien 65535 (que en realidad significa cero). Sectores (Sectors): pues eso, cuántos hay por cada pista. Modo de funcionamiento (Mode): para discos pequeños, de menos de 528 MB, el modo Normal. Para discos de más de 528 MB (cualquiera moderno tiene 4 ó 5 veces esa capacidad), el modo LBA o bien el Large, menos usado y sólo recomendado si no funcionara el LBA. En muchos casos se permite la autodetección (opción Auto). Por ejemplo, en la imagen aparece un disco de 420 MB, con 986 cilindros, 16 cabezas... y trabajando en modo Normal, puesto que no supera los 528 MB. Todos estos valores suelen venir en una pegatina adherida al disco duro, o bien se pueden hallar mediante la utilidad de autodetección de discos duros, que se ilustra más adelante. En cualquier caso, generalmente existe más de una combinación de valores posible. Por cierto, los lectores de CD-ROM de tipo IDE no se suelen configurar en la BIOS; así, aunque realmente ocupan uno de los lugares (usualmente el maestro del segundo canal o el esclavo del primero) se debe dejar dichas casillas en blanco, eligiendo None o Auto como tipo. Opciones de la BIOS O generalmente, en inglés, BIOS Features. Se trata de las diversas posibilidades que ofrece la BIOS para realizar ciertas tareas de una u otra forma, además de habilitar (enable) o deshabilitar (disable) algunas características. Las más importantes son: CPU Internal cache: el habilitado o deshabilitado de la caché interna del microprocesador. Debe habilitarse (poner en Enabled) para cualquier chip con caché interna (todos desde el 486). Si la deshabilitamos, podemos hacer que nuestro Pentium 75 vaya como un 386 rápido, lo cual no sirve para nada como no sea jugar a un juego muy antiguo que va demasiado rápido en nuestro ordenador. External Caché: lo mismo pero con la caché externa o de segundo nivel. No tiene tanta trascendencia como la interna, pero influye bastante en el rendimiento. Quick Power On Self Test: que el test de comprobación al arrancar se haga más rápido. Si estamos seguros de que todo funciona bien, merece la pena hacerlo para ganar unos cuantos segundos al arrancar. Boot Sequence: para que el ordenador busque primero el sistema operativo en un disquete y luego en el disco duro si es "A,C" o al revés si es "C,A". Útil para arrancar o no desde disquetes, o en BIOS modernas incluso desde una unidad Zip o SuperDisk internas. Swap Floppy Drive: si tenemos dos disqueteras (A y B), las intercambia el orden temporalmente. Boot Up NumLock Status: para los que prefieran arrancar con el teclado numérico configurado como cursores en vez de cómo números. IDE HDD Block Mode: un tipo de transferencia "por bloques" de la información del disco duro. Casi todos los discos duros de 100 MB en adelante lo soportan. Gate A20 Option: un tecnicismo de la RAM; mejor conectado. Above 1 MB Memory Test: por si queremos que verifique sólo el primer MB de RAM o toda (above = "por encima de"). Lo primero es más rápido pero menos seguro, evidentemente, aunque si no ha fallado nunca ¿por qué debería hacerlo ahora? Memory Parity Check: verifica el bit de paridad de la memoria RAM. Sólo debe usarse si la RAM es con paridad, lo que en la actualidad es muy raro, tanto en FPM como EDO o SDRAM. Las únicas memorias con paridad suelen estar en 486s o Pentium de marca, como algunos IBM. Typematic Rate: para fijar el número de caracteres por segundo que aparecen cuando pulsamos una tecla durante unos instantes sin soltarla. Sólo útil para maniáticos; alguna vez se dice que está para discapacitados, pero me temo que su utilidad en ese sentido es desgraciadamente muy escasa. Numeric Processor: para indicar al ordenador que existe un coprocesador matemático. Puesto que desde la aparición del 486 DX esto se da por supuesto, está en proceso de extinción. Security Option: aunque a veces viene en otro menú, esta opción permite elegir si queremos usar una contraseña o password cada vez que arranquemos el equipo (System), sólo para modificar la BIOS (Setup o BIOS) o bien nunca (Disabled). IDE Second Channel Option: indica si vamos a usar o no el segundo canal IDE (sólo en controladoras EIDE, claro), en cuyo caso le reserva una IRQ, generalmente la 15. PCI/VGA Palette Snoop: esto es demasiado complejo y arriesgado para atreverme a liarle, aunque si quiere una respuesta le diré que se suele utilizar cuando tenemos dos tarjetas de vídeo (o una tarjeta añadida sintonizadora de televisión) y los colores no aparecen correctamente. Remítase al manual de su tarjeta gráfica para ver si debe habilitarlo. Video Bios ROM Shadow: si se habilita, copiará la BIOS de la tarjeta gráfica desde la lenta ROM en la que está a la rápida RAM del sistema, lo que acelera el rendimiento. Suele estar habilitada sin dar problemas, salvo quizá en Linux. (Adaptor) ROM Shadow: lo mismo pero para otras zonas de la BIOS. En este caso se suelen deshabilitar, para evitar problemas innecesarios, aunque puede probar y ver si aumenta la velocidad Autoconfiguración de la BIOS Este apartado comprende diversas opciones que se proporcionan para facilitar la configuración de la BIOS, de las cuales las más comunes son: LOAD BIOS DEFAULTS: carga una serie de valores por defecto con poca o nula optimización, generalmente útiles para volver a una posición de partida segura y resolver problemas observados al arrancar. LOAD SYSTEM DEFAULTS: una opción cuyos efectos varían de unas BIOS a otras. En unos casos carga unos valores por defecto seguros (como LOAD BIOS DEFAULTS), en otros carga unos valores ya optimizados para conseguir un rendimiento adecuado, o incluso puede servir para cargar la última serie de valores guardados por el usuario. LOAD TURBO DEFAULTS: carga los valores que estima óptimos para incrementar el rendimiento. En cualquier caso, debe tenerse en cuenta que los cambios no suelen ser guardados automáticamente, sino que deben confirmarse al salir de la BIOS. Otras utilidades Las BIOS pueden hacer todavía más cosas, dependiendo del modelo en concreto; algunas de las más usuales están a continuación. Autodetección de discos duros IDE Esta opción permite detectar los discos duros que están conectados al sistema, así como su configuración. Resulta muy útil para simplificar la tarea de instalar un disco nuevo, así como cuando los datos del disco no están completos o no parecen funcionar en nuestra BIOS. Su uso es sencillísimo: se entra en este menú y se va detectando cada uno de los cuatro posibles dispositivos IDE. Apunte las opciones que le aparezcan y pruebe a usarlas; recuerde usar el modo LBA para discos de más de 528 MB. Tenga en cuenta que muchas veces sólo por entrar en esta utilidad se alteran automáticamente los valores de configuración del disco, así que después de salir de ella compruebe si los cambios corresponden a los que quería realizar. Control por password Es decir, por una clave de acceso en forma de palabra secreta que sólo conozca usted. Tenga en cuenta que si la olvida se verá en graves problemas, hasta el punto de tener que borrar toda la BIOS para poder volver a usar el ordenador, así que apúntela en algún lugar seguro. Se suele poder seleccionar, bien en un menú específico o en las BIOS Features, entre tener que introducir la clave cada vez que se arranca el ordenador o sólo cuando se van a cambiar datos de la BIOS. Lo primero es el método ideal para seguridad, y además es gratis; lo segundo es útil cuando gente inexperta pero manazas tiene acceso al ordenador (por ejemplo, su sobrinito el tocalotodo). Formateo de disco duro a bajo nivel O, en inglés, HDD Low Level Format. Se trata de un formateo mucho más intenso que el normal; no sólo elimina los datos, sino que reorganiza la propia estructura del disco. Generalmente sólo debe usarse cuando el disco está fallando muy a menudo o ha sido infectado por un virus tremendamente resistente, y aun así no resulta recomendable. Si será duro, que realizarlo ¡suele ser motivo de pérdida de la garantía del disco duro! En fin, si se atreve, ármese con los datos de configuración del disco (cilindros, cabezas...) y rece por no tener que interrumpirlo por nada del mundo, cortes de luz incluidos. Antivirus No, no crea que con esta opción podrá ahorrarse el comprar uno de esos programas antivirus tan tristemente necesarios en los PC. En realidad, lo único que suele hacer esta opción (que en ocasiones tiene un menú propio y en otras se engloba bajo el Standard Setup, tal vez con el nombre de Virus Warning) es no permitir que se escriba sobre la tabla de particiones o el sector de arranque del disco duro, bien sólo durante el arranque o en cualquier momento, dependiendo del modelo concreto de BIOS. La idea es impedir que un virus destroce el disco duro sin darle oportunidad a cargar un disquete de arranque con un antivirus para desinfectar el sistema; no impedirá la infección, pero es una medida más de seguridad y gratis. Por cierto, puede ser necesario deshabilitar esta opción durante la instalación del sistema operativo o al formatear el disco duro, no sea que la BIOS crea que se trata de un ataque viral. Salir de la BIOS Pues es sencillo, pero revisémoslo para los que no entiendan inglés en absoluto. Generalmente existen dos opciones: Save and Exit Setup: o bien Write to CMOS and Exit o algo similar; pues eso, grabar los cambios y salir, con lo cual se reinicia el equipo. Debería pedirle confirmación, en forma de "Y/N?" (Yes o No). Exit Without Saving: o Do Not Write to CMOS and Exit o Discard Changes and Exit o similar; lo contrario, salir sin grabar los cambios. También debería pedir confirmación. Actualizar la BIOS La BIOS maneja temas tan críticos como el soporte de uno u otro microprocesador; además, como programa que es, no está exenta de fallos y se revisa periódicamente para eliminarlos o añadir nuevas funciones. Antiguamente, la única forma de actualizar una BIOS era extraer el chip de BIOS y sustituirlo por otro, lo cual no se lo recomiendo a nadie, tanto por las posibles incompatibilidades como por lo delicado y caro de la operación. Modernamente han aparecido BIOS que pueden modificarse con un simple programa software; se las denomina Flash-BIOS, y no son un invento desdeñable. Lo que es más, la existencia de una de estas BIOS o no debería ser argumento de peso a la hora de comprar una placa base, al menos entre los manitas informáticos. Tenga en cuenta que mantener un registro de BIOS actualizadas es un servicio que sólo ofrecen los grandes fabricantes de placas base... y aun así no siempre se puede encontrar la necesaria actualización. Vaya a Actualizar la BIOS para conocer los pasos concretos a seguir; eso sí, le aviso de que deberá asegurarse de que la operación de actualización no se interrumpe por nada del mundo, así que nada de hacer multitarea, meterle prisa o tocar el teclado mientras se actualiza; son unos segundos, pero de importancia crítica. ¿Adivina qué día del año va a saltar la luz? Efectivamente, justo cuando esté actualizando su BIOS. La BIOS y la pila Como dijimos, la pila conserva los datos de la BIOS cuando el ordenador está apagado. Dura mucho (unos tres años de media), pero al final se agota. Para cambiarla, apunte todos los datos de la BIOS, desconecte todo y sustitúyala por una igual, o bien por un paquete externo de baterías que se conectan a un jumper (un microinterruptor) de la placa base; ambas cosas las debería encontrar en tiendas de electrónica. Después conecte todo, arranque el ordenador, entre en la BIOS y reintroduzca todos los datos, ya que se habrán borrado. ¿Se imagina si no tuviera una copia escrita qué aventura? A mí me pasó hace años, y no me quedó más remedio que aprender sobre BIOS... bueno, no hay mal que por bien no venga. Cómo saltarse la password de la BIOS No, no se trata de hacer ilegalidades en ordenadores ajenos, se trata de saber qué hacer si sufre una repentina amnesia o si la BIOS trae una password ya introducida; por ejemplo, una BIOS con la que luché una vez tenía como password por defecto "AMI", el nombre de su fabricante. Además, en ordenadores de segunda mano pasa no pocas veces. Los métodos son pocos; realmente sólo uno, y muy radical: borrar la BIOS entera. Para ello existen tres formas: Por software tipo "hacker": algunos programas se especializan en destrozar BIOS, y si tiene suerte quizá incluso le digan cuál es la password sin tener que borrar la BIOS. Busque en los "bajos fondos" de Internet... ¡y tenga cuidado con estos programas y con los posibles virus! Mediante un jumper en la placa base: en algunas, no todas, existe un jumper que al cerrarse (al conectarse ambas patillas), y tras unos minutos de espera, permite borrar la BIOS limpiamente. Desconectando la pila: drástico, brutal, pero absolutamente efectivo. En fin, sea como sea, recuerde tener su copia en papel de la BIOS y de la password para no tener que llegar a estos extremos. Configuración avanzada y del chipset Son parámetros que indican qué características del chipset deben habilitarse y cómo. Afecta habitualmente a la memoria RAM, a las cachés (interna y externa) y a veces al micro, a los buses ISA, Vesa, PCI y AGP y a otros dispositivos como los puertos serie y paralelo. Este terreno puede ser algo peligroso, así que apunte todo antes de cambiar nada; lo más fácil es dejar las más opciones que pueda en Auto, aunque con eso puede que no saque el máximo de rendimiento. Y es que para ganar hay que sufrir... Auto Configuration: pues eso, configuración automática; la tabla de salvación cuando no se consigue hacer a mano. Los valores que da tras una primera autoconfiguración pueden ser válidos como punto de partida, así que como siempre, apúntelos antes de modificarlos. ISA Bus Clock: la velocidad del bus ISA, que en teoría debe ser unos 8 MHz. A veces se introduce como una cifra en MHz y otras veces en función del bus del sistema (el PCLK), por ejemplo como 1/3 cuando éste es a 33 MHz, como en los 386 y 486 a 33 MHz o 486 a 66 y 100 (que van a 33 externamente). Cuanto más rápido sea el bus, mejor, pero no se pase: 10 ó 12 MHz ya está bien, más puede ser arriesgado y se supone que las tarjetas ISA no están preparadas para nada por encima de 8. Velocidad de la RAM: en esto existen múltiples formas de proceder. Evidentemente, cuanto mayor le indiquemos que es la velocidad de la RAM más rápido irá el sistema, pero en muchas ocasiones la RAM no es tan rápida o de calidad como sería deseable y la estabilidad del sistema se resiente, sobre todo al cargarlo de trabajo. Los valores que indican esta velocidad son los ciclos de acceso a RAM, los ciclos de espera (Clock Cycles o, a veces, Wait States) que el rápido microprocesador concede a la lenta RAM antes de mandarle o leer de ella la información. En casi todas las BIOS existen opciones para configurar automáticamente estos valores; en algunas BIOS basta con introducir la velocidad en nanosegundos de la memoria, así como su tipo (normal -FPM-, EDO o SDRAM); en otras se debe poner la cifra más baja en ciclos. Por ejemplo, una ráfaga habitual en lectura (Read) puede ser 7-3-3-3, y se suele solicitar ese 3 como valor de DRAM Read Timing o DRAM Read Wait State (o Write para escritura). Para EDO o FPM rápida ese 3 puede ser un 2 y para SDRAM suele ser un 1. El 7 puede ser menor, incluso un 5 si tenemos un buen chipset y memoria rápida. Otras veces se indica la velocidad de la memoria simplemente describiéndola como Slowest, Slower, Faster y Fastest, de menos a más rápida. Así que mire los valores por defecto y vaya subiéndolos (o bajándolos, si son ciclos de espera) de uno en uno, tras lo cual reinicie y observe el rendimiento y la estabilidad del ordenador. Pruebe con Windows 9x, NT o similar, así como con algún juego exigente (mismamente Quake), no con el viejo DOS, que lo soporta casi todo. En cuanto note inestabilidad, vuelva al valor anterior y ya está. Ajustes de la caché: similares a los de la RAM. Algunos consisten en modificar los tiempos de acceso, otros en modificar la forma de acceder a la caché. De cualquier forma, esto depende enteramente de las capacidades de la caché misma, así que juegue poco con estos valores. Para los arriesgados o curiosos, el modo Write Back es mejor que el Write Thru (o Through), aunque no puede usarse siempre. Vídeo y System Cacheable (Shadow): como se comentó en el apartado de opciones de la BIOS, copiar la BIOS de la tarjeta de vídeo o del sistema de la lenta ROM a la rápida RAM o, en este caso, usar la caché para lo mismo. Se supone que debería aumentar el rendimiento, pero puede dar problemas con sistemas operativos de 32 bits modernos. Manejo de dispositivos: hoy en día los chipsets deben manejar las controladoras de dispositivos tales como discos duros, puertos serie, etc., que suelen estar incorporadas a la placa base. No lo explicaremos por ahora, puesto que muchas veces existe un menú dedicado en exclusiva a este apartado, denominado generalmente Integrated Peripherals. Configuración por software de la CPU: en la actualidad, bastantes placas base han dejado de lado el método clásico para configurar la CPU y han optado por soluciones jumperless (literalmente, "sin jumpers"), autodetectando los valores correctos de velocidad de bus, multiplicador y voltaje y/o permitiendo que el usuario los seleccione mediante un sencillo menú en la BIOS. Como ejemplo tenemos el programa SoftMenu presente en las conocidas placas base Abit, entre ellas la BH6, que durante meses ha sido la placa de ensueño para los overclockers. Y es que aunque esta característica ahorra tiempo y complicaciones a cualquiera, donde se ve toda su potencia es cuando queremos ver hasta dónde podemos forzar nuestro micro... sin pasarnos y sabiendo que esto se supone que anula su garantía, ojo. Periféricos integrados Las placas base modernas (desde las de los últimos 486) suelen tener integrados los chips controladores del disco duro, y en muchas ocasiones manejan también las disqueteras, los puertos serie y el puerto paralelo. Por ello, las BIOS tienen diversos apartados para manejar estos dispositivos, entre ellos: Conexión o desconexión de dichas controladoras: de especial importancia en el caso del segundo canal IDE, que en ocasiones está deshabilitado por defecto, y que deberemos habilitar para conectar más de dos dispositivos IDE (o bien uno lento y uno rápido sin mezclarlos en el mismo canal, lo que baja el rendimiento). Modos de acceso a discos duros (PIO y/o UltraDMA): los discos modernos admiten 5 modos PIO, del más lento, el PIO-0 o no soporte de este tipo de acceso (en discos antiguos, de 100 MB o menos), hasta el más rápido, el modo PIO-4. Además, recientemente ha aparecido el modo UltraDMA, aún más rápido. Si la controladora está integrada en la placa base, aquí debe especificar esos datos. Búsquelos en el manual de su disco duro, en Internet en la página del fabricante o bien seleccione Auto y no se complique más. Direcciones e interrupciones (IRQs) de los puertos: bien sean los puertos serie o el paralelo. Resulta muy raro necesitar cambiar los valores por defecto, pero podría ser necesario para evitar conflictos con otros dispositivos que usen esos mismos valores. Tipo de puerto paralelo: el antiguo estándar de puerto paralelo se ha quedado un tanto anticuado hoy en día, sobre todo si lo que queremos conectar no es una impresora sino un escáner o una unidad Zip; por ello, se suele poder seleccionar otras posibilidades más avanzadas como ECP o EPP. Busque en el manual del periférico para saber qué modo debe escoger. Control del puerto de infrarrojos: aunque muy pocas placas base incluyen los adaptadores y cables necesarios, modernamente casi todas traen los conectores para instalar un puerto de infrarrojos en su sistema. Generalmente deberá habilitarse y seleccionar su tipo, dirección de memoria, IRQ y si debe redireccionar la información de COM2 a este puerto. Administración de energía En este menú, relativamente reciente (no se implantó hasta bien entrada la época de los 486), es donde se configuran las características de ahorro de energía del ordenador. Esto puede ser algo totalmente superfluo, por ejemplo si vamos a usar el ordenador de forma continuada al máximo de potencia, o bien algo fundamental, como ocurre en ordenadores portátiles o sencillamente si tenemos la mala costumbre de encender el ordenador al llegar a la oficina y no apagarlo hasta la hora de salir, tanto si lo vamos a usar como si no. Power Management: literalmente, administración de energía. Es donde se selecciona si queremos habilitar el ahorro de energía y de qué forma; generalmente se ofrecen Disable (deshabilitado), User define (definido por el usuario) y algunas opciones predeterminadas para un ahorro mínimo o máximo. PM Control by APM: una opción muy importante; determina si el control de energía deberá hacerse según el estándar APM (Advanced Power Management, administración avanzada de energía), lo que entre otras cosas permite que Windows sea capaz de suspender el equipo a voluntad o, si utilizamos una fuente ATX, que el sistema efectivamente se apague al pulsar "Apagar el sistema" en el menú Inicio. Video Off Method: ofrece diversas opciones para reducir el consumo del sistema de vídeo, de las cuales la más interesante es DPMS, aunque no todos los monitores y tarjetas gráficas la soportan; lea el manual de estos aparatos para estar seguro, aunque si son modernos y de cierta calidad es muy probable que la incorporen. La opción Blank Screen es simplemente un salvapantallas negro, lo que puede ser útil en DOS. PM Timers: para controlar el tiempo que debe permanecer inactivo el ordenador (System) o el disco duro (HDD) antes de que se active el ahorro de energía. Existen 3 grados de ahorro de energía: o Doze: reduce la velocidad de la CPU (el microprocesador). o Standby: reduce la actividad de todo el ordenador. o Suspend: reduce al mínimo la actividad del ordenador; sólo debe utilizarse con CPUs tipo SL, como son la mayoría de los 486 rápidos y superiores. PM Events: una larga serie de eventos o sucesos que deben ser controlados para saber si el ordenador está inactivo o trabajando. Es habitual no controlar (Disable) la actividad de la IRQ8 (reloj de la BIOS), ya que rara vez se la puede considerar como totalmente inactiva. CPU Fan Off in Suspend: si el ventilador de la CPU va conectado a la placa base, lo apaga cuando el equipo está en suspenso, ya que en ese momento la CPU está prácticamente parada. Modem Wake Up: activa el equipo cuando se detecta una llamada entrante en el módem. Necesita que el módem soporte esta característica y que esté conectado a la placa base mediante un cable especial. LAN Wake Up: igual que la anterior, pero para la tarjeta de red. También necesita estar conectado a la placa base mediante un cable. Configuración de PNP y slots PCI Un menú lleno de opciones complicadas (en esta página pocas no lo son), de la clase que sería deseable no tener que alterar nunca; ése es mi consejo, escoja Auto todas las veces que pueda, pero si tiene algún conflicto entre dispositivos (misma IRQ, sobre todo)... Probablemente se pregunte qué tiene que ver PNP con PCI; pues bien, la gran mayoría de dispositivos PCI soportan PNP, a diferencia de las tarjetas ISA, mucho más problemáticas. Por eso, si su placa no tiene slots PCI (como las primeras para 486), no se extrañe si este menú no aparece. Ah, para el que no lo conozca, el Plug&Play, PNP o P&P, es una tecnología que facilita la conexión de dispositivos, ya que se supone que basta con enchufar y listo. Claro que no todos los dispositivos son PNP ni es una tecnología perfecta, si fuera así este menú no existiría... PNP OS Installed: informa al sistema de si hay un sistema operativo PNP instalado, es decir, uno que soporta Plug&Play, como Windows 95 (o eso dicen que hace...), en cuyo caso pasa a éste el control de los dispositivos PNP. De cualquier forma, muchas veces lo que esta casilla indique no afecta al correcto funcionamiento del sistema. Resources Controlled by: pues eso, recursos controlados bien manual, bien automáticamente. De nuevo, muchas veces es indiferente una u otra opción... siempre que no haya problemas, claro. IRQx/DMAx assigned to: una lista de las interrupciones (IRQs) y canales DMA que podemos asignar manualmente, bien a tarjetas PCI/ISA PnP (compatibles con PNP), bien a tarjetas Legacy ISA (tarjetas ISA no PNP, que son las más conflictivas). Necesitaremos conocer los valores de IRQ y/o DMA a reservar, que vendrán en la documentación del dispositivo problemático. PCI IDE IRQ Map to: algo que muy probablemente no necesite cambiar nunca, ya que sólo afecta a controladoras IDE no integradas en la placa base, sino en forma de tarjeta, que no sean PNP. Assign IRQ to USB: pues eso, si el puerto USB debe tener una interrupción asignada o no. Si no tiene ningún dispositivo USB conectado (¿y quién los tiene hoy en día?) puede liberar esa IRQ para otros usos; suele ser la misma interrupción que para uno de los slots PCI o ISA. PUERTOS Puerto paralelo (impresora) Puertos paralelo §1 Sinopsis Los diseñadores del IBM PC previeron la posibilidad de conectar impresoras, para lo que podían instalarse hasta tres puertos de salida paralelo de funcionamiento simultaneo, numerados 0, 1 y 2, así como los servicios correspondientes en la BIOS . Nota: Aunque internamente los puertos se identifican por sus números, empezando por el 0, se han popularizado los alias utilizados por el MS DOS: LPT1, LPT2 y LPT3, que son equivalentes a los números. En los primeros modelos la placa-base no disponía de ningún adaptador de puerto paralelo, por lo que debían instalarse tarjetas auxiliares. Generalmente estas tarjetas eran multi-uso; montaban uno o dos puertos paralelo e incluso puertos serie. En otros casos el puerto paralelo era incluido junto con un adaptador de video. §2 Recursos del puerto paralelo Cada adaptador de puerto paralelo tiene tres direcciones sucesivas que se corresponden con otros tantos registros que sirven para controlar el dispositivo. Son el registro de salida de datos; el registro de estado y el registro de control. El registro de salida es la dirección en que hay que poner cualquier carácter que sea dirigido al puerto (generalmente una impresora); el de estado contiene información sobre el dispositivo conectado, en especial la ocurrencia de posibles errores. El registro de control permite inicializar el puerto y controlar la transferencia. La dirección del registro de salida de los puertos 0, 1 y 2, denominadas dirección-base del adaptador, están contenidas respectivamente en las direcciones 00408, 0040A y 0040C de la memoria de la ROM-BIOS ( H4). Estas direccones de base son inicializadas a cero si no existe el adaptador correspondiente. En la tabla adjunta se han indicado las direcciones e interrupción usadas por cada puerto, aunque esta asignación no es siempre consistente, y debería ser investigada. R. de salida LPT1 378 LPT2 278 LPT3 3BC Puerto R. de estado 379 279 3BD R. de IRQ control 37A 7 27A 5 3BE 7 . Puerto paralelo estándar Como puede verse, los diseñadores del PC no pensaron en la posibilidad de utilizar los puertos paralelo para recibir datos (no existe un subservicio BIOS para leer en el puerto paralelo); eran solo de salida. Este puerto original es denominado SSP ("Standard Parallel Port"), y su modo de operación modo compatible. Aunque originalmente no estaban preparados para recibir datos, mediante ciertos artificios se consiguió que los puertos SPP también pudieran recibir datos, un nibble (4 bits) cada vez. Este tipo de operación, 8 bits de salida y 4 de entrada se denomina modo nibble. Nota: Los puertos actuales de características mejoradas (ver a continuación) tienen también los modos compatible y nibble para compatibildad con el software anterior. §5 Nuevos puertos paralelo §5.1 Puerto paralelo extendido Ante la necesidad de conectar dispositivos rápidos y de recibir información por el puerto paralelo, IBM incluyó un puerto de impresora bidireccional de alta velocidad en su sistema PS/2 presentado en 1987. Esta solución fue rápidamente adoptada por la industria del PC, dando lugar un puerto bidireccional de características mejoradas respecto del SSP tradicional. El EPP ("Enhanced Parallel Port"), del que existen dos versiones ligeramente diferentes, la 1.7 (que se formalizó en el estándar IEEE 1284) y la 1.9 que es posterior. Este tipo de puertos opera a velocidades entre 0.5 y 2 MBps, y además de impresoras puede servir para conectar dispositivos como escáneres y unidades de disco o de red externas. En los sistemas actuales suele venir incluido en el chipset de la placa-base. §5.2 Puerto paralelo mejorado En 1992, Microsoft y HP presentaron otra versión de puerto paralelo bidireccional de alta velocidad denominado ECP ("Extended Capabilities Port"). Este nuevo diseño, que dispone de acceso directo a memoria, utiliza generalmente el canal 3 DMA, y opera entre 2 y 4 MBps. Los equipos modernos suelen disponer de puertos paralelo multimodales, en los que el modo de utilización puede ser establecido mediante el programa de setup de la BIOS. En estos casos la configuración por defecto suele ser compatibilidad ECP. §5.3 Recursos de los nuevos puertos paralelo Los puertos mejorados utilizan más recursos que los tradicionales SPP. Además de las direcciónes-base (378h, 278h, 3BCh ), utilizan cuatro direcciones adicionales. Con el fin de facilitar la operación PnP, además de las tradicionales IRQ 5 y IRQ 7 (mantenidas por compatibilidad), pueden utilizar cuatro o cinco IRQs adicionales. Si el dispositivo utiliza acceso directo a memoria, como es el caso de los puertos ECP, pueden utilizar dos canales DMA. §6 El cable y conectores de impresora El cable tradicional de impresora tiene 25 hilos; el conector del lado del PC es un DB-25 macho (conocido como IEEE 1284-A), la hembra está en el PC. El lado de la impresora tiene un conector CN-36 Centronics de 36 pines macho (la hembra está en la impresora). En la tabla adjunta se muestra la distribución de pines. Señal DB25 36-Cen Strobe 1 1 Data Bit 0 2 2 Data Bit 1 3 3 Data Bit 2 4 4 Data Bit 3 5 5 Data Bit 4 6 6 Data Bit 5 7 7 Data Bit 6 8 8 Data Bit 7 9 9 Acknowledge 10 10 ConectorxDBx25M ConectorxCNx36M ConectorxminixCentronics Actualmente se está utilizando un nuevo tipo de conexión. El conector del lado de la impresora es un micro Centronics de 36 pines, conocido como IEEE 1284-C. Busy 11 11 Paper Out 12 12 Select 13 13 Autofeed 14 14 Error 15 32 Reset 16 31 Select 17 36 Signal Ground 18 33 Signal Ground 19 19,20 Signal Ground 20 21,22 Signal Ground 21 23,24 Signal Ground 22 25,26 Signal Ground 23 27 Signal Ground 24 28,29 Signal Ground 25 30,16 Carcasa Carcasa+17 Protección Por su parte, el cable está formado por pares tranzados similares a los utilizados en redes con el fin de minimizar los efectos del ruido y las interferencias. Puerto Serie (Mouse) Los diseñadores del IBM PC ya previeron la posibilidad de comunicación serie, para lo que posibilitaron la instalación de hasta 7 puertos de comunicaciones serie asíncronas RS-232.C (aunque es raro instalar más de dos); para atender estos puertos dispusieron de los correspondientes servicios en la BIOS . En los primeros modelos la electrónica necesaria no estaba incluida en la placa-base, por lo que los puertos debían instalarse en adaptadores de tarjeta que se insertaban en cualquiera de los zócalos disponibles. Las direcciones de puerto utilizadas son las siguientes: 2E8-2EF (COM4); 2F8-2FF (COM2); 3E8-3EF (COM3); 3F8-3FF (COM1). Los adaptadores generalmente utilizan las interrupciones IRQ3 (COM2, COM4) y IRQ4 (COM1, COM3). La comunicación serie ha permitido conectar diversos dispositivos al ordenador, como un ratón; una impresora u otro ordenador, aunque su aplicación principal han sido las telecomunicaciones a través de módem. §2 El estándar RS-232 RS-232.C significa literalmente "Recomended Standard 232 revisión C" (también conocida como EIA 232). Es un estándar publicado en 1969 por la EIA ("Electronic Standard Association") que define las características eléctricas que deben presentar los elementos de conexión para la comunicación serie entre ordenadores y equipos periféricos [1]. Su título dice exactamente: "Conexión entre un Equipo Terminal de Datos y un Equipo de Comunicación de Datos empleando un intercambio de datos binario serie", y comprende diversos apartados: Características eléctricas de la conexión Características mecánicas de la conexión Descripción funcional del intercambio, proporcionando nombres a las señales utilizadas. Conexiones ejemplo para una selección de sistemas de comunicación Como puede verse en el propio título del estándar, en la comunicación serie se distinguen dos tipos de dispositivos: Los equipos terminales de datos DTE ("Data Terminal Equipment"), y los equipos de comunicación de datos DCE ("Data Communication Equipment"). En la terminología de las comunicaciones serie se denomina "Sexo" de un equipo a su tipo; en este sentido DTE y DCE son "sexos" contrarios. A efectos prácticos el sexo del equipo determina que asignación de señales tendrá su conector externo . Recordemos que en la comunicación serie, como en cualquier otra comunicación informática, existen dos aspectos complementarios: Uno relativo a las características físicas de la conexión; en este caso las características eléctricas y mecánicas, aspectos que están contemplados en el estándar RS-232 (a estos elementos los denominaremos capa física). Otros son los protocolos de comunicación, que incluyen los sistemas de codificación de la señal que se enviará por la capa física (los denominamos capa lógica). En la comunicación serie los bits se transmiten uno detrás de otro (de ahí el nombre), lo que hace que sean mucho más lentas que sus homólogas "paralelo" en las que se transmiten varios bits a la vez. La ventaja es que puede utilizarse un solo par de hilos, o incluso uno solo (si el retorno se realiza por la tierra). Existen varias formas de transmisiones serie: Simplex: Un equipo transmite, el otro recibe. Half-duplex: Transmiten ambos equipos pero no simultáneamente; los equipos se alternan en la transmisión, uno transmite mientras el otro recibe. Full-duplex: Ambos equipos transmiten simultáneamente. Para ello se requieren dos líneas independientes, transmisión y recepción; la línea de transmisión de un equipo se conecta a la entrada de recepción del otro y viceversa. Los puertos serie del PC son capaces de utilizar este modo. Síncronas: Los dispositivos que comunican se sincronizan en el momento inicial de la transmisión y constantemente se intercambian información a una cadencia predefinida. Con objeto de mantener la sincronización, cuando no existen datos que enviar se transmiten caracteres sin valor ("idle characters"). Esta transmisión es más rápida que la asíncrona porque no es necesario transmitir señales de inicio o fin de dato; constantemente se reciben caracteres que pueden ser de datos o sin valor (de relleno). Asíncronas: En este modo de transmisión no existe sincronización; no es necesario enviar caracteres de relleno, pero hay que indicar cuando empieza un dato y cuando termina. Esto se hace incluyendo en la transmisión señales de inicio y fin de dato (bits de "start" y "stop"). En la comunicación asíncrona, la información (cada carácter) es enviada en el interior de un cuadro ("Frame") de tamaño variable, que comienza con la mencionada señal de inicio y termina con la de final; es el tipo de comunicación utilizada en los puertos serie del PC [7]. En este tipo de comunicación, el estado de reposo (cuando no se transmite nada) se identifica con un "1" (marca). Cuando se recibe un bit de inicio, que es un "0" (espacio), el receptor toma nota que va a comenzar a recibir un dato. Nota: Esta forma de asignación aparentemente ilógica (llamar "1" -marca- a la ausencia de señal), tiene también sus orígenes en el telégrafo (las comunicaciones utilizadas en telégrafos y teleimpresores eran asíncronas), donde se constató que había menos errores si se utilizaba siempre una tensión en la línea (para indicar reposo) y se cambiaba para señalar el dato. Este sistema tiene la ventaja adicional que el receptor puede distinguir una línea ociosa de una desconectada. Esta forma de operación es también el origen de un malentendido respecto a las transmisiones por módem, que utilizan un equivalente audible de las tensiones de señal (ver a continuación el apartado Características Eléctricas ). En este caso, los dos estados de tensión han sido sustituidos por dos tonos audibles; el estado de reposo (marca) está señalado por el tono más elevado, de modo que cuando no existe transmisión se está transmitiendo un tono que ha sido erróneamente interpretado como señal de portadora, circunstancia reforzada por el nombre de la señal CD (Carrier Detect) que en realidad debía denominarse Detección de Señal de Recepción. Los parámetros que caracterizan estas comunicaciones son: Velocidad; paridad; bits de datos y bits de parada. En la literatura sobre el tema es frecuente expresar estos datos en forma resumida. Por ejemplo: 1200 8 N 1 para indicar una transmisión de 1200 baudios con 8 bits de datos sin paridad y un bit de Stop. Los parámetros anteriores están relacionados con la forma en que se transmite la información serie. En esta comunicación cada carácter va incluido en un cuadro ("Frame"); generalmente el comienzo es un bit de inicio (siempre un 1); después le sigue el dato, que puede ser de 5 a 8 bits de longitud; después puede haber un bit de control de paridad, y por último un bit final (siempre es un 1) de longitud variable (el equivalente a 1, 1.5 o 2 bits). §3.1 Velocidad de transmisión ("Connection speed") es la cantidad de datos transmitidos en unidad de tiempo. Se expresa en bits por segundo (bps). En las transmisiones serie a través de líneas telefónicas, en las que se emplean módems ( H11.1) era frecuente utilizar como medida de velocidad el Baudio ("Baud rate"), en honor de Emile Baudot, al que ya hemos hecho referencia [1b]. Baudio se define como el número de veces que cambia la portadora en un segundo. La velocidad que puede emplearse depende en gran medida de la calidad del medio de transmisión (calidad de la línea), que si (como es frecuente) se trata de líneas telefónicas, depende a su vez de la distancia. Los primeros dispositivos serie operaban a velocidades muy bajas, del orden de 110 a 1200 baudios [2]. Actualmente las comunicaciones serie telefónicas están muy cerca del máximo teórico que pueden soportar los pares de cobre utilizados en la telefonía estándar. §3.2 Longitud del carácter ("Char length"). Se han utilizado caracteres de 5, 6, 7 y 8 bits, aunque actualmente los datos son enviados como caracteres ASCII, por lo que pueden utilizarse 7 u 8 bits según se trate del juego de caracteres US-ASCII o el extendido ( E2.2.1a). El conjunto de bits que componen un carácter se denominan bits de dato ("Data bits") §3.3 Paridad ("Parity"). Para poder comprobar la calidad de la transmisión se suele utilizar un sistema de control de paridad que añade un bit a los bits de datos. Los sistemas utilizados son: Paridad par ("Even") Paridad impar ("Odd") Paridad marca ("Marck") Paridad espacio ("Space") Sin paridad (no se añade ningún bit de paridad al datagrama) Los sistemas de paridad par e impar se ha explicado al tratar de la memoria ( H5.3); ambos métodos cuentan el número de unos contenidos en los bits de datos y añade un uno o un cero según el resultado. Por su parte la paridad Mark indica que se incluirá siempre una marca (bit de valor "1") como bit de paridad, mientras que la paridad Space añade siempre un espacio ("0"). Evidentemente estos dos últimos sistemas no aportan absolutamente ninguna información, por lo que son usados muy raramente. §3.4 Bits de parada ("Stop bits"). Después que se envía un carácter se envía un bits de parada, que tienen el valor "1" (marca); la duración de este bit puede ser 1, 1.5 o 2 periodos. Conector de 25 pin (en el PC): Conector de 9 pin (en el PC): PIN-9 PIN-25 DESCRIPCION 1 8 Carrier Detect (DCD/CD); Detección de portadora. 2 3 Receive Data (RXD/RD); Entrada de datos. 3 2 Transmit Data (TXD/TD); Salida de datos. 4 20 Data Terminal Ready (DTR); Indica que el puerto está preparado. 5 7 Signal Ground (GND/SG); Proporciona la referencia cero de voltaje. 6 6 Data Set Ready (DSR); Datos preparados, listo para recibir. 7 4 Request to Send (RTS); Petición de envio de datos. 8 5 Clear to Send (CTS); Indica que se desea transmitir. 9 22 Ring Indicator (RI); Anuncia una llamada al otro dispositivo. - 9-19 No empleadas - 1 Masa del chasis (GND) Voltajes máximos entre -15V y +15V. Salidas binarias entre +5V a +15V y -5V a -15V. Entradas binarias entre +3V a +15V y -3V a -15V. Voltajes de entrada entre -3V a +3V y voltajes de salida entre -5V a +5V son indefinidos. Voltajes positivos indican ON o ESPACIO, voltajes negativos indican OFF o MARCA. USB Puertos USB §1 Antecedentes Hemos señalado repetidamente que el PC adolece de una serie de deficiencias que podíamos llamar "congénitas", heredadas de un diseño deficiente en algunos aspectos [1], entre las que cabría destacar la escasez de determinados recursos; básicamente líneas de interrupción IRQs ( H2.4), y canales de acceso directo a memoria DMA ( H2.3). En ambos casos las capacidades del diseño inicial tuvieron que ser dobladas en 1984, tres años después de su lanzamiento, aprovechando la aparición de la gama AT. La instalación de periféricos ha sido un constante quebradero de cabeza para los ensambladores, que debían asignar los escasos recursos disponibles entre los dispositivos del sistema. En este sentido, aunque el estándar PnP ("Plug and Play") vino a aliviar en parte las dificultades mecánicas de cambiar "jumpers" en las placas, el problema seguía ahí, ya que desde la aparición del AT el diseño del PC no había sufrido cambios sustanciales. Como resultado de un intento de dotar al PC de un bus de alta velocidad que ofreciera las características ideales PnP de universalidad, facilidad de conexión y desconexión, incluso en caliente ("Hot Swappable"), y sobre todo, que consumiese pocos recursos, Intel y otros líderes de la industria diseñaron el denominado puerto USB Universal Serial Bus, que como su nombre indica, es un bus serie, bidireccional y de bajo coste; diseñado como una extensión en la arquitectura estándar del PC, orientado principalmente en la integración de periféricos, que aparecen como un solo puerto en lo que se refiere a utilización de recursos. Nota: En sus orígenes el interés primordial del bus USB se centraba en la integración de dispositivos telefónicos CTI ("Computer Telephony Integrations") en los ordenadores. §2 Estándares La tecnología USB ha sido promovida principalmente por Intel, aunque le han seguido todos los grandes fabricantes, de forma que se ha convertido en un estándar importante. En sus comienzos los interesados en esta tecnología se agruparon en un foro, el USB Implementers Forum Inc., USB-IF, que agrupa a más de 460 compañías [4], y ha publicado diversas revisiones de la norma: USB 0.9: Primer borrador, publicado en Noviembre de 1995. USB 1.0: Publicada en 1996 establece dos tipos de conexión: La primera, denominada velocidad baja ("Low speed"), ofrece 1.5 Mbps, y está pensada para periféricos que no requieren un gran ancho de banda, como ratones o joysticks. La segunda, denominada velocidad completa ("Full speed"), es de 12 Mbps, y está destinada a los dispositivos más rápidos. USB 1.1: Publicada en 1998, añade detalles y precisiones a la norma inicial; es el estándar mínimo que debe cumplir un dispositivo USB. USB 2.0: Su versión final fue publicada en Abril del 2000; es una extensión de la norma compatible con las anteriores. Permite velocidades de hasta 480 Mbps, denominada alta velocidad ("High speed") Un buen sitio para información al respecto es USB.org, patrocinado por el USB-IF: http://www.usb.org §3 Historia El primer ordenador que incluyó un puerto USB de forma estándar fue el iMac de Apple, presentado en Marzo de 1998, que utilizaba esta conexión para el teclado y el ratón. Por su parte el mundo del PC solo comenzó a utilizarlo cuando Microsoft introdujo los controladores correspondientes en la versión OSR 2.1 de Windows 95. Fue a partir de Windows 95C cuando los sistemas de MS incorporan de forma estándar soporte para este bus; en el ámbito de servidores la incorporación se produjo en Windows 2000. Los primeros dispositivos que empezaron a utilizar masivamente este tipo de conexión fueron las cámaras de video-conferencia, aunque actualmente pueden encontrarse todo tipo de dispositivos dotados con este tipo de conexión. §4 Topología del bus El bus USB soporta intercambio simultaneo de datos entre un ordenador anfitrión y un amplio conjunto de periféricos. Todos los periféricos conectados comparten el ancho de banda del bus por medio de un protocolo de arbitraje basado en testigos ("Tokens"). El bus permite conexión y desconexión dinámica, es decir, que los periféricos se conecten, configuren, manipulen y desconecten mientras el sistema anfitrión y otros periféricos permanecen en funcionamiento. La topología del bus USB adopta forma de estrella y se organiza por niveles. En un bus USB existen dos tipos de elementos: Anfitrión ("host") y dispositivos; a su vez, los dispositivos pueden ser de dos tipos: concentradores y funciones [2]. Los concentradores ("Hubs") son el centro de una estrella, y sirven para conectar con el sistema anfitrión, con otro hub o con una función. Cada hub puede proporcionar 500 mA de energía de alimentación (hasta 2.5 W) a cada uno de los dispositivos a él conectados, ya que el cable de conexión tiene hilos de señal (datos) y de alimentación (5 V. cc ± 0.25 V). Una función es un dispositivo capaz de transmitir o recibir datos o información de control en un bus USB, suele conectarse como un dispositivo independiente enlazado por un cable de menos de 5 metros, a un puerto del hub o directamente al sistema anfitrión. De esta descripción se desprende que cada segmento del bus representa una conexión apunto a punto de alguno de los tipos siguientes: Sistema anfitrión Función Sistema anfitrión Concentrador Concentrador Concentrador Concentrador Función. Que un hub pueda estar conectado a otro hub, significa que pueden conectarse dispositivos en cascada; el sistema soporta un total de 127 dispositivos. Una característica importante es que el PC anfitrión o el concentrador proporcionan la energía necesaria a la función por el cable de conexión (que transporta fuerza y datos ), lo que evita la necesidad de fuentes de alimentación independientes. §4 Funcionamiento El bus serie USB es síncrono, y utiliza el algoritmo de codificación NRZI ("Non Return to Zero Inverted"). En este sistema existen dos voltajes opuestos; una tensión de referencia corresponde a un "1", pero no hay retorno a cero entre bits, de forma que una serie de unos corresponde a un voltaje uniforme; en cambio los ceros se marcan como cambios del nivel de tensión, de modo que una sucesión de ceros produce sucesivos cambios de tensión entre los conductores de señal. El controlador USB instalado en el ordenador, denominado controlador de host, o concentrador raíz ("Root hub"), proporcionan un enlace entre el bus de la placa-base, por ejemplo PCI, y una o más conexiones iniciales con el exterior (generalmente 2 conectores del tipo "A" ). A partir de estas, utilizando concentradores adicionales, pueden conectarse más dispositivos. Actualmente la mayoría de las placas-base incluyen un controlador USB integrado en el chipset. Para sistemas antiguos que no dispongan de USB pueden instalarse tarjetas PCI (e incluso PC-CARD para portátiles) que incluyen un controlador y uno o dos conectores de salida. El protocolo de comunicación utilizado es de testigo, que guarda cierta similitud con el sistema Token-Ring de IBM. Puesto que todos los periféricos comparten el bus y pueden funcionar de forma simultanea, la información es enviada en paquetes; cada paquete contiene una cabecera que indica el periférico a que va dirigido. Existen cuatro tipos de paquetes distintos: Token; Datos; Handshake, y Especial; el máximo de datos por paquete es de 8; 16; 32 y 64 Bytes. Se utiliza un sistema de detección y corrección de errores bastante robusto tipo CRC ("Cyclical Redundancy Check"). El funcionamiento está centrado en el host, todas las transacciones se originan en él; es el controlador host el que decide todas las acciones, incluyendo el número asignado a cada dispositivo (esta asignación es realizada automáticamente por el controlador "host" cada vez que se inicia el sistema o se añade, o elimina, un nuevo dispositivo en el bus), su ancho de banda, etc. Cuando se detecta un nuevo dispositivo es el host el encargado de cargar los drivers oportunos sin necesidad de intervención por el usuario. El sistema utiliza cuatro tipo de transacciones que resuelven todas las posibles situaciones de comunicación. Cada transacción utiliza un mínimo de tres paquetes, el primero es siempre un Token que avisa al dispositivo que puede iniciar la transmisión. Transferencia de control ("Control transfer"): Ocurre cuando un dispositivo se conecta por primera vez. En este momento el controlador de host envía un paquete "Token" al periférico notificándole el número que le ha asignado. Transferencia de pila de datos ("Bulk data transfer"): Este proceso se utiliza para enviar gran cantida de datos de una sola vez. Es útil para dispositivos que tienen que enviar gran cantidad de datos cada vez, como escáneres o máquinas de fotografía digital. Transferencia por interrupción ("Interrupt data transfer"): Este proceso se utiliza cuando se solicita enviar información por el bus en una sola dirección (de la función al host). Transferencia de datos isócrona ("Isochronous data transfer"): Este proceso se utiliza cuando es necesario enviar datos en tiempo real. Los datos son enviados con una cadencia precisa ajustada a un reloj, de modo que la transmisión es a velocidad constante. Nota: Las comunicaciones asíncronas ponen más énfasis en garantizar el envío de datos, y menos en su temporización ("cuando" lleguan); por su parte las comunicaciones isócronas son justamente lo contrario, ponen más énfasis en la oportunidad de la transmisión que en la velocidad. Esta sincronización es importante en situaciones como la reproducción de video, donde no debe existir desfase entre las señales de video y audio. §5 Cables y conectores El cable de bus USB es de 4 hilos, y comprende líneas de señal (datos) y alimentación, con lo que las funciones pueden utilizar un único cable. Existen dos tipos de cable: apantallado y sin apantallar. En el primer caso el par de hilos de señal es trenzado; los de tierra y alimentación son rectos, y la cubierta de protecció (pantalla) solo puede conectarse a tierra en el anfitrión. En el cable sin apantallar todos los hilos son rectos. Las conexiones a 15 Mbps y superiores exigen cable apantallado. Pin Nombre Descripción Color 1 VBUS + 5 V. CC rojo 2 D- Data - azul 3 D+ Data + amarillo 4 GND Tierra verde Nota: Una forma de identificar que los concentradores (hubs) USB están realmente adaptados a la norma 2.0 es por su cable apantallado. AWG mm Ø long. máx. 28 0.321 0.81 m 26 0.405 1.31 m 24 0.511 2.08 m 22 0.644 3.33 m 20 0.812 5.00 m Se utilizan diámetros estándar para los hilos de alimentación del bus. Para cada sección se autoriza una longitud máxima del segmento. En la tabla izquierda se muestran estas distancias [3]; a la derecha se muestran la disposición de pines y colores de identificación. Se usan dos tipos de conectores, A y B. Ambos son polarizados (solo pueden insertarse en una posición) y utilizan sistemas de presión para sujetarse; los de tipo A utilizan la hembra en el sistema anfitrión, y suelen usarse en dispositivos en los que la conexión es permanente (por ejemplo, ratones y teclados). Los de tipo B utilizan la hembra en el dispositivo USB (función), y se utilizan en sistemas móviles (por ejemplo, cámaras fotográficas o altavoces). En general podemos afirmar que los conectores tipo A están en el lado del host (PC) o de los concentradores (hubs), mientras los de tipo B están del lado de los periféricos. Conector USB A Conector USB B MODULO II BIOS Ahora nos meteremos un poco con la famosa y misteriosa BIOS, también llamado el "SETUP" (recuerda que se accede pulsando la tecla SUPR mientras hace el test de memoria al arrancar, aunque en otras placas más raras se hace con F1 o combinaciones de otras teclas). Ante todo tenemos que decirte que no existe la configuración de BIOS perfecta, sino que cada una de las configuraciones posibles se hace con un propósito (conseguir la mayor velocidad en los gráficos, conseguir el funcionamiento de disco duro más eficiente, el acceso a memoria más rápido). El aumentarle en un punto le hará bajar en los demás. En realidad la configuración más ideal es la que viene por defecto, pero esta última suele traer unos valores un tanto "holgados" para ofrecer máximas compatibilidades. Pongamos un ejemplo: en las bios que soportan RAM y RAM EDO, hay una opción que permite aumentar la velocidad de este segundo tipo. Sin embargo, si esa opción la utilizamos con el primer tipo habría problemas, por lo que la opción determinada es ese acceso un poco más rápido quitado, con el fin de que vaya bien con las dos memorias. Antes de comenzar, ten en cuenta de que hay dos métodos para restaurar los valores iniciales en caso de error: uno es la opción LOAD SETUP DEFAULTS, que permitirá cargar los valores por defecto. La otra opción es factible en el caso de que el ordenador no arranque. En este caso, habrá que cambiar el jumper de la placa base que sirve para borrar la CMOS (chip donde la BIOS guarda sus valores, recuerda que la BIOS está en una memoria ROM, Read Only Memory -> memoria de sólo lectura). Si carece de dicho jumper, habrá que quitar la pila de litio que alimenta a la CMOS. Si la pila está soldada a la placa base, lee la frase que viene a continuación: Y nos queda por decir lo típico, que no nos responsabilizamos de los posibles problemas ocasionados por la mala utilización de estos consejos sobre la BIOS, y que se menciona con un propósito meramente informativo. Es sólo para usuarios avanzados. Así que quedas avisado. Aunque te todas formas no hay demasiado peligro. Si hay alguna opción que no entiendes, no la toques. También recuerda apuntar en papel todos los valores anteriores en caso de perder rendimiento y no verte obligado a usar la opción LOAD BIOS DEFAULTS Dicho esto, te comentaremos todos y cada uno de los valores de la BIOS en cada una de sus secciones. Dado que no todas las BIOS son iguales, habrá opciones que estén en las antiguas o en las nuevas, aunque trataremos de decir lo más posible: STANDARD CMOS SETUP Fecha y hora. Pues eso, la fecha y la hora. Recuerda que si tienes Windows 95 OSR2 o Windows 98 más una placa base de última generación ésta será la hora que te aparecerá en la barra de tareas de Windows, así que pon la correcta). Primary Master/Primary Slave/Seconday master/Secondary Slave: si tu BIOS es de las nuevas, déjalo en TYPE AUTO para quitarte problemas (lo detecta todo correctamente) y pasa al siguiente apartado. Si no tienes auto, sigue leyendo: TYPE: 1-46, son discos duros predefinidos; USER es el introducido por el usuario o el detectado por el IDE HDD AUTO DETECTION (recomendamos usarlo), y AUTO es lo que hemos dicho en el párrafo anterior. CYLS, HEAD, SECTOR: son los cilindros, cabezas y sectores. Es muy importante saberlo, especialmente si la opción IDE HDD AUTO DETECTION nos presenta las tres opciones del MODE (NORMAL, LARGE y LBA). Si no los sabes, ya puedes ir comenzando a desmontar el ordenador y mirar la pegatina del disco duro. PRECOMP Y LANDZ: son dos valores arbitrarios y casi podemos meter el número que nos dé la gana sin que afecte al rendimiento. Se puede poner un 0 (cero) en ambos casos, y en el segundo también un 65535. Por ejemplo, el LANDZ es el lugar donde se coloca el brazo lector del disco duro al principio. MODE: es el método de acceso a los discos duros. NORMAL es el modo de acceso tradicional, de menos de 528 Mb., LBA es para más de 528 Mb. y LARGE es para discos de 528 Mb. sin LBA. Al menos ésta es la teoría, pues nosotros tenemos un disco IDE de 6,3 Gb. y el IDE HDD AUTO DETECTION sólo muestra la opción NORMAL. También aparece una opción AUTO para que lo detecte solo. FLOPPY DRIVE A/FLOPPY DRIVE B. Con esto pondremos el tipo de unidad de disquete que se está utilizando en ese momento, con una relación entre el tamaño del disquete y su tamaño en pulgadas. Si tienes una sola unidad recuerda ponerla como A: y dejar la B: vacía BOOT SECTOR VIRUS PROTECTION: Esto también puede situarse en el apartado BIOS FEATURES SETUP. Hay que dejarlo en DISABLED sobre todo cuando instalamos el Windows. BIOS FEATURES SETUP Aquí suelen diferir unas BIOS de otras. Primero pondremos las opciones de una BIOS moderna y después las de una BIOS un poco más antigua: 1st Boot Device/2nd Boot Device/3rd Boot Device/4th Boot Device: Decide el orden en que quieres que el ordenador reconozca las unidades con los archivos de arranque (recuerda que son el COMMAND.COM, IO.SYS y MSDOS.SYS). Dichas opcionses pueden ser: o IDE 0: Arranca desde el disco IDE maestro en el canal primario o IDE 1: Arranca desde el disco IDE maestro en el canal segundario o IDE 2: Arranca desde el disco IDE esclavo en el canal primario o IDE 3: Arranca desde el disco IDE esclavo en el canal secundario o Floppy: Arranca desde la(s) unidad(es) de disquete o ARMD FDD/ARM HDD: Arranca desde una unidad LS-120 o ZIP, o desde un disco IDE maestro en el canal primario o CDROM: Arranca desde una unidad CD-ROM ATAPI (según nuestras pruebas, puede ser IDE o SCSI) o SCSI: Arranca desde una unidad SCSI (según lo tengamos en la BIOS de la controladora SCSI) o Network: Arranca desde la red TRY OTHER BOOT DEVICES: Prueba otras opciones que no haya sido posible incluir en las 4 anteriores. QUICK BOOT: Recomendamos poner DISABLED. Lo que hace botear rápidamente cuando el ordenador está encendido. La opción DISABLED da tiempo para pulsar la tecla <Del> (es decir, SUPR) mientras hace el test de memoria, y espera durante 40 segundos a recibir alguna señal del disco duro IDE (en el caso de que lo tengamos configurado, aunque este tipo suele ser mucho menor si lo está correctamente. ENABLED hace no espere a reconocer el disco IDE, y si no recibe una señal inmediatamente no lo configurará. Tampoco podremos arrancar la BIOS pues no saldrá el mensaje de pulsar la tecla <Del>. En este último caso, para entrar en la BIOS tendremos que apagar y encender el ordenador con el botón frontal. ABOVE 1 MB. MEMORY TEST: SÓLO SALE SI LA ANTERIOR OPCIÓN ESTÁ EN ENABLED. Permite testear o no más allá del Mb. de memoria. Recomendamos dejarlo en ENABLED, ya que si no hace el test podemos tener problemas. BOOT UP NUMLOCK STATUS: ON hace que las teclas de la calculadora del teclado (a la decha del todo) funcionen como números, y OFF hace que funcionen como flechas. FLOPPY DRIVE SWAP: Si está en ENABLED cambia la unidad A: por la B: sin tener que hacerlo con el cable físico. Normalmente déjalo en DISABLED. FLOPPY ACCESS CONTROL y HARD DISK ACCESS CONTROL: Determinan el tipo de acceso a su respectiva unidad. Las opciones son READ/WRITE o READ-ONLY (Escritura/Lectura o Sólo Lectura). Si no es por alguna extraña razón, déjalo siempre en READ/WRITE PS/2 MOUSE SUPPORT: Permite con ENABLED activar el soporte para un ratón del tipo PS/2 y con DISABLED dejarlo para que funcione enchufado en un puerto serie. En el caso de que exista un jumper en la placa base, habrá que unir las patillas 2-3 para activar el soporte PS/2 (normalmente este jumper no suele existir). PRIMARY DISPLAY: Es el tipo de monitor conectado al ordenador. Puede ser MONO, CGA 40x25, CGA 80x25, VGA/EGA o ABSENT (Ausente). Tienes un monitor digamos "normal" pon VGA/EGA si no quieres tener algunos efectos indeseados. PASSWORD CHECK también llamada SEGURITY OPTION: Sirve para poner una contraseña. Tiene tres opciones: ALWAYS es para ponerlo al iniciar un ordenador (se queda el llamado "prompt" o guión parpadeante esperando a que lo introduzcamos), SETUP (sólo sale al entrar en la BIOS) o DISABLED (recomendado) para desactivarlo. BOOT TO OS/2: Por esta opción en ENABLED si tienes el sistema operativo OS/2 y quieres que use más de 64 Mb. de la memoria del sistema. Si no tienes OS/2, déjalo en DISABLED EXTERNAL CACHE: Permite usar la caché L2 de la placa base. Recomendamos altamente poner ENABLED, aunque si tienes problemas no tendrás más remedido que dejarlo en DISABLED. SYSTEM BIOS CACHEABLE: Cuando se pone en ENABLED (altamente recomendable) el segmento de memeoria F0000h puede ser escrito o leído en la memoria caché. El contenido de este segmento de memoria se copia siempre de la ROM de la BIOS a la RAM del sistema para una ejecución más rápida. VIDEO SHADOW: Cuando se pone ENABLED, la BIOS se copia a la memoria del sistema e incrementa la velocidad de vídeo. Puede tener 2 ó 3 opciones: si tiene ENABLED y DISABLED, ponlo en ENABLED; y si tiene ENABLED, CACHED y DISABLED, pon CACHED. Activarlo puede dar problemas en sistemas operativos de 32 bits. C8000-CBFFF Shadow / CC000-CFFFF Shadow / D0000-D3FFF Shadow / D40000- D7FFF Shadow / D8000-DBFFF Shadow / DC000-DFFFF Shadow: Son distintos datos extendidos localizados en la ROM que se copian a su respectivo rango de direcciones en la memoria el sistema. Normalmente está puesto en DISABLED (lo recomendamos para usuarios INEXPERTOS - NORMALES), aunque los más EXPERTOS o simplemente para probar podéis poner algunas opciones en ENABLED a ver qué pasa. * otras opciones: CPU INTERNAL CACHE: Sirve para activar la caché interna del micro, y siempre hay que ponerlo en ENABLED. IDE HDD BLOCK MODE: Transfiere los datos por bloques, y lo soportan los discos de más de 100 Mb. GATE A20 OPTION: Referente a la RAM, ponlo en ENABLED MEMORY PARITY CHECK: Hay que ponerlo en DISABLED para las memorias sin paridad (lo más normal), y ponlo en ENABLED para verificar el bit de paridad de la memoria RAM. Las únicas memorias con paridad suelen estar en 486s o Pentium de marca como los IBM. TYPEMATIC RATE SETTING: ENABLED permite configurar la velocidad de repeticion y estados de espera del teclado. TYPEMATIC RATE (CHARS/SEC): Hay que poner el número máximo (30) para conseguir más caracteres por segundo. TYPEMATIC DELAY(MSEC): Hau qye poner el mínimo (250) para que el tiempo de espera sea el mínimo NUMERIC PROCESSOR: Para activar el coprocesador matemático. Desde los 486 DX la opción está obsoleta. CHIPSET SETUP Este es el apartado donde más difieren unas BIOS con otras, y es el campo más peligroso y donde quizás puede exprimirse más el rendimiento. Si es una BIOS de las antiguas aquí se incluirá la próxima opción de "PCI/PNP SETUP". No cambies estas opciones si no estás seguro, de hecho, verás que algunas opciones son tan complejas que ni siquiera nosotros las sabemos: USB FUNCION: Permite activar o desactivar el soporte USB (Universal Serial Bus). Ponlo en ENABLED si dispones de un sistema operativo que lo soporte, como Windows 95 OSR2 + USB Support, Windows 95 OSR2.1 o Windows 98. Si no, déjalo en DISABLED. USB LEGACY SUPPORT: Con ENABLED se tiene un teclado y ratón USB. Como lo normal hoy día es no tenerlo, déjalo en DISABLED. SDRAM CAS LATENCY: Ni idea de lo que es, y tiene las opciones 3, 2, AUTO. Ponlo en AUTO por si acaso. DRAM DATA INTEGRITY MODE: Tiene dos opciones: ECC (ponlo si lo soportan los módulos de memoria) y PARITY (ponlo si no lo soporta) DRAM TIMING LATENCY: LOW, FAST, NORMAL. Es el tiempo que tarda el sistema en responder a las llamadas de la memoria. Prueba en FAST si no tienes problemas y no pierdes estabilidad. Suele traer también una opción AUTO. PIPE FUNCTION: Tampoco tenemos ni idea de lo que es, pero como la opción por defecto es ENABLED, pues déjalo ahí. GATED CLOCK Esto sirve para controlar el reloj interno del bus de datos de la memoria. Si está en ENABLED el reloj nunca para, cuando está en DISABLED se parará el reloj automáticamente si no hay activar en el bus de datos de la memoria. Pon la opción que quieras, no sabemos cuál es la mejor. GRAPHIC APERTURE SIZE: Decide el tamaño del búfer de frames programable. Esta región no debería sobrepasar al tamaño de RAM instalada, así que pon un número igual o menor. Cuanto mayor sea, mejor irá. VGA FRAME BUFFER. Pues eso, el rango de memoria del búfer de frame. Ponlo en ENABLED. VGA DATA MERGE: Unir las palabras lineales del ciclo del búfer de frames. Ni idea para qué sirve, por si acaso déjalo en DISABLED. PASSIVE RELEASE: Sirve para activar un mecanismo del puente sur cuando es PCI Master. La revisón PCI 2.1 requiere que este campo esté activado. Sólo para usuarios experimentados. Nosotros lo tenemos en ENABLED y parece que va bien, ponlo tú también sobre todo si tienes un dispositivo PCI 2.1 ISA MASTER LINE BUFFER: Desactiva o desactiva el búfear linear del ISA Master. Prueba a ponerlo en ENABLED. DELAY TRANSACTION: El tiempo para contactar con PCI 2.1. Échalo a suertes, pero por si acaso escoge DISABLED. AT BUS CLOCK: Sólo afecta al ISA. Esta opción se usa para selecciona las configuraciones I/O del reloj del bus. Las configuraciones posibles surgen de acuerdo con variar el reloj del sistema, por ejemplo, en un sistema con una velocidad de bus de 50 MHz, selecciona PCICLK/6 que podría resultar en un bus de velocidad de 8,33 MHz. No conviene sobrepasar este valor, como mucho 10 ó 12, ya que las tarjetas ISA funcionan a 8 MHz o menos. Por si esto es muy complicado, déjalo en AUTO. otras opciones: PIPE FUNCTION: La ejecucion de una instruccion de maquina se lleva en varias etapas (algunas maquinas pueden tener entre 5 y 9 etapas). Entonces cuando la CPU termina de ejecutar la primera etapa de una instruccion comienza a ejecutar la segunda etapa, pero tambien empieza a ejecutar la primera etapa de la siguiente instruccion y asi sucesivamente. Claramente este metodo de ejecucion es mas rapido, que si se hicieran una de tras de otra conmpletamente. L2 CACHE POLICY: Prueba a poner el modo WRITE BACK, que es mejor que WRITE THRU DRAM READ/WRITE TIMING: Pon el valor mínimo si nuestra memoria es de alta velocidad (10-15 ns), para memoria EDO (x222) y para memoria NO EDO (x333) POWER MANAGEMENT SETUP Si tu placa es una ATX de las nuevas, tendrás muchas opciones, tan curiosas como encender el ordenador por una llamada de teléfono. General para todas las opciones: STANDBY MODE: El reloj de la CPU irá a una velocidad más baja, se desconectarán las disquetes y el disco duro, y el monitor se apagará. SUSPEND MODE: Todos los dispositivos excepto la CPU se apagarán. Cada modo de ahorro de energía tiene su respectivo contador. Cuando el contador llegue a cero, el equipo entrará en modo de ahorro de energía. Si se detecta alguna señal o evento durante la cuenta atrás, el contador vuelve al principio de nuevo. NOTA PARA USUARIOS DE WINDOWS 95 OSR2 y 98: Recomendamos poner los contadores en DISABLED para que no interfieran con los contadores de estos sistemas operativos, además de dejarlo todo en SUSPEND, pues SUSPEND incluye a STANDBY Vayamos ahora con las opciones propiamente dichas: POWER MANAGEMENT/APM: Pon esta opción en ENABLED para activar las funciones de administración de energía del chipset y APM (Administración Avanzada de Energía), especialmente si dispones de Windows 95 OSR2 o 98. ¡Luego no digas que INICIO - SUSPENDER no te funciona! GREEN PC MONITOR POWER STATE: Sirve para apagar los monitores compatibles con Greep PC. Las opciones son OFF, STANDBY, SUSPEND y DISABLED. VIDEO POWER DOWN MODE. Para apagar el subsistema de vídeo para ahorar energía. Las opciones son STANDBY, SUSPEND y DISABLED. HARD DISK POWER DOWN MODE: Desconecta los discos duros. Las opciones son las tres del apartado anterior. STANDBY/SUSPEND TIMER UNIT y STANDBY TIMEOUT. Son los contadores que os hablábamos antes, el primero para el modo SUSPEND y el segundo para el modo STANDBY. Ponlo en DISABLED para usar los del Windows. SYSTEM EVENT MONITOR BY... Trae unas cuantas opciones, prueba a ponerlas en YES. POWER BUTTON FUNCION: Explica el funcionamiento del botón de encendido externo. SOFT OFF es lo normal, apaga o enciente el ordenador. GREEN, en cambio, hace que el ordenador entre en Green Mode. RING RESUME FROM SOFT OFF: Cuando se activa, el sistema puede salir del modo inactivo por una señal de teléfono del MODEM. RTC ALARM RESUME: Decide una hora para que el ordenador salga del modo de suspensión automáticamente. Si no lo vas a usar ponlo en DISABLED, o, en el caso de que lo uses pero no quieras poner fecha, pon el DISABLED en Date. PCI/PnP SETUP Estas opciones sirven para arreglar nuestros queridos conflictos de hardware. En las BIOS más antiguas, cuando el Plug and Pray, ejem.. Play no estaba difundido, suelen estar incluidos en el apartado CHIPSET SETUP. PLUG AND PLAY AWARE O/S: Si tenemos un sistema operativo Plug and Play instalado (Windows 95/98) ponlo en YES. CLEAR NVRAM ON EVERY BOOT: Cuando se pone en YES, los datos de la NVRAM se borrar en cada proceso de arranque (boot). Recomendamos que lo pongas en NO. PCI LATENCY TIMER (PCI CLOCKS): Son los tiempos de retardo en acceder a los dispositivos PCI instalados en el respectivo bus. Las opciones son 32, 64, 96, 128, 160, 192, 224, 248. Prueba a ponerlo en el mínimo, 32. PCI VGA PALETTE SNOOP. Sirve para poder hacer que varias tarjetas VGA operen a la vez en diferentes buses (PCI e ISA), y que puedan extraer datos de la CPU simultáneamente. El bit 5 del registro de comandos del espacio de configuración del dispositivo PCI es el bit 0 del VGSA Palette Snoop (0 es DISABLED). Pon las opciones según lo siguiente: o DISABLED: Los datos leídos y escritos por la CPU sólo se redireccionan a los registros de la paleta del PCI VGA. Es decir, que si tienes una tarjeta gráfica PCI o AGP tendrás que poner esto. o ENABLED: Los datos leídos y escritos por la CPU se dirigen al registro de paleta del dispositivo PCI VGA y del ISA VGA, permitiendo que los registros de paleta de ambos dispositivos sean idénticos. La opción también tiene que estar puesta en ENABLED si alguna tarjeta ISA instalada en el sistema requiere VGA Palette Snooping. OFFBOARD PCI IDE CARD: Especifica si existe un controlador PCI IDE externo en el ordenador. También debes especificar el slot de expansión PCI de la placa base cuando instalas la tarjeta controlñadora PCI IDE. Si se usa alguna controladora de este tipo, la controladora IDE de la placa base automátivamente se desactiva. Las opciones son DISABLED, AUTO, SLOT1, SLOT2, SLOT3, SLOT4, SLOT5 o SLOT6. Si se selecciona AUTO se determina el parámetro correcto, lo que fuera los IRQs 14 y 15 a un slot PCI del PCI local bus. Esto es necesario para soportar tarjetas PCI IDE no compatibles. o OFFBOARD PCI IDE PRIMARY IRQ: Esta opción especifica la interrupción PCI usada por el canal IDE primario en la controladora externa PCI IDE. Las configuraciones son DISABLED (ponlo si no tienes controladora IDE externa), HARDWIRED, INTA, INTB, INTC o INTD. o OFFBOARD PCI IDE SECONDARY IRQ: Como el anterior, pero el canal secundario. o Esta opción especifica la interrupción PCI usada por el canal IDE secundario en la controladora externa PCI IDE. Las configuraciones son DISABLED (ponlo si no tienes controladora IDE externa), HARDWIRED, INTA, INTB, INTC o INTD. ASSIGN IRQ TO PCI VGA: Pon esta opción en YES para asignar una IRQ al controlador VGA en el bus PCI. Las configuraciones son YES o NO. PCI SLOT 1/2/3/4 IRQ PRIORITY: Estas opciones especifican la prioridad IRQ paralos dispositivos PCI instalados en los slots de expansión PCI. Las configuraciones son AUTO, (IRQ) 3, 4, 5, 7, 9, 10 y 11, por orden de prioidad. Si tus dispositivos son Plug and Play, ponlo en AUTO. DMA CHANNEL 0/1/3/5/6/7. Te permie especificar el tipo de bus usado por cada canal DMA. Las opciones son PnP o ISA/EISA. Pon PnP si todos tus dispositivos son Plug and Play. IRQ 3/4/5/7/9/10/11/12/14/15 Estas opciones especifican al bus que la línea IRQ está usada. Estas opciones te permiten reservar IRQs para las tarjetas ISA, y determinan si se debería quitar una IRQ para cedérselas a esos dispositivos configurables por la BIOS. El conjunto de IRQs disponibles se determina leyendo el ESCD NVRAM. Si se deben quitar más IRQs del conjunto, el usuario debería usarlas para deservarlas a un ISA/EISA y configurarlo en él. El I/O se configura por la BIOS. Todas las IRQs usadas por el I/O en la placa están configurados como PCI/PnP. IRQ12 sólo aparece si la opción de Mouse Support está en DISABLED. IRQ14 y IRQ15 sólo estarán disponibles si el PCI IDE en la placa estáactivado. Si todas los IRQs están puestos en ISA/EISA e IRQ14 y 15 están asignados al PCI IDE de la placa, IRQ9 todavía estará disponible para los dispositios PCI y PnP, debido a que al menos un IRQ debe estar disponible para ellos. Las opciones son ISA/EISA o PCI/PnP. RESUMEN: Si todos los dispositivos de vuestro equipo son Plug & Play, os recomendamos personalmente poner PCI/PnP en todas las IRQs. INTEGRATED PERIPHERALS SETUP Por fin, las últimas opciones. En BIOS antiguas estas opciones están incluidas en Chipset Setup ONBOARD FLOPPY CONTROLLER: Activa o desactiva la disquetera. Si tienes disquetera, ponlo en ENABLED. Onboard Serial Port 1/2 Estos campos configuran los puertos serie en la tarjeta. Hay varias direcciones de puerto y canales IRQ que pueden ser seleccionados: o 3F8/IRQ4: Dirección de puerto 3f8h, IRQ 4 o 2F8/IRQ3: Dirección de puerto 2f8h, IRQ 3 o 3E8/IRQ4: Dirección de puerto 3e8h, IRQ 4 o 2E8/IRQ3: Dirección de puerto 2e8h, IRQ 3 o AUTO (recomendado): La BIOS asigna automáticamente direcciones de puerto y canales IRQ automáticamente o DISABLED: Desactiva el puerto serie. Esto es especialmente últil si necesitamos la IRQ3 o la 4 para el módem. SERIAL PORT 2 MODE: Esta opción especifica el modo de operación para el segundo puerto serie. Sólo aparece si la opción ONBOARD SERIAL PORT 2 está puesta en AUTO o DISABLED. Las opciones son IR (infrarrojos) o NORMAL. IR TRANSMITTER: Esta opción especifica el tipo de transmisión usada por los dispositivos infrarrojos conectados al segundo puerto serie. Esta opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2 está en AUTO o DISABLED. Las opciones son 1.6 uS o 3/16 Baud. No hay opciones por defecto. IR DUPLEX MODE: Esta opción especifica el tipo de transmisión usada por los dispositivos infrarrojos conectados al segundo puerto serie. Esta opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2 está en AUTO o DISABLED. Las opciones son HALF o FULL (suponemos que es similar al full duplex o half duplex de las tarjetas de sonido). No hay opciones por defecto. IR RECEIVER POLARITY: Esta opción especifica el tipo de recepción osada por los dispositivos infrarrojos conectados al segundo puerto serie. Esta opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2 está en AUTO o DISABLED. No hay opciones por defecto. ONBOARD PARALLEL PORT: Este campo configura el puerto paralelo de la placa. Hay varias direcciones de puerto y canales IRQ que pueden ser seleccionados. o 378/IRQ7: Dirección de puerto 378, IRQ 7 o 278/IRQ5: Dirección de puerto 278, IRQ 5 o 3BC/IRQ7: Dirección de puerto 3BC, IRQ 7 o DISABLE: Desactiva el puerto paralelo PARALLEL PORT MODE: Esta opción especifica el modo del puerto paralelo. Las opciones son: o NORMAL: Se usa el modo del puerto paralelo normal o Bi-Dir: Usa este campo para soportar transferencias bidireccionales en el puerto paralelo. o EPP: El puerto paralelo puede ser usado con dispositivos que contemplan la especificación Enhanced Parallel Port (EPP). EPP usa las señales del puerto paralelo existente para ofrecer transferencia de datos bidireccional y asimétrica conducida por la unidad del host. o ECP: El puerto paralelo puede ser usado con dispositivos que contemplan la especificación Extended Capabilites Port (ECP). ECP usa el protocolo DMA para ofrecer datos de transferencia hasta 2,5 Megabits por segundo. ECP ofrece comunicación bi-direccional simétrica. EPP VERSION: Especifica el número de versión usado para la especificación Enhanced Parallel Port. Esta opción sólo aparece si modo del puerto paralelo está puesto en EPP. Las configuraciones son 1.7 o 1.9. o ECP/EPP (recomendado). Da igual que el dispositivo del puerto paralelo no soporte ni ECP ni EPP. Tú ponlo aquí. PARALLEL PORT DMA CHANNEL: Esta opción sólo aparece si modo del puerto paralelo está puesto en ECP. Esta opción configura el canal DMA usado por el puerto paralelo. Las opciones son DMA CHANNEL 0, 1 o 3 PARALLEL PORT IRQ: Esta opción especifica el IRQ usado por el puerto paralelo. Las opciones son AUTO (recomendado), (IRQ) 5 o (IRQ) 7. ONBOARD IDE: Esta opción especifica el canal IDE usado por el controlador IDE de la placa. Las opciones son ENABLED/AUTO/BOTH, PRIMARY, SECONDARY y DISABLED. A veces desactivar el segundo canal suele dar problemas porque Windows lo detecta y coloca uno de sus signos de interrogación amarillos. o TIPOS DE BIOS Tipos de BIOS Normalmente este software viene grabado en un chip de memoria no volátil de solo lectura ROM (Read Only Memory), situado en la placa base, de ahí el nombre ROM BIOS. Esto garantiza que no se perderá al apagar el Sistema y que no dependerá para su actuación de la existencia o buen funcionamiento de ningún disco, por lo que estará siempre disponible (esto es importante porque, como veremos a continuación , posibilita el arranque inicial del equipo sin necesitar de ningún recurso externo). Desde los primeros días de vida del PC, el ROM-BIOS dio problemas en los equipos existentes, dado que los avances técnicos eran constantes, lo que suponía aumentar las capacidades de disco y de los dispositivos conectados a los equipos. Esto exigía nuevas BIOSes, con lo que había que cambiar la placa base, o cuando mínimo, en los modelos posteriores, cambiar el integrado que contenía la ROM BIOS [2]. Para resolver el problema se comenzó a utilizar memorias regrabables tipo EPROM ("Erasable programmable read-only memory") y EEPROM ("Electrically erasable programmable read-only memory"). En la actualidad se utiliza un tipo de memoria no volátil "flash" (Flash BIOS) que puede ser regrabada sin utilizar ningún dispositivo de borrado o grabación especial, lo que permite actualizarla muy cómodamente. Por lo general solo es necesario "bajarse" de Internet la versión adecuada (normalmente del sitio del fabricante de la placa base) y seguir las instrucciones que acompañan al programa [8]. Debido a que el BIOS es usado constantemente en el funcionamiento normal del PC, y que la memoria RAM es de acceso más rápido que la ROM, muchos fabricantes disponen que el contenido de la ROM BIOS sea copiado a memoria RAM como parte del proceso de arranque inicial. Esto se conoce como "Shadowing" y tiene el efecto de acelerar el rendimiento del sistema. La versión de la BIOS cargada en RAM se denomina shadow BIOS. Naturalmente esto exige un realineamiento de los vectores de interrupción , de forma que apunten a las nuevas posiciones en RAM. Los BIOS mas modernos son los denominados PnP BIOS o PnP-aware BIOS, lo que significa que están previstos para manejar el estándar PnP "Plug and Play" de Microsoft (enchufar y usar H2.4). Una tecnología que permite a un equipo identificar cualquier dispositivo hardware que se conecte y signarle los recursos necesarios sin que existan conflictos con el resto. Antes de esta tecnología la adición de nuevos dispositivos constituía un auténtico quebradero de cabeza, dada la escasez de recursos que previeron los diseñadores del PC (por ejemplo los consabidos conflictos de interrupciones IRQ's [1] y de direcciones de puertos). Nota: En los primeros sistemas era un chip DIP ("Dual In-line package") cuya designación empezaba por "27" seguido de dos o tres números indicativos de los Kilobits de capacidad. Por ejemplo, 2764 es una ROM de 8 KB. Funciones del BIOS El sistema BIOS de un PC estándar desempeña en realidad cuatro funciones independientes: Proceso de carga inicial del software Programa de inventario y comprobación del hardware Inicialización de determinados dispositivos hardware, carga de cierto software básico e inicio del Sistema Operativo . Servicios de soporte software para determinados dispositivos hardware del sistema . . . Inventario de recursos y comprobación del hardware La primera parte del programa de la BIOS inicia un proceso de comprobación del hardware denominado POST (Power-On Self Test), en caso de existir errores graves, el programa se detiene emitiendo una serie de pitidos (eventualmente algún mensaje en pantalla) que codifican el tipo de error encontrado [4]; el desarrollo exacto depende del fabricante, pero generalmente la secuencia de comprobaciones se resume como sigue: Chequéo de registros del procesador Setéo del temporizador 8253/8254 ( H2) para refresco de RAM. Setéo del acceso directo a memoria, DMA, para refresco de la RAM en el canal 0. Verificar que el refresco es operativo (los primeros PC's usaban RAM dinámica). Verificar la memoria RAM baja (0/16-64 KB). Cargar los vectores de interrupción y asignarles espacio en la zona de memoria baja Inicializar los dispositivos de video y teclado. Determinar el tamaño de la RAM adicional y comprobar su funcionamiento (el recuento que se ve en pantalla). Si llegado a este punto existiera algún error en la memoria se mostraría un mensaje de error (el dispositivo de video ya está operativo). Inicializar los puertos COM (comunicaciones serie), LPT (comunicaciones paralelo) y de juegos Inicializar, en su caso, el sistema de disquete. Inicializar el sistema de disco. . Explorar el área de usuario de la ROM. Llamar el interruptor de bootstrap. La comprobación del dispositivo de video incluye cargar y ejecuta la parte de BIOS incluida en el adaptador de video. La mayoría de las adaptadoras modernas muestran en pantalla información sobre sí mismas; es por esta razón por la que, a veces, lo primero que se ve en pantalla es información sobre la propia controladora de video antes que ningún mensaje de la BIOS del sistema. Nota: Si se trata de un reinicio en caliente ("Hot boot"), que puede conseguirse con la combinación [Ctrl]+[Alt]+[Sup], la fase de comprobación POST se omite, y el proceso de carga sigue desde el siguiente punto. A continuación del POST, la BIOS recorre la memoria en busca de la posible existencia de otros programas en ROM para ver si alguno tiene BIOSes [3], lo que ocurre por ejemplo, con los controladores de disco duro IDE/ATA, cuyas BIOS se encuentran en la dirección C8000h (819.200); otros elementos que suelen contar con sus propias BIOSes son las tarjetas de red y las controladoras SCSI [10]. Estos módulos, y cualquier otro que sea encontrado, es cargado y ejecutado. A continuación, el BIOS muestra su pantalla inicial (generalmente con los créditos del fabricante número de versión y fecha). CHIP-SET El "chipset" es el conjunto (set) de chips que se encargan de controlar determinadas funciones del ordenador, como la forma en que interacciona el microprocesador con la memoria o la caché, o el control de los puertos y slots ISA, PCI, AGP, USB... Antiguamente estas funciones eran relativamente sencillas de realizar y el chipset apenas influía en el rendimiento del ordenador, por lo que el chipset era el último elemento al que se concedía importancia a la hora de comprar una placa base, si es que alguien se molestaba siquiera en informarse sobre la naturaleza del mismo. Pero los nuevos y muy complejos micros, junto con un muy amplio abanico de tecnologías en materia de memorias, caché y periféricos que aparecen y desaparecen casi de mes en mes, han hecho que la importancia del chipset crezca enormemente. De la calidad y características del chipset dependerán: Obtener o no el máximo rendimiento del microprocesador. Las posibilidades de actualización del ordenador. El uso de ciertas tecnologías más avanzadas de memorias y periféricos. Debe destacarse el hecho de que el uso de un buen chipset no implica que la placa base en conjunto sea de calidad. Como ejemplo, muchas placas con chipsets que darían soporte a enormes cantidades de memoria, 512 MB o más, no incluyen zócalos de memoria para más de 128 ó 256. O bien el caso de los puertos USB, cuyo soporte está previsto en la casi totalidad de los chipsets de los últimos dos años pero que hasta fecha reciente no han tenido los conectores necesarios en las placas base. Trataremos sólo los chipsets para Pentium y superior, ya que el chipset de un 486 o inferior no es de mayor importancia (dentro de un límite razonable) por estar en general todos en un nivel similar de prestaciones y rendimiento, además de totalmente descatalogados. Tampoco trataremos todas las marcas, sino sólo las más conocidas o de más interés; de cualquier forma, muchas veces se encuentran chipsets aparentemente desconocidos que no son sino chipsets VIA, ALI o SIS bajo otra marca. Chipsets para Pentium y Pentium MMX De Intel (Tritones) Fueron la primera (y muy exitosa) incursión de Intel en el mundo de los chipsets, mundo en el cual ha pasado de no fabricar prácticamente ninguno a tener un monopolio casi total, que es la forma en que a Intel le gusta hacer los negocios. Esto no resulta extraño, ya que nadie mejor que Intel conoce cómo sacar partido a sus microprocesadores; además, el resto de fabricantes dependen de la información técnica que les suministra Intel, que lo hace cuando y como quiere. 430 FX: el Tritón clásico, de apabullante éxito. Un chipset bastante apropiado para los Pentium "normales" (no MMX) con memorias tipo EDO. Hoy en día desfasado y descatalogado. 430 HX: el Tritón II, la opción profesional del anterior. Mucho más rápido y con soporte para placas duales (con 2 micros). Algo anticuado pero muy bueno. 430 VX: ¿el Tritón III? Más bien el 2.5; algo más lento que el HX, pero con soporte para memoria SDRAM. Se puede decir que es la revisión del FX, o bien que se sacó para que la gente no se asustara del precio del HX... 430 TX: el último chipset de Intel para placas Pentium (placas socket 7). Si queremos usar micros Intel y aplicaciones que se contenten con placas con 1 Pentium, la opción a elegir. Soporte MMX, SDRAM, UltraDMA... Un problema: si se le pone más de 64 MB de RAM, la caché deja de actuar; aunque más de 64 MB es mucha RAM. Chipsets de Intel para Pentium y Pentium MMX Concepto 430 FX 430 HX 430 VX 430 TX Número CPUs máx. 1 2 1 1 RAM máxima 128 MB 512 MB 128 MB 256 MB Tipos de RAM RAM cacheable máxima FPM, EDO 64 MB FPM, EDO, SDRAM 512 MB (según placa, no todas) 64 MB Caché L2 máxima 512 KB Velocidad bus máx. 66 MHz Puertos adicionales USB UltraDMA y USB Comentarios Desfasado No adecuados para micros no Intel de nueva generación (no soportan AGP ni bus 100 MHz) Lo más destacable de estos chipsets, su buen rendimiento, especialmente con micros Intel. Lo peor, su escaso soporte para micros no Intel, que en el campo socket 7 tienen desarrollos superiores a los de Intel, como los AMD K6 (normal y K6-2) o los Cyrix-IBM 6x86MX (M2), en general más avanzados que los Pentium y Pentium MMX. De VIA (Apollos) Unos chipsets bastante buenos, se caracterizan por tener soporte para casi todo lo imaginable (memorias SDRAM o BEDO, UltraDMA, USB...); su pelea está en la gama del HX o TX, aunque suelen ser algo más lentos que éstos al equiparlos con micros Intel, no así con micros de AMD o Cyrix-IBM. Chipsets de VIA para Pentium y Pentium MMX Concepto VP2 VPX VP3 Número CPUs máx. 1 RAM máxima Tipos de RAM RAM cacheable máxima MVP3 512 MB 1 GB FPM, EDO, BEDO, SDRAM FPM, EDO, SDRAM 512 MB (según placa, no todas) Caché L2 máxima 512 MB ó 1 GB (según placa, no todas) 2048 KB Velocidad bus máx. 66 MHz 75 MHz 66 MHz Puertos adicionales UltraDMA y USB Comentarios No adecuados para micros no Intel de Sin bus a 100 nueva generación (no soportan AGP MHz ni bus 100 MHz) 100 MHz UltraDMA, USB y AGP Muy moderno, con todos los avances Lo bueno de las placas con chipsets VIA es que siguen en el mercado socket 7, por lo que tienen soporte para todas las nuevas tecnologías como el AGP o los buses a 100 MHz, además de que su calidad suele ser intermedia-alta. En las placas con chipsets Intel hay un abanico muy amplio entre placas muy buenas y otras francamente malas, además de estar ya desfasadas (ningún chipset Intel para socket 7 soporta AGP, por ejemplo). El último chipset de VIA para socket 7, el MPV3, ofrece todas las prestaciones del BX de Intel (excepto soporte para placas duales), configurando lo que se denomina una placa Super 7 (con AGP y bus a 100 MHz), que con un micro como el nuevo AMD K6-2 no tiene nada que envidiar a un equipo con Pentium II. De ALI Muy buenos chipsets, tienen soluciones tan avanzadas como el chipset para placas Super 7 "Aladdin V", que como el MPV3 de VIA resulta equiparable a todos los efectos al BX de Intel para placas Pentium II (bus a 100 MHz, AGP...); una fantástica elección para micros como el AMD K6-2. Chipsets de ALI para Pentium y Pentium MMX Concepto M1521/M1523 (Aladdin III) M1531/M15X3 (Aladdin IV-IV+) Número CPUs máx. M1541/M1543 (Aladdin V) 1 RAM máxima 1 GB Tipos de RAM FPM, EDO, SDRAM RAM cacheable máxima FPM, EDO, SDRAM, PC100 512 MB (según placa, no todas) Caché L2 máxima 1 MB Velocidad bus máx. 75 MHz 83,3 MHz 100 MHz Puertos adicionales USB UltraDMA y USB UltraDMA, USB y AGP Comentarios Apropiados para micros no Intel pero no de última generación (AMD K6-2) por carecer de bus a 100 MHz Muy moderna, con todos los avances De SiS Como los anteriores, sus capacidades son avanzadas, aunque su velocidad sea a veces algo más reducida que en los de Intel. Resultan recomendables para su uso junto a chips compatibles Intel como el K6 de AMD o el 6x86MX (M2) de Cyrix-IBM, aunque desgraciadamente no soportan por ahora el bus a 100 MHz del nuevo K6-2. Chipsets de SIS para Pentium y Pentium MMX Concepto 5597/5598 5581/5582 Número CPUs máx. 5591/5592 1 RAM máxima 384 MB Tipos de RAM 768 MB FPM, EDO, SDRAM RAM cacheable máxima 128 MB 256 MB Caché L2 máxima 512 KB 1 MB Velocidad bus máx. 75 MHz 83 MHz Puertos adicionales UltraDMA, USB y SVGA integrada UltraDMA y USB UltraDMA, USB y AGP Comentarios Apropiados para micros no Intel (especialmente Cyrix) pero no los de última generación (AMD K6-2) por carecer de bus a 100 MHz Chipsets para Pentium II y Celeron De Intel A decir verdad, aún sin competencia seria, lo que no es de extrañar teniendo el Pentium II sólo un añito... y siendo de Intel. Son bastante avanzados, excepto el anticuado 440 FX (que no es propiamente un chipset para Pentium II, sino más bien para el extinto Pentium Pro) y el barato EX, basado en el LX pero con casi todas las capacidades reducidas. Chipsets de Intel para Pentium II y Celeron Concepto 440 FX 440 LX Número CPUs máx. 440 BX 440 EX 2 1 RAM máxima 512 MB 1 GB EDO ó 512 MB SDRAM 1 GB 256 MB Tipos de RAM FPM, EDO FPM, EDO, SDRAM SDRAM y PC100 SDRAM FPM, EDO, SDRAM RAM cacheable máxima Caché L2 máxima No aplicable (dentro del microprocesador, tamaño fijo) Velocidad bus máx. Puertos adicionales 66 MHz UltraDMA y USB 100 MHz 66 MHz UltraDMA, USB y AGP Comentarios Desfasado Apropiado sólo para Celeron De otras marcas No son demasiados, pero los que hay tienen todas las capacidades que hacen falta en una placa Pentium II. El problema con el que se encuentran no es su falta de eficacia, ya que aunque los de Intel están algo más rodados, el rendimiento es muy similar; pero el hecho de que durante un año la gente sólo haya oído hablar de FX, LX, BX y EX hace difícil que entren en un mercado donde Intel tiene un monopolio absoluto. Chipsets de otras marcas para Pentium II y Celeron Concepto VIA Apollo Pro Número CPUs máx. ALI Aladdin Pro II M1621/M15X3 1 ó más dependiendo de la placa RAM máxima 1 GB Tipos de RAM FPM, EDO, SDRAM, PC100 SDRAM RAM cacheable máxima SIS 5601 1 GB SDRAM ó 2 GB FPM o EDO No aplicable (dentro del microprocesador, tamaño fijo) ? Caché L2 máxima Velocidad bus máx. 100 MHz Puertos adicionales UltraDMA, USB y AGP Comentarios Muy avanzados, equivalentes al Intel BX En proyecto Glosario de términos relacionados Resulta muy bonito saber que el chipset soporta esto o aquello, pero si saber qué es esto o aquello no vamos a ningún lado. Los términos más importantes a conocer son: AGP: un tipo de puerto o slot especializado para gráficos 3D. Bus (del sistema): el canal por el que se comunica el micro con la memoria y habitualmente con la caché L2. Cuanto más ancho sea, mejor, especialmente para micros muy rápidos. Caché L2: la caché secundaria o de nivel 2 (level 2). Es la memoria caché externa, que acelera el rendimiento del ordenador; cuanta más memoria RAM tengamos, más caché necesitaremos (por ejemplo, unos 512 KB para 32 MB de RAM). PC100: el tipo normalizado de memoria SDRAM de 100 MHz. RAM cacheable: la cantidad de RAM máxima que es capaz de manejar la caché. Si superamos esta cifra es como si no tuviéramos memoria caché. UltraDMA: una tecnología para los discos duros IDE modernos que la soportan que eleva la transferencia teórica de datos hasta 33,3 MB/s. USB: un tipo de puerto moderno para conectar dispositivos externos de velocidad media-baja, con la ventaja de ser universal (el mismo para todos) y poderse conectar en cadena unos a otros. La elección del chipset Chipset y placa base forman un conjunto indisoluble y de la máxima importancia, por lo que su compra debe estar acompañada de una cierta reflexión. Lo primero es recordar que un buen chipset sólo no hace una buena placa; si encontramos dos placas con el mismo chipset pero una cuesta el doble que la otra, por algo será (aunque a veces ese algo es simplemente la marca de la placa, por ejemplo las placas Intel, que en general no son tan avanzadas como las Asus, Iwill o Gigabyte pero que cuestan lo mismo o más que éstas...) Así mismo, una placa debe ser comprada pensando en el futuro. Por ejemplo, si vamos a comprar una para Pentium II, merece la pena comprar una con un chipset capaz de trabajar a 100 MHz de bus (una Intel BX, Apollo Pro o Aladdin Pro II), con lo que podremos ampliarla en el futuro a micros a 350 MHz o más, cosa que no podremos hacer si compramos una LX, por ejemplo. No se obsesione con el Intel Inside. No es que le tenga una manía especial a Intel, y si la tuviera, me la aguantaría; se trata de que mucha gente prefiere dejarse llevar por el atractivo de una marca sin informarse de las características de lo que compra. Por ejemplo, si bien el chipset BX de Intel para Pentium II es aún el mejor de su categoría, en el campo socket 7 los mejores desarrollos no son de Intel, que lo ha abandonado a favor del campo Pentium II. Por ello, comprarse una placa TX ahora sería un error, no porque sea Intel sino porque ese chipset está anticuado (aunque hace unos meses era probablemente el mejor de su categoría); y lo mismo pasa con el EX, que es mucho peor que los Apollo Pro o Aladdin Pro II. Y por último, estudie bien la compra. Puede ser que el chipset admita mucha memoria, pero que la placa tenga pocos zócalos para instalarla; o que estemos comprando una placa base o un ordenador de segunda mano, y realmente nos importe más que la memoria sea suficiente y fácilmente ampliable (EDO mejor que FPM, con zócalos vacíos...) que el hecho de que tenga un chipset sin AGP o sin AGP ni UltraDMA, cuando puede que no vayamos a usar uno ni otro. SOCKETS DE PROCESADORES SLOT O SOCKET PARA PROCESADORES Los boards con arquitectura x86 cuentan con uno o mas slots o sockets para procesadores. Estos zócalos permiten la utilización de procesadores dependiendo de la configuración de sus patas, arquitecturas entre las cuales podemos mencionar los socketes cuadrados para los procesadores 286; socket3 para 386,486,586; socket7 para Pentium,AMDK6; socket8 para Pentium Pro; socket PPGA para Celeron y PII. La utilización de slots comienza con los procesadores Pentium II, Pentium III y Xeon. Existen MAIN BOARDs para servidores con dos o más sockets o slots para albergar varios procesadores. Tipos de placas base En los ordenadores actuales existen seis tipos básicos de placas base, en función de la CPU: Socket 7, Socket 8, Super 7, Slot 1, Slot 2 y Socket 370. Las placas Socket 7 albergan los procesadores Pentium, K5 de AMD, 6x86 de Cyrix y Winchip C6 de IDT; ya no se venden, pues carecen de las interfaces más utilizadas en la actualidad, como el bus AGP y el puerto USB. Estos dos estándares se incorporan en las placas Super 7, también compatibles Pentium y K6. Las placas Socket 8, muy escasas, albergan los extinguidos procesadores Pentium Pro. Las placas Slot 1 son necesarias para suministrar soporte a los Pentium II/III y Celeron, y suelen disponer del formato ATX, que reorganiza la localización de las tarjetas, para que quepa mayor cantidad en el mismo espacio, y se reduzca el cruce de cables internos. Las placas ATX también necesitan una carcasa especial ATX. Una variante son las placas Slot 2, soporte de la versión Xeon del Pentium II, utilizada en servidores profesionales. Finalmente, las placas Socket 370 alojan una versión especial de Celeron, con las mismas prestaciones que el modelo Slot 1, pero más barato para el fabricante. El tipo de zócalo (socket) o ranura (slot) en que debe "pincharse" el micro. Los más habituales son: - Socket 7: para micros tipo Pentium, Pentium MMX, AMD K6, K6-2 y K6-III, Cyrix... - Socket 370 PPGA: para micros Celeron de hasta 533 MHz y algunos Cyrix y VIA. - Socket 370 FC-PGA: para micros Pentium III y Celeron de más de 533 MHz. - Socket A (462): para los actuales AMD Athlon y Duron. - Socket 423: para los Pentium 4. - Slot A: para los primeros micros AMD Athlon. - Slot 1: para micros Pentium II, algunos Pentium III y algunos Celeron. SLOTS Y CONFIGURACION DE FRECUENCIA DEL PROCESADOR Ranuras de expansión o slots: Sirven para incorporar una serie de tarjetas que mejoran las prestaciones: tarjeta de vídeo, tarjeta de sonido, capturadora de vídeo, controladora de CD-ROM. Los slot se conocen con velocidades de 8-16-32-64 bits. FRECUENCIA DEL PROCESADOR Actualmente la velocidad de la placa base oscila entre los 66, 75, 83, 100, 112 Mhz, aunque otras placas disponen de una selección más amplia 50, 55, 60, 90, 95, 105, 110, 115, 120, 125, 133 y 150 MHz. Esto nos permite todavía mayor flexibilidad a la hora de combinar frecuencias, y en todo caso, si nuestra computadora se niega a trabajar a más velocidad, siempre podemos hacer que, aún funcionando la computadora a una frecuencia parecida, el bus de la placa base vaya más rápido, obteniendo velocidades de transferencia computadora-bus PCI más altas, lo que provoca un aumento de rendimiento global del sistema. Los dos valores que determinan la velocidad del procesador (frecuencia del bus o reloj y multiplicador) se encuentran en la placa base. El método utilizado para cambiarlos depende del modelo de placa base en cuestión. Hay varias formas: Mediante jumpers o microdips Tanto los jumpers como los microdips actúan como interruptores que sirven para cambiar la configuración de la placa base y lógicamente están colocados en ella, por lo que para cambiar su posición hay que abrir la computadora. Ambos tienen dos posiciones: "on" y "off" o "close" y "open". Los jumpers son unas pequeñas patillas metálicas que salen perpendicularmente de la placa base. Si llevan encima una tapa es que están en posición "on" o "close" (circuito cerrado) y si no, están en "off" u "open" (circuito abierto). Jumper, esta es la foto de parte de una tarjeta madre con sus jumper, es decir aqui es donde se configura una computadora y le dices a que velocidad va a trabajar este procesador aquí puedes ver el Multiplicador (Multiplier) y el Bus CLOCK es decir el multiplicador y el bus para seleccionar cual quieres lo que tienes que hacer es poner un conector que permita que los dos palitos que salen verticalmente se unan es decir buscar la forma que estos pares de palitos verticales se conecten. Los microdips tienen la misma función que los jumpers pero bajo otra forma. Es como una cajita con pequeñas patillas que pueden tener las dos posiciones mencionadas anteriormente. Una vez tenemos asignada la nueva velocidad del bus de la placa base mediante los jumpers, modificaremos el multiplicador de la computadora. La configuración del multiplicador de la computadora se hace de la misma forma que la de la velocidad del bus de la placa base. Una información parecida a esta encontraremos en nuestro manual. Mediante BIOS Últimamente existen muchas placas base cuyas velocidades se pueden configurar mediante la Bios, por lo que no es necesario abrir la computadora para cambiar la velocidad, aunque debemos tener en cuenta que el hecho de que estos parámetros sean más accesibles desde la Bios que a través e los Jumpers, no implica que experimentar múltiples combinaciones sea menos perjudicial. Generalmente esta opción se encuentra en el apartado Chipset Features. Pasos a seguir para ajustar las frecuencias mediante la BIOS: 1. Encender o reiniciar la computadora y durante la fase de comprobación de memoria, detección de discos duros y computadora pulsaremos la tecla DEL cuando aparezca en la parte inferior izquierda el mensaje "Press DEL to enter SETUP”. 2. Dentro de la pantalla azul del Setup dla computadora (Bios) nos moveremos sobre la opción Bios Features Setup, Soft Menu o similar y pulsaremos Enter. 3. Modificaremos la opción Host Bus Frequency, Ext. Clock (PCI) o similar con AvPág hasta buscar la velocidad del bus de la placa base deseada (por ejemplo 112Mhz para procesadores cuyo bus trabaje normalmente a 100Mhz). 4. En el apartado Core: Bus Freq.Múltiple, Multiplier factor o similar modificaremos el valor del multiplicador de la Computadora (que puede variar desde los 2.0x hasta los 8). 5. Saldremos de la Bios guardando los cambio, para lo que pulsaremos la tecla de función F10 y respondiendo al mensaje SAVE to CMOS and EXIT (Y/N)? con Y. Ambas cosas (Bios – Jumper) Es una mezcla de los tipos anteriores. Hay algunas placas base que se pueden configurar tanto por jumpers como mediante bios, siendo esta última opción la que suele ofrecer más posibilidades de configuración. Voltaje Esta posibilidad, fue muy utilizada en la época de los procesadores con la velocidad del reloj doblada (nos referimos a procesadores Intel SX y DX), estando hoy en desuso porque es una práctica poco recomendable y bastante peligrosa para nuestro micro. Consiste en aumentar el multiplicador de frecuencia de la computadora y después jugar con el voltaje de alimentación del mismo. De esta manera los pulsos del reloj serán un algo más "fuertes", y no habrá posibilidad de que se pierdan y que el micro no los detecte después de haber aumentado la frecuencia del procesador (a través del multiplicador de la computadora). Algunas placas disponen de regulación de voltaje de 2V a 4V (tanto por jumpers como por BIOS). El voltaje al que funcionan los micros varía dependiendo de la marca y modelo, pero van desde los 2V hasta los 3,3V (salvo los Athlon que funcionan a 1,6V), por lo que aumentando el voltaje paulatinamente conseguiremos nuestro propósito de aumentar la velocidad (no se debe aumentar nunca el voltaje más de 0,2V). Sin embargo, desaconsejamos este método debido a que fuerza dos aspectos distintos del procesador: el voltaje y la frecuencia. Cada uno de estos factores por separado aumenta el calor producido por el chip, y la suma de los dos puede ser definitiva para deteriorar el mismo. Antes de comenzar a desarrollar el procedimiento, hay que saber cómo se configura el microprocesador en la placa base, para esto hay que saber 3 cosas: el voltaje, la velocidad del bus y el multiplicador: El voltaje no tiene pérdida, ya que cada familia de procesadores tiene su propio voltaje. Para ponerlo asegúrate primero. La velocidad del bus no es ni más ni menos que la velocidad a la que se transmite la información por la placa base. Suele llamarse la velocidad externa del procesador, y cada uno lleva la suya predeterminada (aunque puede subirse) Y por último está el multiplicador, el cual se usa desde la época de los 486 DX2 (25 x 2 = 50 MHz, o 33 x 2 = 66 MHz). La multiplicación de la velocidad del bus por el multiplicador da la frecuencia a la que trabaja el microprocesador. MODULO III ¿Qué es... el microprocesador? El microprocesador, o simplemente el micro, es el cerebro del ordenador. Es un chip, un tipo de componente electrónico en cuyo interior existen miles (o millones) de elementos llamados transistores, cuya combinación permite realizar el trabajo que tenga encomendado el chip. Los micros, como los llamaremos en adelante, suelen tener forma de cuadrado o rectángulo negro, y van o bien sobre un elemento llamado zócalo (socket en inglés) o soldados en la placa o, en el caso del Pentium II, metidos dentro de una especie de cartucho que se conecta a la placa base (aunque el chip en sí está soldado en el interior de dicho cartucho). A veces al micro se le denomina "la CPU" (Central Process Unit, Unidad Central de Proceso), aunque este término tiene cierta ambigüedad, pues también puede referirse a toda la caja que contiene la placa base, el micro, las tarjetas y el resto de la circuitería principal del ordenador. La velocidad de un micro se mide en megahertzios (MHz) o gigahertzios (1 GHz = 1.000 MHz), aunque esto es sólo una medida de la fuerza bruta del micro; un micro simple y anticuado a 500 MHz puede ser mucho más lento que uno más complejo y moderno (con más transistores, mejor organizado...) que vaya a "sólo" 400 MHz. Es lo mismo que ocurre con los motores de coche: un motor americano de los años 60 puede tener 5.000 cm3, pero no tiene nada que hacer contra un multiválvula actual de "sólo" 2.000 cm3. Debido a la extrema dificultad de fabricar componentes electrónicos que funcionen a las inmensas velocidades de MHz habituales hoy en día, todos los micros modernos tienen 2 velocidades: Velocidad interna: la velocidad a la que funciona el micro internamente (200, 333, 450... MHz). Velocidad externa o del bus: o también "velocidad del FSB"; la velocidad a la que se comunican el micro y la placa base, para poder abaratar el precio de ésta. Típicamente, 33, 60, 66, 100 ó 133 MHz. La cifra por la que se multiplica la velocidad externa o de la placa para dar la interna o del micro es el multiplicador; por ejemplo, un Pentium III a 450 MHz utiliza una velocidad de bus de 100 MHz y un multiplicador 4,5x. Partes de un microprocesador En un micro podemos diferenciar diversas partes: el encapsulado: es lo que rodea a la oblea de silicio en sí, para darle consistencia, impedir su deterioro (por ejemplo por oxidación con el aire) y permitir el enlace con los conectores externos que lo acoplarán a su zócalo o a la placa base. la memoria caché: una memoria ultrarrápida que emplea el micro para tener a mano ciertos datos que previsiblemente serán utilizados en las siguientes operaciones sin tener que acudir a la memoria RAM, reduciendo el tiempo de espera. Todos los micros "compatibles PC" desde el 486 poseen al menos la llamada caché interna de primer nivel o L1; es decir, la que está más cerca del micro, tanto que está encapsulada junto a él. Los micros más modernos (Pentium III Coppermine, Athlon Thunderbird, etc.) incluyen también en su interior otro nivel de caché, más grande aunque algo menos rápida, la caché de segundo nivel o L2. el coprocesador matemático: o, más correctamente, la FPU (Floating Point Unit, Unidad de coma Flotante). Parte del micro especializada en esa clase de cálculos matemáticos; antiguamente estaba en el exterior del micro, en otro chip. el resto del micro: el cual tiene varias partes (unidad de enteros, registros, etc.) que no merece la pena detallar aquí. Los MHz y el índice iCOMP Debe tenerse en cuenta que un ordenador con un micro a 600 MHz no será nunca el doble de rápido que uno con un micro a 300 MHz, hay que tener muy en cuenta otros factores como la velocidad de la placa o la influencia de los demás componentes. Esto no se tiene apenas en cuenta en el índice iCOMP, una tabla o gráfico de valores del supuesto rendimiento de los micros marca Intel. Es muy utilizado por Intel en sus folletos publicitarios, aunque no es en absoluto representativo del rendimiento final de un ordenador con alguno de esos micros. En realidad, las diferencias están muy exageradas, a base de realizar pruebas que casi sólo dependen del micro (y no de la placa base, la tarjeta de vídeo, el disco duro...), por lo que siempre parece que el rendimiento del ordenador crecerá linealmente con el número de MHz, cosa que no ocurre prácticamente jamás. Un ordenador con Pentium MMX a 233 MHz es sólo un 3 ó 4% mejor que uno a 200 MHz, y no el 16,5% de su diferencia de MHz ni el 11,5% de sus índices iCOMP. Parecerá increíble, pero es así. Vamos, que si le quieren vender un ordenador con el argumento de que tiene x MHz más, o un índice iCOMP inmenso, muéstrese muy escéptico. Mejor un ordenador con todos sus componentes regulares (mucha memoria, buena tarjeta de vídeo...) que un trasto a muchísimos MHz. Breve (?) historia de los microprocesadores El primer "PC" o Personal Computer fue inventado por IBM en 1.981 (a decir verdad, ya existían ordenadores personales antes, pero el modelo de IBM tuvo gran éxito, entre otras cosas porque era fácil de copiar). En su interior había un micro denominado 8088, de una empresa no muy conocida (¡¡en serio!!) llamada Intel. Las prestaciones de dicho chip resultan risibles hoy en día: un chip de 8 bits trabajando a 4,77 MHz (sí, 4 coma 77), aunque bastante razonables para una época en la que el chip de moda era el Z80 de Zilog, el motor de aquellos entrañables Spectrum que hicieron furor en aquellos tiempos, gracias sobre todo a juegos increíbles, con más gracia y arte que muchos actuales para Pentium MMX. El 8088 era una versión de prestaciones reducidas del 8086, que marcó la coletilla "86" para los siguientes chips Intel: el 80186 (que se usó principalmente para controlar periféricos), el 80286 (de cifras aterradoras, 16 bits y hasta 20 MHz) y por fin, en 1.987, el primer micro de 32 bits, el 80386 o simplemente 386. Al ser de 32 bits (ya comentaremos qué significa esto de los bits) permitía idear software más moderno, con funcionalidades como multitarea real, es decir, disponer de más de un programa trabajando a la vez. A partir de entonces todos los chips compatibles Intel han sido de 32 bits, incluso el flamante Pentium II. Ocupémonos ahora de eso de compatibles Intel. El mundo PC no es todo el mundo de la informática personal; existen por ejemplo los Atari o los Apple, que desde el principio confiaron en otra empresa llamada Motorola. Sin embargo, el software de esos ordenadores no es compatible con el tipo de instrucciones de la familia 80x86 de Intel; esos micros, pese a ser en ocasiones mejores que los Intel, sencillamente no entienden las órdenes utilizadas en los micros Intel, por lo que se dice que no son compatibles Intel. Aunque sí existen chips compatibles Intel de otras empresas, entre las que destacan AMD y Cyrix. Estas empresas comenzaron copiando flagrantemente a Intel, hasta hacerle a veces mucho daño (con productos como el 386 de AMD, que llegaba a 40 MHz frente a 33 MHz del de Intel, o bien en el mercado 486). Posteriormente perdieron el carro de Intel, especialmente el publicitario, pero hoy en día resurgen con ideas nuevas, buenas y propias, no adoptadas como antes. Volviendo a la historia, un día llegó el 486, que era un 386 con un coprocesador matemático incorporado y una memoria caché integrada, lo que le hacía más rápido; desde entonces todos los chips tienen ambos en su interior. Luego vino el Pentium, un nombre inventado para evitar que surgieran 586s marca AMD o Cyrix, ya que no era posible patentar un número pero sí un nombre, lo que aprovecharon para sacar fuertes campañas de publicidad del "Intel Inside" (Intel dentro), hasta llegar a los técnicos informáticos de colores que anunciaban los Pentium MMX y los Pentium II. Sobre estos (los MMX y II, no los tipos ridículos de colores) y otros modelos recientes, incluyendo al Athlon con el que AMD ha resucitado cual ave Fénix, hablaremos más adelante. Microprocesadores antiguos Tal como está el mundo, podríamos decir que cualquiera que tenga más de un mes en el mercado. De todas formas, aquí vamos a suponer antiguo a todo micro que no sea un Pentium o similar (K5, K6, 6x86, Celeron...), los cuales se estudian en la siguiente página. 8086, 8088, 286 Les juntamos por ser todos prehistóricos y de rendimiento similar. Los ordenadores con los dos primeros eran en ocasiones conocidos como ordenadores XT, mientras que los que tenían un 286 (80286 para los puristas) se conocían como AT. En España se vendieron muchos ordenadores con estos micros por la firma Amstrad, por ejemplo. Ninguno era de 32 bits, sino de 8 ó 16, bien en el bus interno o el externo. Esto significa que los datos iban por caminos (buses) que eran de 8 ó 16 bits, bien por dentro del chip o cuando salían al exterior, por ejemplo para ir a la memoria. Este número reducido de bits (un bit es la unidad mínima de información en electrónica) limita sus posibilidades en gran medida. Un chip de estas características tiene como entorno preferente y casi único el DOS, aunque puede hacerse correr Windows 3.1 sobre un 286 a 16 ó 20 MHz si las aplicaciones que vamos a utilizar no son nada exigentes; personalmente, he usado el procesador de textos AmiPro 1.2 en Windows 3.1 en un 286 y sólo era cuestión de tomármelo con calma (mucha calma cuando le mandaba imprimir, eso sí). Sin embargo, si tiene un ordenador así, no lo tire; puede usarlo para escribir textos (con algún WordPerfect antiguo), para jugar a juegos antiguos pero adictivos (como el Tetris, Prince of Persia, y otros clásicos), o incluso para navegar por Internet, sobre todo si el monitor es VGA y tiene un módem "viejo" (por ejemplo un 14.400). Si quiere saber algo sobre cómo reciclar esa vieja gloria, pulse aquí. 386, 386 SX Estos chips ya son más modernos, aunque aún del Neolítico informático. Su ventaja es que son de 32 bits; o mejor dicho, el 386 es de 32 bits; el 386 SX es de 32 bits internamente, pero de 16 en el bus externo, lo que le hace hasta un 25% más lento que el original, conocido como DX. Resulta curioso que el más potente sea el original, el 386. La versión SX fue sacada al mercado por Intel siguiendo una táctica comercial típica en esta empresa: dejar adelantos tecnológicos en reserva, manteniendo los precios altos, mientras se sacan versiones reducidas (las "SX") a precios más bajos. La cuestión es que ambos pueden usar software de 32 bits, aunque si lo que quiere usar es Windows 95 ¡ni se le ocurra pensar en un 386! Suponiendo que tenga suficiente memoria RAM, disco, etc., prepárese para esperar horas para realizar cualquier tontería. Su ámbito natural es DOS y Windows 3.x, donde pueden manejar aplicaciones bastante profesionales como Microsoft Word sin demasiados problemas, e incluso navegar por Internet de forma razonablemente rápida. Si lo que quiere es multitarea y software de 32 bits en un 386, piense en los sistemas operativos OS/2 o Linux (¡este último es gratis!). 486, 486 SX, DX, DX2 y DX4 La historia se repite, aunque esta vez entra en el campo del absurdo de la mano del márketing "Intel Inside". El 486 es el original, y su nombre completo es 80486 DX; consiste en: un corazón 386 actualizado, depurado y afinado; un coprocesador matemático para coma flotante integrado; una memoria caché (de 8 Kb en el DX original de Intel). Es de notar que la puesta a punto del núcleo 386 y sobre todo la memoria caché lo hacen mucho más rápido, casi el doble, que un 386 a su misma velocidad de reloj (mismos MHz). Hasta aquí el original; veamos las variantes: 486 SX: un DX sin coprocesador matemático. ¿Que cómo se hace eso? Sencillo: se hacen todos como DX y se quema el coprocesador, tras lo cual en vez de "DX" se escribe "SX" sobre el chip. Dantesco, ¿verdad? Pero la teoría dice que si lo haces y lo vendes más barato, sacas dinero de alguna forma. Lo dicho, alucinante. 486 DX2: o el "2x1": un 486 "completo" que va internamente el doble de rápido que externamente (es decir, al doble de MHz). Así, un 486 DX2-66 va a 66 MHz en su interior y a 33 MHz en sus comunicaciones con la placa (memoria, caché secundaria...). Buena idea, Intel. 486 DX4: o cómo hacer que 3x1=4. El mismo truco que antes, pero multiplicando por 3 en vez de por 2 (DX4-100 significa 33x3=99 ó, más o menos, 100). ¿Que por qué no se llama DX3? Márketing, chicos, márketing. El 4 es más bonito y grande... En este terreno Cyrix y AMD hicieron de todo, desde micros "light" que eran 386 potenciados (por ejemplo, con sólo 1 Kb de caché en vez de 8) hasta chips muy buenos como el que usé para empezar a escribir esto: un AMD DX4-120 (40 MHz por 3), que rinde casi (casi) como un Pentium 75, o incluso uno a 133 MHz (33 MHz por 4 y con 16 Kb de caché!!). Por cierto, tanto "por" acaba por generar un cuello de botella, ya que hacer pasar 100 ó 133 MHz por un hueco para 33 es complicado, lo que hace que más que "x3" acabe siendo algo así como "x2,75" (que tampoco está mal). Además, genera calor, por lo que debe usarse un disipador de cobre y un ventilador sobre el chip. En un 486 se puede hacer de todo, sobre todo si supera los 66 MHz y tenemos suficiente RAM; por ejemplo, yo hice gran parte de estas páginas, que no es poco. Microprocesadores modernos Modernos dentro de un orden, ya que actualmente la mayoría ni se fabrican. De todas formas, son micros bastante decentes, de la clase que no debería ser cambiada salvo por defunción o puro vicio (vicio comprensible, sin duda). Pentium "clásicos" ¿Y llegó por fin el esperado 586? No, y no llegaría nunca. Intel se hartó de que le copiaran el nombre de sus micros, desempolvó su latín y se dio cuenta de que 5=Pentium (o algo así), y lo registró con todo tipo de Copyrights. Los primeros Pentium, los de 60 y 66 MHz, eran, pura y simplemente, experimentos. Eso sí, los vendían (bien caros) como terminados, aunque se calentasen como demonios (iban a 5 V) y tuvieran un fallo en la unidad matemática. Pero Intel ya era INTEL, y podía permitírselo. Luego los depuraron, les bajaron el voltaje a 3,3 V y empezó de nuevo el márketing. Fijaron las frecuencias de las placas base en 50, 60 ó 66 MHz, y sacaron, más o menos por este orden, chips a 90, 100, 75, 120, 133, 150, 166 y 200 MHz (que iban internamente a 50, 60 ó 66 x1,5, x2, x2,5...). Una situación absurda, propia del lema "Intel Inside". El caso es que sobraban muchas de las variantes, pues un 120 (60x2) no era mucho mejor que un 100 (66x1,5), y entre el 133 (66x2) y el 150 (60x2,5) la diferencia era del orden del 2% (o menor), debido a esa diferencia a nivel de placa. Además, el "cuello de botella" hacía que el 200 se pareciera peligrosamente a un 166 en un buen día. Pero el caso es que eran buenos chips, eficientes y matemáticamente insuperables, aunque con esos fallos en los primeros modelos. Además, eran superescalares, o en cristiano: admitían más de una orden a la vez (casi como si fueran 2 micros juntos). Así que la competencia se puso el hábito de penitente, y padeció, y padeció... K5 de AMD ...Hasta que AMD se cansó de padecer y sacó su "Pentium clónico", que no era tal, pues ni podía llamarlo Pentium (copyright, chicos) ni estaba copiado, sino que le costó sangre, sudor, lágrimas... y varios años de retraso. El K5 era un buen chip, rápido para labores de oficina pero con peor coprocesador matemático que el Pentium, por lo que no era apropiado para CAD ni para ciertos juegos tipo Quake, que son las únicas aplicaciones que usan esta parte del micro. Su ventaja, la relación prestaciones/precio. Técnicamente, los modelos PR75, PR90 y PR100 se configuraban igual que sus PR equivalentes (sus Performance Rating) en Pentium, mientras que los PR120, PR133 y PR166 eran más avanzados, por lo que necesitaban ir a menos MHz (sólo 90, 100 y 116,66 MHz) para alcanzar ese PR equivalente. 6x86 (M1) de Cyrix (o IBM) Un señor avance de Cyrix. Un chip tan bueno que, a los mismos MHz, era algo mejor que un Pentium, por lo que los llamaban por su PR (un índice que indicaba cuál sería su Pentium equivalente); AMD usó también este método para tres de sus K5 (los PR120, 133 y 166). Según Cyrix, un 6x86 P133 iba a menos MHz (en concreto 110), pero rendía tanto o más que un Pentium a 133. Bueno, más o menos; no siempre era así. En realidad, algunos cálculos de Cyrix le beneficiaban un poco, ya que le daban un par de puntos más de los reales; pero esto era insignificante. El auténtico problema radicaba en su unidad de coma flotante, francamente mala. El 6x86 (también llamado M1) era una elección fantástica para trabajar rápido y a buen precio con Office, WordPerfect, Windows 95... pero mala, peor que un K5 de AMD, si se trataba de AutoCAD, Microstation o, sobre todo, juegos. Jugar a Quake en un 6x86 es una experiencia horrible, hasta el punto de que muchos juegos de alta gama no arrancan si lo detectan. Una pena... Otro problema de estos chips era que se calentaban mucho, por lo que hicieron una versión de bajo voltaje llamada 6x86L (low voltage). Ah, Cyrix no tiene fábricas propias, por lo que se lo hace IBM, que se queda un chip de cada dos. Por eso a veces aparece como "6x86 de IBM", que parece que asusta menos al comprador. Pentium Pro Mientras AMD y Cyrix padecían su particular viacrucis, Intel decidió innovar el terreno informático y sacó un "súper-micro", al que tuvo la original idea de apellidar Pro (fesional, suponemos). Este micro era más superescalar que el Pentium, tenía un núcleo más depurado, incluía una unidad matemática aún más rápida y, sobre todo, tenía la caché de segundo nivel en el encapsulado del chip. Esto no quiere decir que fuera una nueva caché interna, término que se reserva para la de primer nivel. Un Pentium Pro tiene una caché de primer nivel junto al resto del micro, y además una de segundo nivel "en la habitación de al lado", sólo separada del corazón del micro por un centímetro y a la misma velocidad que éste, no a la de la placa (más baja); digamos que es semi-interna. El micro es bastante grande, para poder alojar a la caché, y va sobre un zócalo rectangular llamado socket 8. El único problema de este micro era su carácter profesional. Además de ser muy caro, necesitaba correr software sólo de 32 bits. Con software de 16 bits, o incluso una mezcla de 32 y 16 bits como Windows 95, su rendimiento es menor que el de un Pentium clásico; sin embargo, en Windows NT, OS/2 o Linux, literalmente vuela. Pentium MMX Es un micro propio de la filosofía Intel. Con un gran chip como el Pentium Pro ya en el mercado, y a 3 meses escasos de sacar el Pentium II, decidió estirar un poco más la tecnología ya obsoleta del Pentium clásico en vez de ofrecer esas nuevas soluciones a un precio razonable. Así que se inventó un nuevo conjunto de instrucciones para micro, que para ser modernos tuvieran que ver con el rendimiento de las aplicaciones multimedia, y las llamó MMX (MultiMedia eXtensions). Prometían que el nuevo Pentium, con las MMX y el doble de caché (32 KB), podía tener ¡hasta un 60% más de rendimiento!! Disculpen si respondo: ¡y unas narices! En ocasiones, la ventaja puede llegar al 25%, y sólo en aplicaciones muy optimizadas para MMX (ni Windows 95 ni Office lo son, por ejemplo). En el resto, no más de un 10%, que además se debe casi en exclusiva al aumento de la caché interna al doble. ¿La ventaja del chip, entonces? Que su precio final acaba siendo igual que si no fuera MMX. Además, consume y se calienta menos por tener voltaje reducido para el núcleo del chip (2,8 V). Por cierto, el modelo a 233 MHz (66 MHz en placa por 3,5) está tan estrangulado por ese "cuello de botella" que rinde poco más que el 200 (66 por 3). Pentium II ¿El nuevo super-extra-chip? Pues no del todo. En realidad, se trata del viejo Pentium Pro, jubilado antes de tiempo, con algunos cambios (no todos para mejor) y en una nueva y fantástica presentación, el cartucho SEC: una cajita negra superchula que en vez de a un zócalo se conecta a una ranura llamada Slot 1. Los cambios respecto al Pro son: optimizado para MMX (no sirve de mucho, pero hay que estar en la onda, chicos); nuevo encapsulado y conector a la placa (para eliminar a la competencia, como veremos); rendimiento de 16 bits mejorado (ahora sí es mejor que un Pentium en Windows 95, pero a costa de desaprovecharlo; lo suyo son 32 bits puros); caché secundaria encapsulada junto al chip (semi-interna, como si dijéramos), pero a la mitad de la velocidad de éste (un retroceso desde el Pro, que iba a la misma velocidad; abarata los costes de fabricación). Vamos, un chip "Pro 2.0", con muchas luces y algunas sombras. La mayor sombra, su método de conexión, el "Slot 1"; Intel lo patentó, lo que es algo así como patentar un enchufe cuadrado en vez de uno redondo (salvando las distancias, no nos pongamos puristas). El caso es que la jugada buscaba conseguir que los PC fueran todos marca Intel; ¡y decían que los sistemas propietarios eran cosa de Apple! Eso sí, durante bastante tiempo fue el mejor chip del mercado, especialmente desde que se dejó de fabricar el Pro. AMD K6 Un chip meritorio, mucho mejor que el K5. Incluía la "magia" MMX, aparte de un diseño interno increíblemente innovador y una caché interna de 64 KB (no hace demasiado, ese tamaño lo tenían las cachés externas; casi da miedo). Se "pincha" en un zócalo de Pentium normal (un socket 7, para ser precisos) y la caché secundaria la tiene en la placa base, a la manera clásica. Pese a esto, su rendimiento es muy bueno: mejor que un MMX y sólo algo peor que un II, siempre que se pruebe en Windows 95 (NT es terreno abonado para el Pentium II). Aunque es algo peor en cuanto a cálculos de coma flotante (CAD y juegos), para oficina es la opción a elegir en todo el mundo... excepto España. Aquí nos ha encantado lo de "Intel Pentium Inside", y la gente no compra nada sin esta frase, por lo que casi nadie lo vende y mucho menos a los precios ridículos de lugares como EEUU o Alemania. Oferta y demanda, como todo; no basta con una buena idea, hay que convencer. De todas formas, hasta IBM lo usa en algunos de sus equipos; por algo será. 6x86MX (M2) de Cyrix (o IBM) Nada que añadir a lo dicho sobre el 6x86 clásico y el K6 de AMD; pues eso, un chip muy bueno para trabajo de oficinas, que incluye MMX y que nunca debe elegirse para CAD o juegos (peor que los AMD). Como antes, su ventaja es el precio, pero por desgracia no en España... Celeron (Pentium II light) En breve: un Pentium II sin la caché secundaria. Pensado para liquidar el mercado de placas base tipo Pentium no II (con socket 7, que se dice) y liquidar definitivamente a AMD y otras empresas molestas que usan estas placas. Esta gente de Intel no tiene compasión, sin duda... Muy poco recomendable, rendimiento mucho más bajo que el de Pentium II, casi idéntico al del Pentium MMX (según lo que la misma Intel dixit, no yo). Para saber más, consulte entre los Temas Relacionados el apartado de artículos sobre placas base. AMD K6-2 (K6-3D) Consiste en una revisión del K6, con un núcleo similar pero añadiéndole capacidades 3D en lo que AMD llama la tecnología 3DNow! (algo así como un MMX para 3D). Además, generalmente trabaja con un bus de 100 MHz hacia caché y memoria, lo que le hace rendir igual que un Pentium II en casi todas las condiciones e incluso mucho mejor que éste cuando se trata de juegos 3D modernos (ya que necesitan estar optimizados para este chip o bien usar las DirectX 6 de Microsoft). Para saber más, mire entre los Temas Relacionados el apartado de artículos sobre microprocesadores. Microprocesadores actuales Los que incorporan los ordenadores que se venden ahora en las tiendas. Evidentemente, esta categoría tiene "fecha de caducidad", y en este vertiginoso mundo del hardware suele ser demasiado corta... AMD K6-III Un micro casi idéntico al K6-2, excepto por el "pequeño detalle" de que incluye 256 KB de caché secundaria integrada, corriendo a la velocidad del micro (es decir, a 400 MHz o más), al estilo de los Celeron Mendocino. Esto le hace mucho más rápido que el K6-2 (en ocasiones, incluso más rápido que el Pentium III) en aplicaciones que utilicen mucho la caché, como las ofimáticas o casi todas las de índole "profesional"; sin embargo, en muchos juegos la diferencia no es demasiado grande (y sigue necesitando el uso de las instrucciones 3DNow! para exprimir todo su potencial). Celeron "A" (con caché) Una revisión muy interesante del Celeron que incluye 128 KB de caché secundaria, la cuarta parte de la que tiene un Pentium II. Pero mientras que en los Pentium II dicha caché trabaja a la mitad de la velocidad interna del micro (a 150 MHz para un Pentium II a 300 MHz, por ejemplo), en los nuevos Celeron trabaja a la misma velocidad que el micro, o lo que es lo mismo: ¡a 300 MHz o más! Gracias a esto, su rendimiento es casi idéntico al de un Pentium II de su misma velocidad de reloj, lo cual ha motivado que lo sustituya como modelo de entrada en el mercado, quedándose los Pentium III y 4 como modelos de gama alta. En la actualidad se fabrica únicamente en formato Socket 370, un formato similar al de los antiguos Pentium de coste más ajustado que el Slot 1. Según la revisión de núcleo que utilice necesita una u otra variante de este zócalo: PPGA para el antiguo núcleo Mendocino y FCPGA para los modernos Coppermine-128. Para un estudio más exhaustivo de este micro, mire entre los Temas Relacionados el apartado de artículos sobre microprocesadores. Pentium III Este micro sería al Pentium II lo que el K6-2 era al K6; es decir, que su única diferencia de importancia radica en la incorporación de unas nuevas instrucciones (las SSE, Streaming SIMD Extensions), que aumentan el rendimiento matemático y multimedia... pero sólo en aplicaciones específicamente optimizadas para ello. Los primeros modelos, con núcleo Katmai, se fabricaron todos en el mismo formato Slot 1 de los Pentium II, pero la actual revisión Coppermine de este micro utiliza mayoritariamente el Socket 370 FC-PGA. Muchos denominamos al Pentium III Coppermine "el auténtico Pentium III", porque al tener sus 256 KB de caché secundaria integrados en el núcleo del micro su rendimiento mejora en todo tipo de aplicaciones (incluso las no optimizadas). Pero tal vez no sea suficiente para vencer al siguiente micro de esta lista, el... AMD Athlon (K7) La gran apuesta de AMD: un micro con una arquitectura totalmente nueva, que le permite ser el más rápido en todo tipo de aplicaciones. 128 KB de caché de primer nivel (cuatro veces más que el Pentium III), bus de 200 ó 266 MHz (realmente 100 ó 133 MHz físicos con doble aprovechamiento de cada señal), 512 ó 256 KB de caché secundaria (los 256 KB integrados = más rápida), instrucciones 3DNow! para multimedia... y el mejor micro de todos los tiempos en cálculos matemáticos (¡todo un cambio, tratándose de AMD!). Su único y mínimo inconveniente radica en que necesita placas base específicamente diseñadas para él, debido a su novedoso bus de 200 MHz o más y a sus métodos de conexión, "Slot A" (físicamente igual al Slot 1 de Intel, pero incompatible con él... entre otras cosas porque Intel no quiso dar licencia a AMD para utilizarlo) o "Socket A" (un zócalo cuadrado similar al Socket 370, pero con muchos más pines). Los modelos actuales usan el núcleo Thunderbird, con la caché secundaria integrada. AMD Duron En breve: un micro casi idéntico al Athlon Socket A (no existe para Slot A) pero con menos memoria secundaria (64 KB), aunque integrada (es decir, más rápida, la caché va a la misma velocidad que el micro). De fantástica relación calidad/precio, es además excelente candidato al overclocking... toda una joya, pese a estar destinado supuestamente al mercado "de consumo". Pentium 4 La última apuesta de Intel, que representa todo un cambio de arquitectura; pese a su nombre, internamente poco o nada tiene que ver con otros miembros de la familia Pentium. Se trata de un micro peculiar: su diseño permite alcanzar mayores velocidades de reloj (más MHz... y GHz), pero proporcionando mucha menos potencia por cada MHz que los micros anteriores; es decir, que un Pentium 4 a 1,3 GHz puede ser MUCHO más lento que un Pentium III a "sólo" 1 GHz. Para ser competitivo, el Pentium 4 debe funcionar a 1,7 GHz o más. Por otro lado, incluye mejoras importantes: bus de 400 MHz (100 MHz físicos cuádruplemente aprovechados) y nuevas instrucciones para cálculos matemáticos, las SSE2. Éstas son muy necesarias para el Pentium 4, ya que su unidad de coma flotante es MUCHÍSIMO más lenta que la del Athlon; si el software está específicamente preparado (optimizado) para las SSE2, el Pentium 4 puede ser muy rápido, pero si no... y el caso es que, por ahora, hay muy pocas aplicaciones optimizadas. Por no hablar de otros temas, como... bueno, mejor lea nuestro artículo dedicado al Pentium 4, el tema de este micro es complejo y muy polémico. El Overclocking Consiste en eso mismo, en subir la velocidad de reloj por encima de la nominal del micro. Esta práctica puede realizarse a propósito o bien haber sido víctima de un engaño, según; en cualquier caso, entraña riesgos para el micro overclockeado. Insisto: entraña riesgos para el micro; no diga que no se le avisó. Los micros de una misma clase nacen, en líneas generales, todos iguales. Luego se prueban y se les clasifica con tal o cual velocidad, según la demanda del mercado y lo que se ha comprobado que resisten sin fallo alguno. Esto quiere decir que muchos micros pueden ser utilizados a más velocidad de la que marcan, aunque fuera de especificaciones y por tanto de garantía. Las consecuencias negativas son tres: 1. que no funcione a más velocidad de la marcada (pues nada, se le deja como viene y en paz); 2. que se estropee (rara vez pasa si se sube de manera escalonada y vigilando si falla); 3. que funcione pero se caliente (pasará SIEMPRE; al ir más rápido, genera más calor). Las consecuencias positivas, que tenemos un micro más rápido gratis. Si desea arriesgarse, coja el manual de su placa base y lea nuestro artículo introductorio sobre overclocking. Bueno, está avisado de lo bueno y lo malo, usted verá. Por cierto, lo normal es overclockear micros Pentium o superiores; en los 486 es posible, aunque deben subirse menos (de 33 a 40 MHz, o de 66 a 80, por ejemplo). Hacer overclocking con un 386 o inferior es bastante complicado y no merece la pena. Micros falsos La informática es terreno abonado para las falsificaciones. Sin el serigrafiado todos los chips parecen iguales, y es imposible conocer su marca, modelo o velocidad. Esto se aplica a la perfección para los micros; antiguamente era raro que alguien vendiera un micro falsificado, pero con la llegada del Pentium el problema llegó a adquirir dimensiones alarmantes, con cuerpos como la Interpol movilizados a la caza del falsificador. Los engaños más típicos suelen ser: Falsificación en sí: se coge un chip, se le borra o tapa el serigrafiado y se escribe encima, consiguiendo un nuevo chip más caro. Al principio la falsificación era muy cutre, y un poco de acetona la revelaba; hoy en día, ni un experto puede estar seguro. Es muy difícil de evitar, como no sea acudiendo a empresas de reconocido prestigio donde el riesgo sea mínimo o escogiendo un chip barato, que seguro que no han falsificado. También se puede exigir que sea un chip no OEM, sino con su propia caja y garantía sellada, pero estos chips son mucho más caros (y la caja puede ser falsa...) Intercambio de micros: un día se nos ocurre levantar el ventilador del micro y ¡sorpresa!, es un Pentium normal en vez de MMX; o va a otra velocidad, por ejemplo. Se va a la tienda y nos dicen que es un error, que no entienden qué puede haber pasado... y como no queremos follón y puede que tengan razón (en cuyo caso lo que son es unos cutres), dejamos que nos cambien el chip y nos vamos. Cambios de marca: algo muy común en la época 386 y 486, ahora mucho menos. Pagábamos un micro Intel y nos vendían un AMD, Cyrix o Texas Instruments; micros que a veces son iguales o mejores (mi 386 de AMD era fantástico, y aún podría funcionar sin problemas) pero que son más baratos, por lo que el ahorro es para el vendedor, no para nosotros. Se sabe de historias aberrantes, se lo aseguro; Pentium MMX más lentos que un 486, micros con 5 pegatinas encima del serigrafiado... falso, claro; y cosas aún peores. Las soluciones, a continuación: Exija ver el interior del ordenador: como no sea que compra en un sitio de muchísima garantía tipo Corte Inglés, PC City, ADL... (e incluso así, pueden haberse equivocado al embalarlo). Si no quieren, váyase sin pagar a otro lado; si quieren sus cientos de miles de pesetas no deberían molestarse por algo así. Por cierto, pueden obligarle a que la garantía valga únicamente si el ordenador lo abren sólo ellos (con sellos y pegatinas en la caja para saber si lo ha abierto). A mí no me gusta el método, porque le obliga a ampliarlo siempre en esa tienda, pero es más o menos legal; infórmese. De todas formas, nadie lo encontraría raro si se tratase de un televisor; ellos se protegen, en principio, de los manazas informáticos (que haberlos, haylos). Exija siempre una factura detallada: y, por el amor de Dios, con el IVA incluído. Será su única garantía de reclamación, así que asegúrese de que está TODO al detalle: modelos, cantidades (RAM, disco duro) y, sobre todo, marcas. Por ejemplo, "chip 200 MHz" no es nada; ¿qué es: un Pentium, un MMX, un II, un K6, un 6x86? (o un 486 superdopado, quién sabe). Vaya a sitios de una cierta fama: o al menos, con una apariencia decente y organizada. Si no entiende nada de la informática actual, lea revistas (varias), asesórese por un amigo o vaya a mis páginas de consejos de compra. Instalar un microprocesador Uno de los errores más habituales al comprar un ordenador es conceder excesiva importancia a su cerebro, el microprocesador. Para obtener un buen rendimiento no sólo se necesita un micro rápido, sino también una cantidad adecuada de memoria RAM, una buena tarjeta gráfica, etc... o podemos acabar con el equivalente de un motor de Ferrari instalado en la carrocería de un Seat 600, y para colmo con un depósito de 5 litros de combustible. De cualquier forma, ya sea rápido o lento, el microprocesador es un elemento imprescindible del PC (en cambio, hay seres humanos que se manejan bien sin apenas usar su cerebro...). Si ha decidido montarse su propio PC cual Frankenstein enloquecido, o bien pretende mejorar el que tiene ahora mismo, siga las siguientes indicaciones: 1. 2. 3. 4. 5. 6. 7. 8. Identifique el tipo de microprocesador que necesita. Apague y desconecte totalmente el equipo... Si ya hay un micro instalado, quítelo. Conecte el nuevo micro, prestando atención a su orientación. Ponga silicona termoconductora sobre el micro. Instale y conecte el conjunto de disipador y ventilador. Configure la placa base para el nuevo microprocesador. Revise todo, conecte el equipo, cruce los dedos y... 1.- Identifique el tipo de microprocesador que necesita. Esto es casi inmediato en el caso de montar un PC nuevo, pero no tanto si se trata de una actualización. La principal fuente de información a este respecto es la placa base. Necesitará saber: El tipo de zócalo (socket) o ranura (slot) en que debe "pincharse" el micro. Los más habituales son: - Socket 7: para micros tipo Pentium, Pentium MMX, AMD K6, K6-2 y K6-III, Cyrix... - Socket 370 PPGA: para micros Celeron de hasta 533 MHz y algunos Cyrix y VIA. - Socket 370 FC-PGA: para micros Pentium III y Celeron de más de 533 MHz. - Socket A (462): para los actuales AMD Athlon y Duron. - Socket 423: para los Pentium 4. - Slot A: para los primeros micros AMD Athlon. - Slot 1: para micros Pentium II, algunos Pentium III y algunos Celeron. Para más información al respecto, consulte el manual de su placa base y este enlace. Las características eléctricas y de configuración del micro: - el voltaje externo (I/O) que necesita (generalmente 3,3 V); - el voltaje interno (core) que necesita (será menor o igual que el de I/O); - su multiplicador (4x, 4,5x, 5x...) y su velocidad de bus (66, 100, 133... MHz). Por ejemplo, un Pentium III de 933 MHz utiliza un bus ("FSB" o "velocidad externa o de placa") de 133 MHz, un multiplicador 7x (933=7x133) y generalmente voltajes de 3,3 V (externo) y 1,7 V (interno). En placas base modernas es probable que todo se configure automáticamente, pero cuanto más conozca mejor le irá. Y ojo a las actualizaciones: muchas veces la placa base no ofrecerá la velocidad de bus o el voltaje que el nuevo micro necesita, otras veces tendrá que actualizar antes la BIOS... 2.- Si no lo ha hecho ya, apague y desconecte totalmente el equipo, descárguese de electricidad estática... en fin, siga estos consejos. 3.- Si ya hay un micro instalado, quítelo. En el caso de micros conectados a ranuras (Slot A o Slot 1) deberá liberar las presillas de los laterales, cuyo diseño varía un poco de unas placas base a otras y según el tipo de cartucho utilizado (ninguno en el caso de los Celeron para Slot 1 o los adaptadores de Socket 370 a Slot 1, van desnudos); en todo caso, es fácil. Con ellas libres, tire del micro hacia arriba, y ya está. Si se trata de un micro moderno para zócalo, la operación es también bastante sencilla gracias al sistema mecánico ZIF, que permite instalar los micros sin realizar fuerza en absoluto. Lo único engorroso puede ser soltar el fleje metálico que sujeta el ventilador; ponga atención al hacerlo, no sea que se suelte de repente y raye la placa base, rompiendo alguna de las líneas de circuito... Una vez quitado el ventilador, para soltar el micro simplemente ponga la palanca en posición vertical, con lo que el micro antiguo deberá quedar totalmente libre. Conecte el nuevo micro, prestando atención a su orientación. Todos los microprocesadores admiten una única posición dentro de su zócalo o ranura; si se trata de una ranura (ya sabe, Slot A o Slot 1), basta conque observe la posición de la muesca que divide la ranura en dos partes desiguales y la alinee con la correspondiente del micro. Seguidamente, apriete el micro con fuerza hasta que entre del todo y las presillas cierren con un "clic". Para no romper la placa base (no sea bestia...) apoye el otro lado en algo (un trozo de poliestireno, por ejemplo). Los micros para zócalo se orientan observando en qué zona o zonas del cuadrado de pines (conectores) falta uno o varios de dichos puntitos; esa zona suele corresponder con una esquina recortada del micro. Una vez orientado, ponga la palanca del zócalo en posición vertical, introdúzcalo (debe entrar prácticamente por su propio peso, pero asegúrese de que llega hasta el fondo) y baje la palanca hasta la posición horizontal de cierre. 5.- Ponga silicona termoconductora sobre el micro (si dispone de ella, claro). La silicona termoconductora, también llamada resina, grasa, adhesivo... etc., termoconductora o térmica, es una pasta que facilita el contacto íntimo entre el micro y el disipador, mejorando la transmisión de calor al disminuir la llamada resistencia térmica de contacto (se nota que aprobé Calor y Frío Industrial, ¿verdad?). Por supuesto, no es imprescindible... pero siempre viene bien, especialmente para micros que se calienten mucho por su diseño, por funcionar a grandes velocidades o por overclocking. Es necesaria muy poca, normalmente 1 gota o menos, no queremos aislarlo sino todo lo contrario: basta con "pintar" la zona del micro en contacto con el disipador (en los modelos modernos, sólo el núcleo, que mide 1 cm2 o menos). 6.- Instale y conecte el conjunto de disipador y ventilador. Normalmente, cualquier micro que funcione a 100 MHz o más necesitará ambos elementos de refrigeración. Si se trata de un micro para ranura, resultará bastante más cómodo instalarlos antes de "pinchar" el cartucho o adaptador en la placa base, dejando para este momento la tarea de conectar el ventilador eléctricamente. Por el contrario, en la inmensa mayoría de los micros para zócalo es físicamente imposible instalar disipador y ventilador antes que el micro, excepto algunos casos especiales en los cuales todo forma parte de un conjunto inseparable (como en los "kits" de actualización tipo Intel OverDrive). Éste suele ser uno de los puntos más arriesgados de la instalación, porque suele hacer falta realizar una fuerza considerable para lograr enganchar el sistema de sujeción del ventilador (normalmente un fleje metálico, a veces ayudado con tornillos u otros elementos). Para colmo, la zona para instalar el micro es SIEMPRE demasiado estrecha, y está rodeada de elementos muy delicados... en fin, que al mínimo descuido puede quedarse sin placa base. Otro punto a tener en cuenta es la relativa fragilidad de los micros actuales con diseño Flip-Chip: tienen el núcleo "del revés", de forma que asoma hacia el ventilador en lugar de hacia la placa base. La disipación de calor es mejor, pero si somos lo suficientemente bestias al apretar el disipador podemos llegar a romper la envoltura del núcleo, en cuyo caso adiós micro. Yo soy bastante bestia y no he roto aún ninguno, pero nunca es tarde para empezar... La conexión eléctrica del ventilador no puede ser más sencilla: en los modelos modernos, se realiza mediante tres finos cables que van unidos a un pequeño conector que deberemos enchufar en uno de los espacios habilitados para ello en la placa base. La ventaja de este método es que normalmente permite medir el número de revoluciones del ventilador (si éste y la placa base incluyen esta opción, claro). En el caso de placas base o ventiladores más antiguos, deberá utilizar el típico conector estándar de 4 cables que utilizan el disco duro o los reproductores de CDROM o DVD-ROM. En este caso la conexión se realiza directamente a la fuente de alimentación, por lo que no será posible medir la velocidad de giro del ventilador. Configure la placa base para el nuevo microprocesador. Un paso interesante: en bastantes placas base modernas puede ser absolutamente innecesario, ya que detectarán automáticamente todos los parámetros del micro (velocidad de bus, multiplicador y voltajes) y realizarán los cambios necesarios. Sin embargo, en otros modelos será imprescindible realizar la configuración a mano. Los 3 métodos típicos para configurar la placa base para el nuevo micro son: mediante jumpers: típicos de las placas base más antiguas, como las equipadas con zócalo Socket 7 o Slot 1. Generalmente deberá configurar a mano todos los parámetros, colocando en una u otra posición dichos jumpers; si no dispone del manual de la placa base, tal vez pueda hacerlo siguiendo las indicaciones serigrafiadas sobre la propia placa... si las hay. mediante interruptores DIP (DIP switches): un sistema análogo al anterior, pero algo más cómodo (al menos no podrá perder el minúsculo capuchón del jumper). Normalmente en placas base más modernas, que quizá configuren automáticamente alguno de los parámetros, como el voltaje. mediante la BIOS (u otro software): el sistema más moderno, propio de las placas base llamadas jumperless (es decir, sin jumpers). Estas placas suelen configurar el micro automáticamente, pero ofrecen opciones para que el usuario realice a mano los ajustes que considere necesarios... por ejemplo para realizar overclocking. En ordenadores bastante antiguos o algunos portátiles, puede que la configuración se realice mediante un programa externo en lugar de la BIOS, pero es algo poco habitual. Por supuesto, cualquier combinación de los métodos anteriores es posible; es muy común la presencia, por ejemplo, de jumpers o interruptores DIP cuya utilización desactiva cualquier configuración por defecto realizada mediante la BIOS. 8.- Revise todo, conecte el equipo, cruce los dedos y... Asegúrese MUY BIEN de que hizo todo correctamente: ¿El micro hace buen contacto? ¿El ventilador está conectado? ¿Configuró bien la placa base? Si la configuración se realiza a mano, preste especial atención a los valores del voltaje y el bus, no sea que fría el micro; el multiplicador muchas veces vendrá bloqueado de fábrica, aunque si no es así equivocarse será también muy peligroso. Por cierto: no cierre el equipo hasta verificar que el ventilador funciona. Uno de los problemas más comunes en un PC es que el ventilador del micro se pare, a veces tras unos minutos de funcionamiento, lo que ocasionará inestabilidad e incluso la muerte del micro por sobrecalentamiento... Nada más arrancar, debería ver la pantalla con los mensajes del POST (es decir, la de arranque y verificación de los parámetros del equipo y la BIOS), donde debería identificarse la presencia del nuevo micro. En muchos casos se le pedirá que acepte los cambios mediante la pulsación de alguna tecla, o bien que entre y salga de la BIOS para que sean aceptados. Puede suceder que el equipo funcione perfectamente, pero detecte incorrectamente el nombre del micro (a veces asignándole uno sin ninguna relación, como "486 a 600 MHz" para todo un Pentium II); si sólo es el nombre, NO PASA NADA... pero por si acaso, revise todo y verifique que el micro funciona a la velocidad que debe con programas tales como el WCPUID de H.Oda!. ATENCIÓN: si el equipo no enciende, o emite pitidos sin parar, ¡¡APAGUE RÁPIDAMENTE!! Puede ser que el micro no esté introducido del todo en su conector (típico de los micros para Slot A o Slot 1), que su configuración sea incorrecta o que no sea compatible con la placa base. En cualquier caso, deberá revisar TODO desde el principio: quemar un micro o crear un cortocircuito en la placa base no es algo muy difícil, se lo aseguro. Finalmente, tenga en cuenta que a veces se necesita una actualización de BIOS (previamente a la instalación del nuevo micro) para que el ordenador funcione correctamente, por ejemplo (aunque no siempre) al poner un micro con MMX en una placa que no se suponía preparada para ello, o un Celeron Mendocino en una de las primeras placas para Pentium II. En tal caso, vaya al sitio web del fabricante de la placa, descargue la actualización e instálela. Si no encuentra dicha actualización, puede que le sea imposible instalar el micro, aunque los voltajes y velocidades sean correctos; por eso es siempre recomendable comprar placas de marca, que son las únicas cuyas BIOS se actualizan... aunque no tan a menudo como sería deseable. Anexos: algunos casos concretos Siguiendo las explicaciones anteriores y con un poco de cuidado, se puede instalar casi cualquier microprocesador. De todas formas, vamos a concretar un poco para el caso de unos cuantos tipos de micro, peculiares sobre todo por ser algo antiguos (aunque parezca mentira, antes instalar un micro no era tan sencillo como ahora): Anexo 1: actualizar un 386 o inferior Anexo 2: actualizar un 486 Anexo 3: actualizar un Pentium Anexo 1: actualizar un 386 o inferior Resulta imposible sin cambiar la placa base. O bien está soldado a la misma, o la actualización pasaría por encontrar un chip compatible con esos zócalos tan antiguos (por cierto, sin la "amable palanca" de los zócalos ZIF), lo cual es más improbable que hallar la proverbial aguja en el pajar. Además, el aumento de rendimiento cambiando sólo el micro sería insuficiente para cualquier tarea "moderna", por lo que no merecería la pena. En estos casos, lo mejor es cambiar toda la placa o incluso comprar un ordenador nuevo (casi mejor, porque así renovamos el disco duro, la tarjeta gráfica...). Si está muy apurado de dinero, le recomiendo el mercado de segunda mano. Anexo 2: actualizar un 486 Con estos micros las opciones siguen estando muy limitadas, debido a su ya venerable edad; si pese a ello quiere practicar "arqueología del hardware", ante todo deberá saber si la placa puede proporcionar un voltaje de 3,3 V, además de los 5 V clásicos. Este voltaje reducido es el de los micros a 100 MHz o más (por ejemplo el AMD 486 DX4 a 120 MHz en el que escribí parte de estas líneas), que serían los más apropiados para actualizar el micro por muy poco dinero. Para saber si podemos usar este voltaje, en teoría bastaría con mirar en el manual de la placa base. Digo en teoría porque en numerosas ocasiones el manual indica que puede admitir dichos chips, pero en la placa falta el regulador de voltaje necesario. A mí mismo me pasó; y eso que yo había exigido que me pusieran una placa que admitiera dicha actualización, pero en tiendas como Intertex (actual MegaBoom o Grupo Star) no entienden de promesas... Si a ojo descubierto parece que no existen sospechosos cuadrados vacíos en la placa, donde debería ir una especie de aparatito generalmente negro, con aletas y algo parecido a condensadores, y el manual indica que sí soporta 3,3 V, es hora de ponerse a buscar un micro. Recomendaría un AMD 486DX4 a 120 MHz (40 MHz x 3 y 3,3 V), o si no el clásico (y mucho más lento) DX4-100 (33x3 a 3,3 V), bien de Intel, AMD o Cyrix. También son buenos micros (incluso mejores) los Cyrix 5x86, a 100 MHz o más, y por supuesto los micros de actualización como el Intel OverDrive o los modelos basados en el 5x86 de AMD (un 486 potenciado que funciona a 133 MHz, 33x4). Lo bueno de estos micros es que son micros que trabajan a 5 V (incluido el OverDrive DX4-100), ya que tienen su propio regulador de voltaje; lo malo, encontrarlos y su precio. El Intel OverDrive existía en forma de DX4-100 ó "Pentium" 63 ó 83 (en realidad, no alcanza en absoluto a un Pentium normal; el de 83 MHz rinde menos que un AMD DX4 a 120 MHz). En cualquier caso, le costará bastante encontrar cualquiera de estos micros, así que instale lo que encuentre; tal vez buscando por Internet... Pero si le piden más de 4.000 ptas por cualquiera de ellos, no se moleste; cambie toda la placa, aunque sea por una de segunda mano. Para instalar físicamente un 486, si tiene la suerte de que se trata de un zócalo ZIF (con palanca), el proceso a seguir es el habitual; si se trata de un antiquísimo zócalo PGA (usado hasta con los primeros 486), la extracción e inserción del micro se realizará por pura presión, complicando la operación. Para sacar un micro de un zócalo PGA, haga palanca muy lentamente con uno o varios destornilladores en los laterales del chip, cambiando de lado cada vez que lo levante un poco (¡nunca todo el rato en el mismo lado!). Es complicado y arriesgado, pero se puede hacer. No olvide situar los jumpers en las posiciones que correspondan según el manual de la placa, para indicar las nuevas características del micro (velocidad de placa, multiplicador, voltaje...), ni instalar un disipador y ventilador para cualquier micro de 100 MHz o más. En cualquier caso, recuerde que el máximo aumento de rendimiento, que es el que darían un AMD DX4 a 120 ó 133 MHz o un Cyrix 5x86 a 100 ó 120, sólo llegará al de un Pentium a 75 MHz, por lo que si quiere un auténtico salto en el rendimiento cambie toda la placa base. Anexo 3: actualizar un Pentium Si usted posee uno de los primeros Pentium, a 60 ó 66 MHz y 5 V, la única solución que le queda es instalar un OverDrive o cambiar la placa entera, lo que salvo que encuentre un OverDrive muy barato es siempre preferible; originalmente el precio del OverDrive que doblaba la velocidad a 120 ó 133 MHz era equivalente al de una placa y micro nuevos. Si lo que tiene es un Pentium a 75, 90, 100..., necesitará conocer las opciones de actualización de la placa. Es importante que determine: cómo se selecciona la velocidad de placa (50, 60 ó 66 MHz); cómo se selecciona el multiplicador (x1, x1,5, x2...); qué voltajes soporta (simple o doble y su rango admisible). De esta forma podrá cambiar por ejemplo un Pentium 75 (50x1,5) por un Pentium 133 simplemente seleccionando una velocidad de placa de 66 y un multiplicador x2, además de cambiar el micro... o, si se consigue un buen ventilador y quiere arriesgarse, puede hacer overclocking para poner por ejemplo ese mismo Pentium 75 a 90 MHz (60x1,5), aunque esto puede hacer que el chip se estropee (aparte de calentarse más, de ahí la importancia de la calidad del ventilador). Tenga en cuenta que los Pentium normales no son intercambiables "tal cual" por los MMX, entre otras cosas por temas de voltaje, así que lea cuidadosamente el manual de su placa antes de intentar instalar uno. También puede colocar un OverDrive, pero salvo que tenga mucha suerte le saldrá demasiado caro, o bien un AMD K5. Los K5 75, 90 y 100 se configuran como Pentium normales (50x1,5, 60x1,5 y 66x1,5), pero los 120, 133 y 166 son más avanzados, por lo que para conseguir un rendimiento equivalente (un PR, índice de rendimiento) a Pentium 120, 133 y 166 necesitan menos MHz, en concreto 90 (60x1,5) para el PR120, 100 (66x1,5) para el PR133 y 116,66 (66x1,75) para el PR166. Además, los multiplicadores en los AMD K5 son fijos e internos al chip, por lo que sólo hay que seleccionar la velocidad de placa. La única pega de estos chips es su mala unidad de coma flotante, que los invalida para CAD y juegos en 3D (se pueden hacer ambas cosas, pero si va a ser su uso principal no merecen la pena), aunque son perfectos para ofimática. Con los Cyrix 6x86 pasa otro tanto (ver tabla abajo). Y si quiere un gran aumento en velocidad y poder usar aplicaciones optimizadas para MMX pero su placa no admite el voltaje reducido de estos micros, aún le queda la opción del WinChip (ejem... si lo encuentra, está descatalogado). Este micro es totalmente compatible con el Pentium MMX, pero con el voltaje de un Pentium clásico. La instalación del chip no varía para nada de la ya explicada, siendo muy sencilla pues el zócalo será casi siempre del tipo ZIF. En general, el mayor problema radica en la configuración del micro, especialmente en los voltajes; aquí presentamos una tabla con las características principales de los chips tipo Pentium y compatibles: Micro MHz internos MHz placa Multiplicador Voltaje Pentium 60 y 66 60/66 60/66 x1 5V Pentium 75 a 200 75 a 200 50/60/66 x1,5/x2/x2,5/x3 3,3 V Pentium VRE Más inestables, necesitan un mayor voltaje 3,4 a 3,6 V Pentium MMX (P55C) Voltaje reducido para el núcleo interno (core) 2,8V interno, 3,3V externo AMD K5 PR75/90/100 75/90/100 50/60/66 Fijo 3,3 V AMD K5 PR120/133/166 90/100/116,66 50/60/66 Fijo 3,3 V Cyrix 6x86 (M1) P120/133/150/166/200 100/110/120/ 133/150 50/55/60/66/ 75 x2 3,3 V Cyrix 6x86L (low voltage) 150 75 x2 2,8V interno, 3,3V externo IDT WinChip C6 180 a 240 60/66/75 x3/x4 (usa el x1,5 como x4) 3,3 ó 3,52V MODULO IV En el ordenador existen dos BUSES: - ¿Qué es un Bus?. Es un camino electrónico por el cual circulan datos entre los diversos dispositvos conectados entre sí. Existe dos tipos de Bus. - Bus de Datos: Por éste circulan los datos de un dispositivo a otro. - Bus de Direcciones: Es por donde viajan las direcciones de memorias en las que están los datos que se quieren leer o escribir para que el procesador sepan donde están. Cuando el procesador quiere leer un dato de la memoria ROM o RAM, escribe la dirección de memoria en el bus de datos y le envía una señal a la memoria para indicar que va a hacer una operación de lectura, la memoria busca el dato y lo escribe en el bus de datos que lo manda al procesador. Para comunicarse con los periféricos disco, teclado, pantalla, etc. el procesador hace lo mismo pero comunicándose con el procesador de entrada / salida que a su vez se comunica con ellos de una forma similar. Diagrama de Bloques El Bus y ranuras de expansión. El bus de la placa base son los canales por donde circulan los datos que van y vienen del microprocesador. Con la aparición de microprocesadores muy rápidos se desperdiciaba parte de su potencia debido a que el bus hacía de cuello de botella, atascando los datos y haciendo esperar al microprocesador a que estuvieran disponibles los datos. Tras el tradicional bus ISA de 8 MHz han surgido otras alternativas como el Vesa Local Bus y el PCI, que ampliaban el ancho de banda de 16 hasta 32 bits. El resultado es una mejora en el rendimiento al transferir el doble de información (de 16 a 32 bits) en una misma operación. El Vesa Local Bus se quedó rápidamente obsoleto, permaneciendo el bus PCI que es el que se ha estado usando en las placas Pentium. Las placas más modernas soportan una velocidad del bus que varía entre los 50 y los 100 MHz, en función del procesador utilizado. Otros valores intermedios son 66, 75 o 112 MHz, por ejemplo. La placa también incorpora distintos multiplicadores: 2x, 3x, etc. Valores superiores a 5x comienzan a ser imprescindibles. Estos dos datos se utilizan para soportar todo tipo de procesadores. A mayor número de velocidades del bus y multiplicadores, la placa soportará mayor cantidad de procesadores. Para instalar un Pentium II a 400 MHz, por ejemplo, se configura el bus a 100 MHz y se activa el multiplicador 4x. 100x4=400 MHz. Un Pentium a 200 MHz se configura con un bus a 66 MHz y un multiplicador 3x. 66x3=198 MHz. Todas las placas soportan diferentes voltajes. No obstante, puesto que se desconoce el voltaje de los futuros procesadores, es bueno adquirir una placa que permita establecer este valor a voluntad, mediante fracciones de 0.1 voltios. Una placa base actual debe disponer de una ranura AGP para la tarjeta gráfica, cuatro o cinco PCI y, al menos, dos ISA para las tarjetas viejas, como modems internos, tarjetas de sonido, placas SCSI, etc. Los puertos exteriores no deben bajar de dos entradas USB, dos COM, y varios puertos en paralelo. AGP Este nuevo bus es capaz de paliar el cuello de botella que existe entre el microprocesador y la tarjeta gráfica. Hemos de tener en cuenta que el actual bus PCI va a 33 MHz. (132 Mb/s máximo), una velocidad bastante inferior a la del microprocesador. AGP incorpora un nuevo sistema de transferencia de datos a más velocidad, gracias al uso de la memoria principal del PC. Las placas base que lo soportan (sólo contienen 1 slot de este tipo) son las de Pentium II con chipset de Intel 440LX AGPset y 440BX. Ya están apareciendo las placas base Super 7, con el fin de hacer el estándar compatible con procesadores que van conectados con el zócalo Socket 7, tales como los Pentium, Pentium MMX y los procesadores de AMD y Cyrix. Para que el sistema funcione, se necesita una tarjeta gráfica compatible con el slot AGP, por lo que una tarjeta PCI no nos valdrá. En este caso varía la velocidad. Existen tarjetas 1x, velocidad estándar, es decir, 66 Mhz (264 Mb/s máximo). Las nuevas AGP llegan con 2x a 133 MHz (dobla al anterior, y alcanza de máxima 528 Mb/s); y un último tipo de 4x a 400 Mhz (ya que la velocidad interna se aumenta a 100 Mhz). Aunque el chipset BX de Intel en teoría lo soporta, no saldrán tarjetas de este tipo hasta principios de 1.999. El bus AGP permite cargar texturas en la RAM principal, es decir, ya no se limita a la capacidad de la memoria de la tarjeta gráfica; y además se apreciará de un aumento de imágenes por segundo, mayor calidad gráfica y la reproducción de vídeo más nítida. En teoría, un juego de 30 fps con una PCI alcanzaría con una AGP 240 fps. Microsoft dice que su API DirectDraw incluido en DirectX 5.0 es compatible con esta tecnología. PCI La tecnología PCI fue desarrollada por Intel para su microprocesador Pentium, pero se extendió hasta las placas para 486 (sobre todo las de la última generación que soportaban 486DX4). El funcionamiento es similar al del bus VESA. La diferencia es que todos los slots de expansión se conectan al microprocesador indirectamente a través de una circuitería que controla las transferencias. Este diseño permite conectar (teóricamente) hasta 10 placas de expansión en PCI. Otros factores importantes Hay otros detalles a tener en cuenta; por ejemplo, ya es común la inclusión de un conector para ratones y teclados de tipo PS/2 (ya sabéis, los que tienen la clavija pequeña y redonda), de puertos infrarrojos (que permiten la comunicación, sin cables, con dispositivos de este tipo) y USA, o Bus Serie Universal, que permite conectar 127 dispositivos con una transferencia de datos media-baja (webcams, escáneres, monitores...) a 12 Mbps y totalmente Plug and Play. Dentro de poco aparecerá el 1394, y tienes un artículo en el WEB de Duiops para informarte todo lo que quieras. Algunos modelos incorporan diversos añadidos, como la inclusión de un chip de aceleración gráfica 3D de Intel, una tarjeta de sonido Yamaha o una controladora SCSI. No son aconsejables, pues disponen de menos calidad que los periféricos adquiridos independientemente. También pueden encontrarse chips que miden la temperatura del procesador y el ventilador, y BIOS capaces de controlar la desconexión temporal de periféricos, cuando no se utilizan, para ahorrar energía. Otro detalle que se suele olvidar, pero que no carece de importancia, lo tenemos en el software que debe acompañar a la placa, los omnipresentes drivers; ya que se recomiendan para dispositivos como la controladora de disco duro. Y ya por último hablaremos sobre el formato de la placa. El que ha habido siempre ha sido el Baby-AT, y desde finales del 1996 podemos encontrar el ATX. No mejorará la velocidad, sino la flexibilidad, integración y funcionalidad. Reorganiza la distribución de los componentes de la placa base, de forma que al insertar tarjetas no se tropiecen con chips como el procesador. Además, se acorta la longitud de los cables y se mejora la ventilación de los componentes. También cambia el conector de alimentación para la placa base y la forma de la caja, por lo que tendremos que cambiar la caja externa antes de comprar la placa. El ATX permite integrar componentes en la placa como la tarjeta gráfica y la tarjeta de sonido, pero suelen tener una calidad bastante mediocre. Por tanto, si queremos instalar tarjeta gráfica y de sonido independientes, tendremos que buscar una placa base ATX sin estos componentes integrados en ella. IEEE 1394 Firewire El nuevo bus para ordenadores, que permitirá conectar 63 dispositivos como discos duros, y lo que es mejor: vídeos, televisores, cámaras... todo a una velocidad entre 100 y 400 Mbits por segundo (25 Mbytes/s) Uno de los principales propósitos de este artículo es dar a conocer la tecnología que rondará por nuestros ordenadores en los próximos meses. Muy poca gente conoce las especificaciones técnicas, o, sin ir más lejos, ni le suena el número de 1394. No existe casi información disponible dónde buscar, por lo que no les falta razón. Pero para eso está el WEB de Duiops, para arrojar un poco de luz sobre todas las inminentes tecnologías. El IEEE 1394, que se dio a conocer debido sobre todo a la lista de tecnologías contenidas en Windows 98, es un nuevo bus que permite conectar hasta 63 dispositivos con una velocidad de datos media-rápida. En el fondo es similar al USB, pero, como verás más adelante, tiene diferencias tanto en aplicaciones como en prestaciones. No se harán competencia uno con otro y convivirán pacíficamente en un mismo ordenador. Lo mejor de todo es el tipo de cosas que se pueden conectar. Éstas incluyen discos duros, DVD-ROMs y CD-ROMs de alta velocidad, impresoras, escáneres... y la novedad: cámaras de fotos digitales, videocámaras DV, televisiones... Todo esto último es un nuevo hardware que se está fabricando ya. De hecho, ya hay disponibles muchos elementos. Gracias al 1394, se podrán conectar cámaras digitales y de DV sin la necesidad de incómodas tarjetas que vienen opcionalmente con estos aparatos. Y ahora, te preguntarás cómo se conecta todo esto al ordenador. Por el momento, se hará con controladoras PCI, y en este artículo os comentamos dos: la Adaptec AHA-8940 y 8945. La diferencia estriba en que la primera soporta 1394 solamente, y la segunda tanto 1394 como Ultra Wide SCSI-3. Por tanto, el 1394 está a la vuelta de la esquina, más pronto que lo que todos creemos. Y para terminar esta introducción, os mostraremos el cable y el conector que se usa. Curiosamente, este último está basado en el que se usa para conectar dos Game Boy. 1394 vs. USB Mucha gente confunde el 1394 y el Universal Serial Bus (USB). Es incomprensible. Ambos son tecnologías que persiguen un nuevo método de conectar múltiples periféricos a un ordenador. Ambos permiten que los periféricos sean añadidos o desconectados sin la necesidad de reiniciar. Ambos usan cables ligeros y flexibles con un empleo sencillo, y conectores duraderos. Pero allí terminan los parecidos. Aunque los cables de 1394 y USB pueden parecer a la vista los mismo, la cantidad de datos que por ellos transcurre es bastante diferente. Como muestra la tabla de abajo, la velocidad y la capacidad de transferencia marca la principal distinción entre estas dos tecnologías: Número máximo de dispositivos IEEE 1394 Firewire USB 62 127 Cambio en caliente (agregar o quitar dispositivos sin tener que reiniciar el ordenador) Sí Sí Longitud máxima del cable entre dispositivos 4,5 metros 5 metros Velocidad de transferencia de datos 200 Mbps (25 Mb/s) 12 Mbps (1,5 Mb/s) Tipos de ancho de banda 400 Mbps (50MB/s) 800 Mbps (100MB/s) 1 Gbps+ (125MB/s+) Ninguno Implementación en Macintosh Sí No Conexión de periféricos interna Sí No Tipos de dispositivos conectables - Videocámaras DV - Cámaras digitales de alta resolución - HDTV (TV de alta definición) - Cajas de conexiones - Discos duros - Unidades DVD-ROM - Impresoras - Escáneres - Teclados - Ratones - Monitores - Joysticks - Cámaras digitales de baja resolución - Unidades CD-ROM de baja velocidad - Módems Hoy por hoy, el 1394 ofrece una transferencia de datos 16 veces superior a la ofrecida por el USB. Y se ampliará en los próximos meses. Eso es porque el USB fue diseñado para no prevenir futuros aumentos de velocidad en su capacidad de transferencia de datos. Por otro lado, el 1394 tiene bien definidos otros tipos de ancho de banda, con velocidad incrementada a 400 Mbps (50 MB/s) y posiblemente 800 Mbps (100 MB/s) esperado para 1998, y 1 Gbps+ (125 MB/s) y más allá en los próximos años. Tantos incrementos en la capacidad de transferencia de datos serán requeridos para los dispositivos que la requieren, tales como HDTV, cajas de mezclas digitales y sistemas de automatización caseros que planean incorporar interfaces 1394. Todo esto no significa que el 1394 gane la "guerra" de interfaces. No hay necesidad de ello. La mayoría de los analistas industriales esperan que los conectores 1394 y USB coexistirán pacíficamente en los ordenadores del futuro. Reemplazarán a los conectores que podemos encontrar hoy en las partes de atrás de los PC's. USB se reservará para los periféricos con un pequeño ancho de banda (ratones, teclados, módems), mientras que el 1394 será usado para conectar la nueva generación de productos electrónicos de gran ancho de banda. Slots para tarjetas de expansión Son unas ranuras de plástico con conectores eléctricos (slots) donde se introducen las tarjetas de expansión (tarjeta de vídeo, de sonido, de red...). Según la tecnología en que se basen presentan un aspecto externo diferente, con diferente tamaño y a veces incluso en distinto color. Ranuras ISA: son las más veteranas, un legado de los primeros tiempos del PC. Funcionan a unos 8 MHz y ofrecen un máximo de 16 MB/s, suficiente para conectar un módem o una tarjeta de sonido, pero muy poco para una tarjeta de vídeo. Miden unos 14 cm y su color suele ser negro; existe una versión aún más antigua que mide sólo 8,5 cm. Ranuras Vesa Local Bus: un modelo de efímera vida: se empezó a usar en los 486 y se dejó de usar en los primeros tiempos del Pentium. Son un desarrollo a partir de ISA, que puede ofrecer unos 160 MB/s a un máximo de 40 MHz. Son larguísimas, unos 22 cm, y su color suele ser negro, a veces con el final del conector en marrón u otro color. Ranuras PCI: el estándar actual. Pueden dar hasta 132 MB/s a 33 MHz, lo que es suficiente para casi todo, excepto quizá para algunas tarjetas de vídeo 3D. Miden unos 8,5 cm y generalmente son blancas. Ranuras AGP: o más bien ranura, ya que se dedica exclusivamente a conectar tarjetas de vídeo 3D, por lo que sólo suele haber una; además, su propia estructura impide que se utilice para todos los propósitos, por lo que se utiliza como una ayuda para el PCI. Según el modo de funcionamiento puede ofrecer 264 MB/s o incluso 528 MB/s. Mide unos 8 cm y se encuentra bastante separada del borde de la placa. Las placas actuales tienden a tener los más conectores PCI posibles, manteniendo uno o dos conectores ISA por motivos de compatibilidad con tarjetas antiguas y usando AGP para el vídeo. Memoria caché La siguiente información es tan sólo un resumen; para ver la página dedicada en exclusiva a este elemento, pulse aquí. Se trata de un tipo de memoria muy rápida que se utiliza de puente entre el microprocesador y la memoria principal o RAM, de tal forma que los datos más utilizados puedan encontrarse antes, acelerando el rendimiento del ordenador, especialmente en aplicaciones ofimáticas. Se empezó a implantar en la época del 386, no siendo de uso general hasta la llegada de los 486. Su tamaño ha sido siempre relativamente reducido (como máximo 1 MB), tanto por cuestiones de diseño como por su alto precio, consecuencia directa de su gran velocidad. Este precio elevado hizo que incluso se llegara a vender un número considerable de placas base con cachés falsas, algo que afortunadamente en la actualidad es bastante inusual. También se la conoce como caché externa, secundaria o de segundo nivel (L2, level 2), para diferenciarla de la caché interna o de primer nivel que llevan todos los microprocesadores desde el 486 (excepto el 486SX y los primeros Celeron). Su presentación varía mucho: puede venir en varios chips o en un único chip, soldada a la placa base o en un zócalo especial (por ejemplo del tipo CELP) e incluso puede no estar en la placa base sino pertenecer al microprocesador, como en los Pentium II y los modernos Celeron Mendocino. Conectores externos Se trata de los conectores para periféricos externos: teclado, ratón, impresora... En las placas Baby-AT lo único que está en contacto con la placa son unos cables que la unen con los conectores en sí, que se sitúan en la carcasa, excepto el de teclado que sí está adherido a la propia placa. En las ATX los conectores están todos agrupados entorno al de teclado y soldados a la placa base. Los principales conectores son: Teclado Bien para clavija DIN ancha, propio de las placas Baby-AT, o mini-DIN en placas ATX y muchos diseños propietarios. Puerto paralelo (LPT1) En los pocos casos en los que existe más de uno, el segundo sería LPT2. Es un conector hembra de unos 38 mm, con 25 pines agrupados en 2 hileras. Puertos serie (COM o RS232) Suelen ser dos, uno estrecho de unos 17 mm, con 9 pines (habitualmente "COM1"), y otro ancho de unos 38 mm, con 25 pines (generalmente "COM2"), como el paralelo pero macho, con los pines hacia fuera. Internamente son iguales, sólo cambia el conector exterior; en las placas ATX suelen ser ambos de 9 pines. Puerto para ratón PS/2 En realidad, un conector mini-DIN como el de teclado; el nombre proviene de su uso en los ordenadores PS/2 de IBM. Puerto de juegos O puerto para joystick o teclado midi. De tamaño algo mayor que el puerto serie estrecho, de unos 25 mm, con 15 pines agrupados en 2 hileras. Puerto VGA Incluyendo las modernas SVGA, XGA... pero no las CGA o EGA. Aunque lo normal es que no esté integrada en la placa base sino en una tarjeta de expansión, vamos a describirlo para evitar confusiones: de unos 17 mm, con 15 pines agrupados en 3 hileras. USB En las placas más modernas (ni siquiera en todas las ATX); de forma estrecha y rectangular, inconfundible pero de poca utilidad por ahora. Actualmente los teclados y ratones tienden hacia el mini-DIN o PS/2, y se supone que en unos años casi todo se conectará al USB, en una cadena de periféricos conectados al mismo cable. Sin embargo, en mi opinión nos quedan puertos paralelo y serie para rato; no en vano llevamos más de quince años con ellos. Conectores internos Bajo esta denominación englobamos a los conectores para dispositivos internos, como puedan ser la disquetera, el disco duro, el CD-ROM o el altavoz interno, e incluso para los puertos serie, paralelo y de joystick si la placa no es de formato ATX. En las placas base antiguas el soporte para estos elementos se realizaba mediante una tarjeta auxiliar, llamada de Input/Output o simplemente de I/O, como la de la siguiente foto; pero ya desde la época de los 486 se hizo común integrar los chips controladores de estos dispositivos en la placa base, o al menos los correspondientes a discos duros y disquetera. Siguiendo la foto de izquierda a derecha, el primer conector es el correspondiente a la disquetera; tiene 34 pines, y equivale al de menor tamaño de la foto del comienzo de este apartado; el siguiente es el de disco duro, que en las placas actuales es doble (uno para cada canal IDE); tiene 40 pines (a veces sólo 39, ya que el pin 20 carece de utilidad) y equivale a uno cualquiera de los otros dos que aparecen en la foto superior. El resto de conectores (para puertos serie, paralelo y joystick) pueden ser directamente externos (caso de las placas ATX) o bien internos para conectar un cable que termina en el adaptador correspondiente, que es el que asoma al exterior (caso de las placas Baby-AT o aquellas que usan tarjetas de I/O como la de la foto). Como ejemplo, el siguiente conector de la foto sería para el puerto de juegos o puerto para joystick, con 16 pines, puerto que actualmente suele venir incorporado a la tarjeta de sonido; mientras que el último conector, el situado más a la derecha con sólo 10 pines, se utilizaría para conectar un cable para uno de los puertos serie (el otro puerto serie es precisamente el conector que asoma por el lado derecho de la imagen). En esta clase de conectores, resulta de vital importancia conocer la posición del pin número 1, que vendrá indicada mediante un pequeño 1 o una flecha, y que corresponderá al extremo del cable marcado por una línea roja. Por último, el altavoz interno, los leds (las bombillitas) para el disco duro, el indicador de encendido, el turbo (si existe, en las placas modernas está totalmente en desuso) y los interruptores de reset o stand-by se conectan todos ellos con finos cables de colores a una serie de jumpers cuya posición y características de voltaje vendrán indicadas en el manual de la placa y/o en el serigrafiado de la misma. Conector eléctrico Es donde se conectan los cables para que la placa base reciba la alimentación proporcionada por la fuente. En las placas Baby-AT los conectores son dos, si bien están uno junto al otro, mientras que en las ATX es único. Cuando se trata de conectores Baby-AT, deben disponerse de forma que los cuatro cables negros (2 de cada conector), que son las tierras, queden en el centro. El conector ATX suele tener formas rectangulares y trapezoidales alternadas en algunos de los pines de tal forma que sea imposible equivocar su orientación. Una de las ventajas de las fuentes ATX es que permiten el apagado del sistema por software; es decir, que al pulsar "Apagar el sistema" en Windows 95 el sistema ¡realmente se apaga!. BUS MICRO CHANNEL (MCA) Vistas las limitaciones que tenía el diseño del bus ISA en IBM se trabajó en un nueva tecnología de bus que comercializó con su gama de ordenadores PS/2. El diseño MCA (Micro Channel Arquitecture) permitía una ruta de datos de 32 bits, más ancha, y una velocidad de reloj ligeramente más elevada de 10 Mhz, con una velocidad de transferencia máxima de 20 Mbps frente a los 8 Mbps del bus ISA. Pero lo que es más importante el novedoso diseño de bus de IBM incluyó un circuito de control especial a cargo del bus, que le permitía operar independientemente de la velocidad e incluso del tipo del microprocesador del sistema. Bajo MCA, la CPU no es más que uno de los posibles dispositivos dominantes del bus a los que se puede acceder para gestionar transferencias. La circuitería de control, llamada CAP (punto de decisión central), se enlaza con un proceso denominado control del bus para determinar y responder a las prioridades de cada uno de los dispositivos que dominan el bus. Para permitir la conexión de más dispositivos, el bus MCA especifica interrupciones sensibles al nivel, que resultan más fiables que el sistema de interrupciones del bus ISA. De esta forma es posible compartir interrupciones. Pero además se impusieron estándares de rendimiento superiores en las tarjetas de expansión. Es cierto que el progreso conlleva un precio: La nueva arquitectura de IBM es totalmente incompatible con las tarjetas de expansión que se incluyen en el bus ISA. Esto viene derivado de que los conectores de las tarjetas de expansión MCA eran más pequeños que las de los buses ISA. De esto se pueden sacar dos conclusiones. Por un lado el coste de estas tarjetas era menor y por otro ofrecía un mayor espacio interior en las pequeñas cajas de sobremesa. Las señales del bus estaban reorganizadas de forma que se introducía una señal de tierra cada 4 conectores. De esta forma se ayudaba a reducir las interferencias. EISA (Extended ISA) El principal rival del bus MCA fue el bus EISA, también basado en la idea de controlar el bus desde el microprocesador y ensanchar la ruta de datos hasta 32 bits. Sin embargo EISA mantuvo compatibilidad con las tarjetas de expansión ISA ya existentes lo cual le obligo a funcionar a una velocidad de 8 Mhz (exactamente 8.33). Esta limitación fue a la postre la que adjudico el papel de estándar a esta arquitectura, ya que los usuarios no veían factible cambiar sus antiguas tarjetas ISA por otras nuevas que en realidad no podían aprovechar al 100%. Su mayor ventaja con respecto al bus MCA es que EISA era un sistema abierto, ya que fue desarrollado por la mayoría de fabricantes de ordenadores compatibles PC que no aceptaron el monopolio que intentó ejercer IBM. Estos fabricantes fueron: AST, Compaq, Epson, Hewlett Packard, NEC, Olivetti, Tandy, Wyse y Zenith. Esta arquitectura de bus permite multiproceso, es decir, integrar en el sistema varios buses dentro del sistema, cada uno con su procesador. Si bien esta característica no es utilizada más que por sistemas operativos como UNIX o Windows NT. En una máquina EISA, puede haber al mismo tiempo hasta 6 buses principales con diferentes procesadores centrales y con sus correspondientes tarjetas auxiliares. En este bus hay un chip que se encarga de controlar el tráfico de datos señalando prioridades para cada posible punto de colisión o bloqueo mediante las reglas de control de la especificación EISA. Este chip recibe el nombre de Chip del Sistema Periférico Integrado (ISP). Este chip actúa en la CPU como un controlador del tráfico de datos. El motivo para que ni MCA ni EISA hayan sustituido por completo a ISA es muy sencillo: Estas alternativas aumentaban el coste del PC (incluso más del 50%) y no ofrecían ninguna mejora evidente en el rendimiento del sistema. Es más, en el momento en que se presentaron estos buses (1987-1988) esta superioridad en el rendimiento no resultaba excesivamente necesaria: Muy pocos dispositivos llegaban a los límites del rendimiento del bus ISA ordinario. LOCAL BUS Teniendo en cuenta las mencionadas limitaciones del bus AT y la infalibilidad de los buses EISA y MCA para asentarse en el mercado, en estos años se han ideado otros conceptos de bus. Se inició con el llamado Vesa Local Bus (VL-Bus), que fue concebido y propagado independientemente por el comité VESA, que se propuso el definir estándares en el ámbito de las tarjetas gráficas y así por primera vez y realmente tuviera poco que ver con el diseño del bus del PC. Fueron y son todavía las tarjetas gráficas quienes sufren la menor velocidad del bus AT. Por eso surgió, en el Comité VESA, la propuesta para un bus más rápido que fue el VESA Local Bus. Vesa Local Bus Al contrario que con el EISA, MCA y PCI, el bus VL no sustituye al bus ISA sino que lo complementa. Un PC con bus VL dispone para ello de un bus ISA y de las correspondientes ranuras (slots) para tarjetas de ampliación. Además, en un PC con bus VL puede haber, sin embargo, una, dos o incluso tres ranuras de expansión, para la colocación de tarjetas concebidas para el bus VL, casi siempre gráficos. Solamente estos slots están conectados con la CPU a través de un bus VL, de tal manera que las otras ranuras permanecen sin ser molestadas y las tarjetas ISA pueden hacer su servicio sin inconvenientes. El VL es una expansión homogeneizada de bus local, que funciona a 32 bits, pero que puede realizar operaciones a 16 bits. VESA presentó la primera versión del estándar VL-BUS en agosto de 1992. La aceptación por parte del mercado fue inmediata. Fiel a sus orígenes, el VL-BUS se acerca mucho al diseño del procesador 80486. De hecho presenta las mismas necesidades de señal de dicho chip, exceptuando unas cuantas menos estrictas destinadas a mantener la compatibilidad con los 386. La especificación VL-Bus como tal, no establece límites, ni superiores ni inferiores, en la velocidad del reloj, pero una mayor cantidad de conectores supone una mayor capacitancia, lo que hace que la fiabilidad disminuya a la par que aumenta la frecuencia. En la práctica, el VL-BUS no puede superar los 66 Mhz. Por este motivo, la especificación VL-BUS original recomienda que los diseñadores no empleen más de tres dispositivos de bus local en sistemas que operan a velocidades superiores a los 33 Mhz. A velocidades de bus superiores, el total disminuye: a 40 Mhz solo se pueden incorporar dos dispositivos; y a 50 Mhz un único dispositivo que ha de integrarse en la placa. En la práctica, la mejor combinación de rendimiento y funciones aparece a 33 Mhz. Tras la presentación del procesador Pentium a 64 bits, VESA comenzó a trabajar en un nuevo estándar (VL-Bus versión 2.0). La nueva especificación define un interface de 64 bits pero que mantienen toda compatibilidad con la actual especificación VL-BUS. La nueva especificación 2.0 redefine además la cantidad máxima de ranuras VL-BUYS que se permiten en un sistema sencillo. Ahora consta de hasta tres ranuras a 40 Mhz y dos a 50 Mhz, siempre que el sistema utilice un diseño de baja capacitancia. En el nombre del bus VL queda de manifiesto que se trata de un bus local. De forma distinta al bus ISA éste se acopla directamente en la CPU. Esto le proporciona por un lado una mejora substancial de la frecuencia de reloj (de la CPU) y hace que dependa de las línea de control de la CPU y del reloj. A estas desventajas hay que añadirle que no en todos los puntos están bien resueltas las especificaciones del comité VESA, hecho que a la larga le llevará a que el éxito del bus VL se vea empañado por ello. En sistemas 486 económicos se podía encontrar a menudo, pero su mejor momento ya ha pasado. PCI Visto lo anterior, se puede ver que el bus del futuro es claramente el PCI de Intel. PCI significa: interconexión de los componentes periféricos (Peripheral Component Interconnect) y presenta un moderno bus que no sólo está meditado para no tener la relación del bus ISA en relación a la frecuencia de reloj o su capacidad sino que también la sincronización con las tarjetas de ampliación en relación a sus direcciones de puerto, canales DMA e interrupciones se ha automatizado finalmente de tal manera que el usuario no deberá preocuparse más por ello. El bus PCI es independiente de la CPU, ya que entre la CPU y el bus PCI se instalará siempre un controlador de bus PCI, lo que facilita en gran medida el trabajo de los diseñadores de placas. Por ello también será posible instalarlo en sistemas que no estén basados en el procesador Intel si no que pueden usar otros, como por ejemplo, un procesador Alpha de DEC. También los procesadores PowerMacintosh de Apple se suministran en la actualidad con bus PCI. Las tarjetas de expansión PCI trabajan eficientemente en todos los sistemas y pueden ser intercambiadas de la manera que se desee. Solamente los controladores de dispositivo deben naturalmente ser ajustados al sistema anfitrión (host) es decir a su correspondiente CPU. Como vemos el bus PCI no depende del reloj de la CPU, porque está separado de ella por el controlador del bus. Si se instalara una CPU más rápida en su ordenador. no debería preocuparse porque las tarjetas de expansión instaladas no pudieran soportar las frecuencias de reloj superiores, pues con la separación del bus PCI de la CPU éstas no son influidas por esas frecuencias de reloj. Así se ha evitado desde el primer momento este problema y defecto del bus VL. El bus PCI emplea un conector estilo Micro Channel de 124 pines (188 en caso de una implementación de 64 bits) pero únicamente 47 de estas conexiones se emplean en una tarjeta de expansión( 49 en caso de que se trate de un adaptador bus-master); la diferencia se debe a la incorporación de una línea de alimentación y otra de tierra. Cada una de las señales activas del bus PCI está bien junto o frente a una señal de alimentación o de tierra, una técnica que minimiza la radiación. El límite práctico en la cantidad de conectores para buses PCI es de tres; como ocurre con el VL, más conectores aumentarían la capacitancia del bus y las operaciones a máxima velocidad resultarían menos fiables. A pesar de presentar un rendimiento similar al de un bus local conectado directamente, en realidad PCI no es más que la eliminación de un paso en el micropocesador. En lugar de disponer de su propio reloj, un bus PCI se adapta al empleado por el microprocesador y su circuitería, por tanto los componentes del PCI están sincronizados con el procesador. El actual estándar PCI autoriza frecuencias de reloj que oscilan entre 20 y 33 Mhz. A pesar que de que las tarjetas ISA no pueden ser instaladas en una ranura PCI, no debería renunciarse a la posibilidad de inserción de una tarjeta ISA. Así pues, a menudo se puede encontrar en un equipo con bus PCI la interfaz «puente» llamada «PCI-To-ISA-Bridge». Se trata de un chip que se conecta entre los distintos slots ISA y el controlador del bus PCI. Su tarea consiste en transponer las señales provenientes del bus PCI al bus ISA. De esta manera pueden seguir siendo utilizadas las tarjetas ISA al amparo del bus PCI. A pesar de que el bus PCI es el presente, sigue y seguirá habiendo buses y tarjetas de expansión ISA ya que no todas las tarjetas de expansión requieren las ratios de transferencia que permite el bus PCI. Sin embargo las tarjetas gráficas, tarjetas SCSI y tarjetas de red se han decantando cada vez más fuertemente hacia el bus PCI. La ventaja de la velocidad de este sistema de bus es que este hardware puede participar del continuo incremento de velocidad de los procesadores. SCSI (Small Computer System Interface) Además de todas las arquitecturas mencionadas anteriormente, también hay que mencionar a SCSI. Esta tecnología tiene su origen a principios de los años 80 cuando un fabricante de discos desarrollo su propia interface de E/S denominado SASI (Shugart Asociates System Interface) que debido a su gran éxito comercial fue presentado y aprobado por ANSI en 1986. SCSI no se conecta directamente al microprocesador sino que utiliza de puente uno de los buses anteriormente nombrados. Podríamos definir SCSI como un subsistema de E/S inteligente, completa y bidireccional. Un solo adaptador host SCSI puede controlar hasta 7 dispositivos inteligentes SCSI conectados a él. Una ventaja del bus SCSI frente a otros interfaces es que los dispositivos del bus se direccionan lógicamente en vez de físicamente. Esto sirve para 2 propósitos: Elimina cualquier limitación que el PC-Bios imponga a las unidades de disco. El direccionamiento lógico elimina la sobrecarga que el host podría tener en manejar los aspectos físicos del dispositivo como la tabla de pistas dañadas. El controlador SCSI lo maneja. Es un bus que a diferencia de otros buses como el ESDI puede tener hasta 8 dispositivos diferentes conectados al bus (incluido el controlador). Aunque potencialmente varios dispositivos pueden compartir un mismo adaptador SCSI, sólo 2 dispositivos SCSI pueden comunicarse sobre el bus al mismo tiempo. El bus SCSI puede configurarse de tres maneras diferenciadas que le dan gran versatilidad a este bus: Único iniciador/Único objetivo: Es la configuración más común donde el iniciador es un adaptador a una ranura de un PC y el objetivo es el controlador del disco duro. Esta es una configuración fácil de implementar pero no aprovecha las capacidades del bus SCSI, excepto para controlar varios discos duros. Único iniciador/Múltiple objetivo: Menos común y raramente implementado. Esta configuración es muy parecida a la anterior excepto para diferentes tipos de dispositivos E/S que se puedan gestionar por el mismo adaptador. Por ejemplo un disco duro y un reproductor de CD-ROM. Múltiple iniciador/Múltiple objetivo: Es mucho menos común que las anteriores pero así es como se utilizan a fondo las capacidades del bus. Dentro de la tecnología SCSI hay 2 generaciones y una tercera que está a la vuelta de la esquina. La primera generación permitía un ancho de banda de 8 bits y unos ratios de transferencia de hasta 5 MBps. El mayor problema de esta especificación fue que para que un producto se denominara SCSI solo debía cumplir 4 códigos de operación de los 64 disponibles por lo que proliferaron en el mercado gran cantidad de dispositivos SCSI no compatibles entre sí. Esto cambió con la especificación 2.0 ya que exigía un mínimo de 12 códigos, por lo que aumentaba la compatibilidad entre dispositivos. Otro punto a favor de SCSI 2.0 es el aumento del ancho de banda de 8 a 16 y 32 bits. Esto se consigue gracias a las implementaciones wide (ancho) y fast (rápido). Combinando estas dos metodologías se llega a conseguir una transferencia Máxima de 40 Mbps con 32 bits de ancho (20 Mbps con un ancho de banda de 16 bits). El protocolo SCSI 3.0 no establecerá nuevas prestaciones de los protocolos, pero si refinará el funcionamiento de SCSI. Además de incluir formalmente el uso del conector P de 68 pines Wide SCSI, por ejemplo, también especifica el uso de cables de fibra óptica. Otra posible modificación es el soporte para más de 8 dispositivos por cadena. MODULO V Qué es... la memoria RAM? La memoria principal o RAM (acrónimo de Random Access Memory, Memoria de Acceso Aleatorio) es donde el ordenador guarda los datos que está utilizando en el momento presente; son los "megas" famosos en número de 32, 64 ó 128 que aparecen en los anuncios de ordenadores. Físicamente, los chips de memoria son rectángulos negros que suelen ir soldados en grupos a unas plaquitas con "pines" o contactos, algo así: La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o los discos duros, es que la RAM es mucho (mucho) más rápida, y que se borra al apagar el ordenador, no como éstos. ¿Cuánta debo tener? No se engañe: cuanta más, mejor. Claro está que vale dinero, así que intentaremos llegar a un compromiso satisfactorio, pero nunca quedándonos cortos. Ante todo, no se queje: hoy en día el mega de RAM está a menos de 300 pesetas, cuando durante años costó más de 5.000 pesetas (de entonces, no de ahora). La cantidad de RAM necesaria es función únicamente de para qué use usted su ordenador, lo que condiciona qué sistema operativo y programas usa (aunque en ocasiones este orden lógico se ve trágicamente alterado). Sinópticamente, le recomiendo una cantidad mínima de: DOS únicamente sistema operativo menos de 1 MB Ofimática (procesador de texto, hoja de cálculo...) 2 a 4 MB CAD (2D o 3D sencillo) 8 a 24 MB (según versión) Gráficos / Fotografía 8 a 32 MB (según resolución y colores) Juegos hasta 386 2 a 4 MB Juegos modernos 8 a 16 MB Windows 3.1x únicamente sistema operativo (DOS incluido) 4 MB Ofimática (procesador de texto, hoja de cálculo...) 6 a 10 MB CAD (2D o 3D sencillo) 12 a 28 MB (según versión) Gráficos / Fotografía (nivel medio) 10 a 32 MB (según resolución y colores) Windows 95 únicamente sistema operativo 12 a 16 MB Ofimática (procesador de texto, hoja de cálculo...) 12 a 24 MB CAD (2D o 3D sencillo) 20 a 48 MB (según versión) Gráficos / Fotografía (nivel medio) 16 a 40 MB (según resolución y colores) Juegos 16 a 48 MB Existen más datos sobre la cantidad de memoria recomendable en este artículo. Como ve, la misma tarea bajo distintos sistemas operativos y programas necesita de distintas cantidades de RAM, aunque el resultado final del informe, trabajo de CAD u hoja de cálculo sea el mismo. Y es que a veces la informática no avanza, salvo como negocio (no para usted, claro). Como ejemplo, en un 486 DX2-66 con 16 MB de RAM, un mismo archivo de 1 MB en AutoCAD 12 para DOS vuela, mientras que en el mismo equipo con la versión 13 para Windows 95 se arrastra de mala manera, cuando no hace que se "cuelgue" el equipo. Visto esto, si va a comprar un ordenador nuevo, a día de hoy le recomiendo 64 MB de RAM, y a ser posible incluso 128. Si cree que lo que le interesa es instalar más RAM, pulse aquí para ver cómo hacerlo; es francamente sencillo. Sin embargo, no compre más que la necesaria: un aumento de RAM aumentará el rendimiento sólo si había escasez. La RAM vacía no sirve de nada, aunque como en todo, "mejor que sobre...". Tipos de RAM Tantos como quiera: DRAM, Fast Page, EDO, SDRAM... y lo que es peor, varios nombres para la misma cosa. Trataremos estos cuatro, que son los principales, aunque en el apartado Otros tipos de RAM encontrará prácticamente todos los demás (no pocos). DRAM: Dinamic-RAM, o RAM a secas, ya que es "la original", y por tanto la más lenta (aunque recuerde: siempre es mejor tener la suficiente memoria que tener la más rápida, pero andar escasos). Usada hasta la época del 386, su velocidad de refresco típica es de 80 ó 70 nanosegundos (ns), tiempo éste que tarda en vaciarse para poder dar entrada a la siguiente serie de datos. Por ello, es más rápida la de 70 ns que la de 80 ns. Físicamente, aparece en forma de DIMMs o de SIMMs, siendo estos últimos de 30 contactos. No se preocupe si tanto xIMM le suena a chino, es explicado más abajo; pero si no puede esperar más, pulse aquí. Fast Page (FPM): a veces llamada DRAM (o sólo "RAM"), puesto que evoluciona directamente de ella, y se usa desde hace tanto que pocas veces se las diferencia. Algo más rápida, tanto por su estructura (el modo de Página Rápida) como por ser de 70 ó 60 ns. Usada hasta con los primeros Pentium, físicamente aparece como SIMMs de 30 ó 72 contactos (los de 72 en los Pentium y algunos 486). EDO: o EDO-RAM, Extended Data Output-RAM. Evoluciona de la Fast Page; permite empezar a introducir nuevos datos mientras los anteriores están saliendo (haciendo su Output), lo que la hace algo más rápida (un 5%, más o menos). Muy común en los Pentium MMX y AMD K6, con refrescos de 70, 60 ó 50 ns. Se instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de DIMMs de 168. SDRAM: Sincronic-RAM. Funciona de manera sincronizada con la velocidad de la placa (de 50 a 66 MHz), para lo que debe ser rapidísima, de unos 25 a 10 ns. Sólo se presenta en forma de DIMMs de 168 contactos; es usada en los Pentium II de menos de 350 MHz y en los Celeron. PC100: o SDRAM de 100 MHz. Memoria SDRAM capaz de funcionar a esos 100 MHz, que utilizan los AMD K6-2, Pentium II a 350 MHz y micros más modernos; teóricamente se trata de unas especificaciones mínimas que se deben cumplir para funcionar correctamente a dicha velocidad, aunque no todas las memorias vendidas como "de 100 MHz" las cumplen... PC133: o SDRAM de 133 MHz. La más moderna (y recomendable). Para saber cómo identificar "a ojo descubierto" la velocidad de refresco (los ns) de un chip de memoria, pulse sobre este hipervínculo. También existe más información sobre la memoria SDRAM y la PC100 entre los Temas Relacionados en el margen. SIMMs y DIMMs Se trata de la forma en que se juntan los chips de memoria, del tipo que sean, para conectarse a la placa base del ordenador. Son unas plaquitas alargadas con conectores en un extremo; al conjunto se le llama módulo. El número de conectores depende del bus de datos del microprocesador, que más que un autobús es la carretera por la que van los datos; el número de carriles de dicha carretera representaría el número de bits de información que puede manejar cada vez. SIMMs: Single In-line Memory Module, con 30 ó 72 contactos. Los de 30 contactos pueden manejar 8 bits cada vez, por lo que en un 386 ó 486, que tiene un bus de datos de 32 bits, necesitamos usarlos de 4 en 4 módulos iguales. Miden unos 8,5 cm (30 c.) ó 10,5 cm (72 c.) y sus zócalos suelen ser de color blanco. Los SIMMs de 72 contactos, más modernos, manejan 32 bits, por lo que se usan de 1 en 1 en los 486; en los Pentium se haría de 2 en 2 módulos (iguales), porque el bus de datos de los Pentium es el doble de grande (64 bits). DIMMs: más alargados (unos 13 cm), con 168 contactos y en zócalos generalmente negros; llevan dos muescas para facilitar su correcta colocación. Pueden manejar 64 bits de una vez, por lo que pueden usarse de 1 en 1 en los Pentium, K6 y superiores. Existen para voltaje estándar (5 voltios) o reducido (3.3 V). Y podríamos añadir los módulos SIP, que eran parecidos a los SIMM pero con frágiles patitas soldadas y que no se usan desde hace bastantes años, o cuando toda o parte de la memoria viene soldada en la placa (caso de algunos ordenadores de marca). Otros tipos de RAM BEDO (Burst-EDO): una evolución de la EDO, que envía ciertos datos en "ráfagas". Poco extendida, compite en prestaciones con la SDRAM. Memorias con paridad: consisten en añadir a cualquiera de los tipos anteriores un chip que realiza una operación con los datos cuando entran en el chip y otra cuando salen. Si el resultado ha variado, se ha producido un error y los datos ya no son fiables. Dicho así, parece una ventaja; sin embargo, el ordenador sólo avisa de que el error se ha producido, no lo corrige. Es más, estos errores son tan improbables que la mayor parte de los chips no los sufren jamás aunque estén funcionando durante años; por ello, hace años que todas las memorias se fabrican sin paridad. ECC: memoria con corrección de errores. Puede ser de cualquier tipo, aunque sobre todo EDOECC o SDRAM-ECC. Detecta errores de datos y los corrige; para aplicaciones realmente críticas. Usada en servidores y mainframes. Memorias de Vídeo: para tarjetas gráficas. De menor a mayor rendimiento, pueden ser: DRAM > FPM -> EDO -> VRAM -> WRAM -> SDRAM -> SGRAM Para más datos sobre ellas, pulse aquí para ir al apartado correspondiente de tarjetas gráficas. Los módulos RIMM (Direct RAMBUS) El Direct Rambus™ RIMM™ es un módulo de memoria para el PC de altas prestaciones y de nueva generación. Desarrollado junto con Intel Corporation, la tecnología Direct Rambus tiene la proporción adecuada de prestaciones/precio requerida por la velocidad de reloj de los procesadores que se van a vender para los PCs a partir de 1999. El módulo RIMM conforma el estándar DIMM, pero no es compatible pin a pin. Su arquitectura está basada en el requerimiento eléctrico del canal Direct Rambus, un bus de alta velocidad operando a una frecuencia de reloj de 400 MHz, el cual permite una transferencia de datos de 800 MHz. Un canal de dos bytes de ancho se usa para dar un pico de transferencia de datos de 1,6 Gb por segundo. El bus usa las líneas de transmisión características para mantener la alta integridad de la señal. Se pueden usar hasta tres módulos RIMM en una placa base de un PC de escritorio, como se muestra en la imagen de la derecha. Aquí el canal Rambus se extiende desde el controlador a través de cada módulo RIMM usado de una forma continua hasta que se alcanza la terminación del canal. Los módulos de continuidad de bajo costo se usan para mantener la integración del canal en sistemas que tengan menos de tres módulos RIMM. Un chip en placa SPD (Serial Presence Detect) PROM se usa para permitir la inicialización de la información al procesador del sistema en el encendido. Esta técnica asegura la compatibilidad de todos los fabricantes de RDRAM Direct Rambus que producen dispositivos DRAM de varias densidades. La creciente lista de fabricantes de Rambus que producen los módulos RIMM incluyen los más importantes fabricantes de módulos de memoria. Se planea una variante de los módulos RIMM para los PCs portátiles. La tecnología Direct Rambus también se desarrolla para servidores de gran escala, estaciones de trabajo y aplicaciones de comunicaciones. A nivel de sistema, los fabricantes de lideran la industria se han asociado en torno al Rambus para desarrollar los componentes de la infraestructura estandarizada de Direct Rambus incluyendo dispositivos de memoria RDRAM®, controladores de memoria, chips de reloj y conectores. MODULO VI Discos duros Ha habido muchos cambios en el campo de los discos duros. De más antiguos del tamaño de una caja de zapatos y de capacidades ridículas (vistas desde hoy) hasta discos duros compactos y reducidos con capacidades 400 veces mayores. Estructura interna de un disco duro Tamaño de clúster y espacio disponible Un cluster se trata de una agrupación de varios sectores para formar una unidad de asignación. Normalmente, el tamaño de cluster en la FAT del DOS o de Windows 95 es de 32 Kb; ¿y qúe? Esto no tendría importancia si no fuera porque un cluster es la mínima unidad de lectura o escritura, a nivel lógico, del disco. Es decir, cuando grabamos un archivo, por ejemplo de 10 Kb, estamos empleando un cluster completo, lo que significa que se desperdician 22 Kb de ese culster. Imaginaos ahora que grabamos 100 ficheros de 10 Kb; perderíamos 100x22 Kb, más de 2 Megas. Por ello, el OSR2 de Windows 95 y Windows 98 implementan una nueva FAT, la FAT 32, que subsana esta limitación, además de otros problemas. Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro y atravesados por un eje, y giran continuamente a gran velocidad. Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000 pulgadas). Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1). La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar. Algunos conceptos Antes hemos comentado que los discos giran continuamente a gran velocidad; este detalle, la velocidad de rotación, incide directamente en el rendimiento de la unidad, concretamente en el tiempo de acceso. Es el parámetro más usado para medir la velocidad de un disco duro, y lo forman la suma de dos factores: el tiempo medio de búsqueda y la latencia; el primero es lo que tarde el cabezal en desplazarse a una pista determinada, y el segundo es el tiempo que emplean los datos en pasar por el cabezal. Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600 rpm (revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los discos duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y actualmente, existen discos de alta gama aún más rápidos, hasta 10.000 rpm. Es preciso comentar también la estructura lógica del disco, ya que contiene importantes conceptos que todos habréis oído; para empezar, la superficie del disco se divide en una serie de anillos concéntricos, denominados pistas. Al mismo tiempo, las pistas son divididas en trames de una misma longitud, llamados sectores; normalmente un sector contiene 512 bytes. Otro concepto es el de cilindro, usado para describir las pistas que tienen el mismo número pero en diferentes discos. Finalmente, los sectores suelen agruparse en clusters o unidades de asignación. Estos conceptos son importantes a la hora de instalar y configurar un disco duro, y haremos uso de alguna de esta información cuando subamos al nivel lógico del disco. Muchas placas base modernas detectan los discos duros instalados, mientras que en otras más antiguas hay que meter algunos valores uno por uno (siempre vienen escritos en una etiqueta pegada en la parte superior del disco). Algunas curiosidades: El estándar IDE surgió a raíz de un encargo que la firma Compaq le hizo a la compañía Western Digital. Compaq necesitaba una controladora compatible con el estándar ST506, pero debido a la falta de espacio en el interior de los equipos a los que iba dirigida, ésta debía implementar la circuitería de control en el propio disco duro. Está claro que la necesidad es la madre de la inventiva, ¿verdad? En antiguos discos duros (sobre todo MFM) era imprescindible, antes de apagar el equipo para moverlo de sitio, ejecutar una utilidad especial para "aparcar" las cabezas de la unidad. Con esta operación se depositaban los cabezales en una zona segura del disco, de forma que no pudieran dañar la superficie del disco en caso de movimientos o vibraciones. En la actualidad este proceso lo realiza la unidad de forma automática al ser desconectada (podéis comprobar cómo al apagar el PC, durante un segundo se ilumina el led del disco duro), y no se concibe un disco duro que no incluya esta característica. Formatear un disco duro IDE a bajo nivel puede ser perjudicial para el mismo. Durante el proceso, que el fabricante realiza en sus instalaciones antes de sacarlo al público, se graban en él las marcas de direcciones y los números de sector. Volver a realizar este proceso en circunstancias o con software no apropiados, puede dañar definitivamente la unidad, hacerla más lenta o generarle sectores defectuosos e irrecuperables. En realidad, el formateo a bajo nivel sólo está justificado en casos muy concretos, como la aparición progresiva de errores a nivel lógico, y nunca por infección de virus (el caso más frecuente). Ciertamente, algunos vicios de la época MFM son bastante difíciles de ser desterrados... Algunos modelos de discos duros, de diversos fabricantes, sufrían una anomalía con cierta frecuencia, consistente en la paralización del motor que da giro al eje del disco (especialmente tras varios días de falta de uso del equipo por parte del usuario, o también por acumulación de humedad); el resultado era la imposibilidad de iniciar el sistema desde el disco duro. La solución, no demasiado "científica", por cierto, era sacar el disco y propinarle un par de buenos golpes (no demasiado fuertes, claro); y mano de santo. Lo que no podemos describir aquí es el cambio de color en la cara del dueño del ordenador, al ser testigo de semejante "reparación". Interfaces: ST506, MFM y RLL Hasta aquí hemos visto la estructura del disco duro, pero nos falta una pieza vital: la controladora. Es un componente electrónico que gestiona el flujo de datos entre el sistema y el disco, siendo responsable de factores como el formato en que se almacenan los datos, su tasa de transferencia, velocidad, etcétera. Los primeros discos duros eran gestionados por controladoras ST506, un estándar creado por la conocida empresa Seagate. Dentro de esta norma se implementaron los modos MFM y RLL, dos sistemas para el almacenamiento de datos que, si bien diferentes en su funcionamiento, a nivel físico y externo del disco presentaban la misma apariencia, siendo conocidos de forma genérica en el mundillo como "discos MFM". Estas unidades incluían externamente tres conectores: el primero, y común a cualquier disco duro, es el de alimentación. En los restantes se conectaba un cable de control y un cable de datos, desde el disco a la controladora; el cable de control gestionaba la posición de los cabezales y el de datos transmitía el flujo de información desde y hasta la controladora. La diferencia entre MFM y RLL es a nivel interno; MFM (Modified Frequency Modulation) y RLL (Run Length Limited) son dos métodos de codificación de la información binaria. RLL permite almacenar un 50% más de datos que el MFM, al aumentar la densidad de almacenamiento. También la trasa de transferencia es superior en RLL, debido al más eficiente método de grabación usado, sin embargo, la velocidad de rotación era la misma en ambos casos: 3600 rpm. En cualquier caso, la tasa de transferencia de estas unidades no era precisamente como para tirar cohetes: una media de 5 Mbtis por segundo (es decir, medio mega) en MFM y 7.5 Mbtis/s para RLL. Y en cuanto a capacidad, las unidades MFM no solían tener más de 40 Megas, 120 Megas en las RLL ESDI Con esta interfaz, “Enhanced Small Devices Interface” (interfaz mejorada para dispositivos pequeños), se daba un paso adelante. Para empezar, una parte de la lógica decodificadora de la controladora se implementó en la propia unidad, lo que permitió elevar el ratio de transferencia a 10 Mbits por segundo. Asimismo, se incluyó un pequeño buffer de sectores que permitía transferir pistas completas en un único giro o revolución del disco. No obstante, estas unidades no se extendieron demasiado, y únicamente compañías como IBM (muy aficionadas a tecnologías propietarias) fueron las que más lo emplearon en sus máquinas. Estas unidades no solían tener una capacidad superior a 630 Megas, y en cualquier caso se trató más bien de una tecnología de transición, ya que un tiempo después tuvo lugar el salto cuantitativo y cualitativo con la interfaz que detallamos a continuación. El estándar IDE “Integrated Drive Electronics”, o IDE, fue creado por la firma Western Digital, curiosamente por encargo de Compaq para una nueva gama de ordenadores personales. Su característica más representativa era la implementación de la controladora en el propio disco duro, de ahí su denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo posible implementarla en la placa base (como de hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se eliminó la necesidad de disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una serie de normas a las que deben acogerse los fabricantes de unidades de este tipo. IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar estos movimientos de datos, que veremos en el apartado “Modos de Transferencia”. La interfaz IDE supuso la simplificación en el proceso de instalación y configuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado. No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones en su diseño. Dos muy importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de prestaciones por parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su capacidad (aunque ero no era del todo culpa suya, lo veremos en el apartado “El papel de la BIOS”) no solía exceder de los 528 Megas. Se imponía una mejora, y ¿quién mejor para llevarla a cabo que la compañía que lo creó? Enhanced IDE La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas. Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado “Otros términos”). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo espacio. Modos de transferencia Los dispositivos IDE pueden transferir información principalmente empleando dos métodos: PIO y DMA; el modo PIO (Programmed I/O) depende del procesador para efectuar el trasiego de datos. A nivel de rendimiento no hay mayor problema, ya que los micros actuales tienen la suficiente capacidad para gestionar estas operaciones y alternarlas con otras, por supuesto. El otro método es el DMA; así la CPU se desentiende de la transferencia, teniendo ésta lugar por mediación de un chip DMA dedicado. Con el IDE original se usaban los modos PIO 1 y 2, que podían llegar a unos 4 Megas por segundo de transferencia; el modo DMA del IDE original no superaba precisamente esa tasa, quedándose en unos 2 o 3 Megas por segundo. Hay que decir que existe una variante de la transferencia DMA, y es la BusMaster DMA; esta modalidad aprovecha las ventajas de los chipsets de las placas base, cada vez más optimizados para estas laboras. Además de liberar al procesador, puede obtener por parte de éste un control casi total, de forma que la información sea transferida con la máxima prioridad. Aunque se pueden alcanzar 16 Megas por segundo, la última modalidad Ultra DMA logra llegar a los 33,3 Megas/s, aprovechando las bondades del nuevo chipset TX de Intel. No obstante, para disfrutar de esta técnica es precioso contar con los correspondientes controladores, suministrados normalmente por el fabricante de la correspondiente placa base. Otros términos EIDE amplió los modos PIO al 3, y estableció el MultiWord DMA 1; con ello se logró una tasa de 11 o 13 Megas/s, dando lugar al término Fast ATA. Con posterioridad, se definió la norma Fast ATA-2, para identificar aquellos productos que se acogían a los modos PIO 4 y MultiWord DMA 2, que permiten alcanzar un máximo de 16,6 Megas/s. Existe otro método de transferencia propio del Fast ATA, y es la múltiple lectura/escritura; es decir, la capacidad de leer o escribir varios sectores (normalmente hasta 32) en una sola interrupción, lo que permite optimizar la transferencia incluso en buses lentos, como ISA. Conviene resaltar que las tasas de transferencia citadas se consiguen en el mejor de los casos, y no siempre son sostenidas, es decir, que suelen ser “picos” de transferencia. Es preciso también abordar en esta introducción a los discos duros otro término muy conocido; ya hemos comentado que EIDE amplió la flexibilidad en el conexionado, permitiendo la coexistencia de discos duros con unidades de cinta y de CD-ROM, usando el estándar IDE. Para ello se ideó la norma ATAPI (ATA Packet Interface), una extensión del protocolo ATA creada con el fin de aportar un único conjunto de registros y mandatos, y de esta forma facilitar la coexistencia de estas unidades. Los dispositivos de este tipo también pueden, por tanto, beneficiarse de todas las ventajas de los modos PIO y DMA. MODO DE TRANSFERENCIA MB DE TRANSFERENCIA (PICOS) PIO 0 2/3 Mb/s PIO 1 y 2 4 Mb/s PIO 3 11 Mb/s PIO 4 16 Mb/s MultiWord DMA 1 13 Mb/s MultiWord DMA 2 16,6 Mb/s Ultra DMA 33 33 Mb/s Ultra DMA 66 66 Mb/s Buffer y caché Prácticamente todos los discos duros incluyen una memoria buffer, en la que almacenan los últimos sectores leídos; ésta, que puede ser desde 2 Kb hasta 512 Kb, es importantísima de cara al rendimiento, e incluso imprescindible para poder mantener altas cotas de transferencia. Se la denomina caché cuando incluyen ciertas características de velocidad; concretamente, los procesos se optimizan cuando el sistema vuelve de una operación de copiado de datos a la unidad sin esperar a que ésta haya finalizado. También utilizan otra técnica diferente consistente en que la unidad informa de la finalización de una operación de escritura en el momento de recibir los datos, antes de comenzar a grabarlos en el disco. De esta manera no se producen estados de espera; tras todo lo comentado hasta este momento, podemos decir, resumiendo, que un caché amplio en un disco duro es absolutamente imprescindible. Más de 520 Megas... ¿por qué no? Seguro que muchos de vosotros habéis vivido el caso (o al menos habéis sido testigos de él) de ir a instalar un disco duro de alta capacidad, y encontraros con que de esos 1080 Megas sólo alcanzáis 528 Megas. Se trata de una nefasta limitación, que curiosamente no está impuesta ni por la BIOS (Basic Input/Output System) ni por el estándar IDE (ni por el DOS, como alguna gente piensa); en realidad, viene dada.... ¡por ambos! La capacidad de un disco duro se mide en tres valores: número de sectores por pista, número de cabezas y número de cilindros (notación CHS); el estándar IDE soporte 65.536 cilindros, 16 cabezas y 255 sectores por pista, lo que nos da una capacidad bestial, alrededor de 137 Gigas. Por su parte, la BIOS del PC soporta 1.024 cilindros, 255 cabezas y 63 sectores; ya que ambos deben funcionar en conjunción, es el mínimo común denominador de ambos el que marcará la capacidad definitiva, que será de 1.024 cilindros (máximo de la BIOS), 16 cabezas (máximo del IDE) y 63 sectores (máximo de la BIOS), lo que nos va a dar un total de 528 Megas. Para superar esta traba, la BIOS debe implementar el modo de trabajo conocido como LBA (Logical Block Adreesing), que traduce el esquema CHS a otro de direccionamiento lógico. Esta operación es totalmente transparente al sistema operativo y al software en general, y aporta la evidente ventaja de poseer acceder a todo el espacio disponible del disco duro del ordenador. Cuando una BIOS no soporta esta técnica, es preciso emularla por software; para ello, el fabricante de la unidad suele poner a disposición del usuario utilidades especiales que, en forma de driver residente, logran engañar al sistema y obtener el mismo efecto que el LBA por BIOS. La norma SCSI Hasta el momento hemos estado comentando los estándares ST506, MFM, RLL, IDE y EIDE, pero nos hemos saltado uno que, tan veterano como los anteriores, ha ido evolucionando (hasta hace poco en otros segmentos de mercado) de forma paralela a ellos. Nos referimos, por supuesto, a SCSI; demos un breve paseo por sus características. La interfaz SCSI (Small Computer System Interface) ha sido tradicionalmente relegada a tareas y entornos de ámbito profesional, en los que prima más el rendimiento, la flexibilidad y la fiabilidad. Para empezar, SCSI es una estructura de bus separada del bus del sistema. De esta forma, evita las limitaciones propias del bus del PC. Además, en su versión más sencilla esta norma permite conectar hasta 7 dispositivos SCSI (serían 8 pero uno de ellos ha de ser la propia controladora) en el equipo; y las ventajas no se reducen al número de periféricos, sino también a su tipo: se puede conectar prácticamente cualquier dispositivo (escáneres, impresoras, CD-ROM, unidades removibles, etc.) siempre que cumplan con esta norma. Otra enorme ventaja de SCSI es su portabilidad; esto quiere decir que podemos conectar nuestro disco duro o CD-ROM (o lo que sea) a ordenadores Macintosh, Amiga, etc., que empleen también la norma SCSI. Un detalle a resaltar que todos los periféricos SCSI son inteligentes; es decir, cada uno posee su propia ROM donde almacena sus parámetros de funcionamiento. En especial, es la controladora el dispositivo más importante de la cadena SCSI, que al poseer su propia BIOS puede sobrepasar limitaciones de la ROM BIOS del sistema. Posiblemente lo que hace destacar a SCSI en su rendimiento, bastante superior a IDE al no depender del bus del sistema; no obstante, no todo iban a ser ventajas: SCSI es más caro que IDE, y en la mayoría de las ocasiones, más complejo de configurar, aunque esto último es cada vez menos problemáticos, ya que es preciso resaltar que la norma SCSI también ha evolucionado y mejorado; citaremos a continuación sus diferentes modalidades. El surtido SCSI La primera norma, SCSI-1, lograba un máximo de 3 Megas por segundo de transferencia, a una anchura de 8 bits en el bus de datos. La posterior SCSI-2 introdujo mejoras en el control de los dispositivos, inclusión de mejoras de caché y otras, subiendo a 5 Megas de ratio, con la misma anchura de bits que su predecesora. Luego se presentó la variante Fast SCSI-2, que lograba los 10 Megas por segundo, manteniendo esos 8 bits en el bus de datos. El modo Wide se unió después al Fast, resultando el Fast/Wide SCSI-2, con el que se amplió a 16 bits el ancho de banda del bus de datos, lográndose hasta 20 Megas/s de transferencia y permitiendo un soporte de hasta 15 dispositivos en cadena. Lo último ha sido el Ultra SCSI, con el que se ha conseguido llegar a 40 Megas por segundo a 16 bits y 20 Megas a 8 bits, aunque no debemos pasar por alto la inclusión de la norma SCAM (SCSI Configured Automatically), alo parecido al Plug & Play, que nos libera de la clásica dificultad de configuración de las cadenas SCSI, aunque para ello los dispositivos también deben contemplar el SCAM. Por diversos motivos, SCSI siempre ha sido la alternativa profesional, pero cada vez podemos verla con más frecuencia en el ámbito doméstico; no hay que olvidar que periféricos como unidades Zip o Jaz, magnetoópticos y escáneres vienen cada vez de forma más frecuente en SCSI, así como el progresivo abaratamiento al que se ven sometidos este tipo de componentes. Norma SCSI SCSI-1 Ancho Bus 8 bits Megas/segundo 3 Megas/s SCSI-2 8 bits 5 Megas/s Fast SCSI-2 8 bits 10 Megas/s Fast/Wide SCSI-2 16 bits 20 Megas/s Ultra SCSI 8/16 bits 20/40 Megas/s Ultra2 SCSI LVD 8/16 bits 40/80 Megas/s Otras formas de usar un disco duro Si hay algo que resulta evidente, es que el disco duro siempre almacena una valiosa información, y de su buen funcionamiento depende la integridad de los datos. Si esto es importante en el ámbito particular, imaginad a un nivel de entidades bancarias, grandes empresas, administraciones públicas o ejército, cuyas instalaciones informáticas normalmente son redes basadas en un servidor central. Si ese disco duro falla, el resultado puede ser catastrófico. Por este motivo, surge el término SFT (Sistema tolerante a fallos, o System Fault Tolerance); se basa en el concepto de mantener tanto la integridad de los datos cómo el correcto funcionamiento del sistema, en el caso de un fallo de hardware. Este concepto aporta un nuevo término, RAID (Redundant Array of Inexpensive Disks); se puede traducir como Matriz Redundante de Discos Baratos, y sus diferentes modos de implementación forman las llamados niveles RAID. Aunque existen multitud de niveles, tocaremos más bien el concepto genérico; este se basa en utilizar varios discos duros, conectados entre sí (aunque el sistema cree que sólo existe uno), y que almacenan duplicados de la información principal. Por tanto, si uno de ellos cae, el sistema no se paraliza puesto que tenemos otros discos para sustituirlo, y, además, con la información totalmente intacta. Existen numerosísimas formas de implementar la tolerancia a fallos, tanto por hardware como por software; podemos citar por ejemplo, el Disk Striping (que divide los datos en bloques de 64 Kb y los distribuye entre los diferentes discos intalados), el Disk Mirroring (crea una copia exacta, un espejo, del disco principal en otro secundario) y su variante Disk Duplexing (añade una controladora para gestionar el disco secundario y así reducir el tráfico) o el Disk Striping with Parity (variante del Striping, que añade también información de paridad a los datos guardados, empleada para recuperar la información en una hipotética pérdida de la misma). Por último, la técnica de Sector Sparing consiste en, tras la detección de un sector defectuoso del disco, sacar la información del mismo, colocarla en un sector bueno y marcar como defectuoso el sector erróneo. Por supuesto, todas estas técnicas se efectúan en tiempo real, y normalmente son los sistemas operativos de red (como Windows NT Server o Novell Netware) los encargados de soportarlas. Asimismo, se emplean casi siempre discos SCSI debido a sus características, como flexibilidad o capacidad de ampliación; incluso técnicas como el Sector Sparing deben ser usadas en discos SCSI, puesto que es imposible aplicarlas con dispositivos IDE. MFM Capacidad 40 Mb RLL ESDI 120 Mb 630 Mb IDE 520 Mb EIDE ? SCSI-2 ? ULTRA2 ULTRASCSI SCSI LVD ? 16 Mb/s 5 Mg/s = 7,5 (Mg/s Tasa de 0,625 = 0,9375 1 Mb/s transferencia Mb/s Mb/s Tiempo de acceso 65 ms 40 mb 15 mb 33 Mb/s con UDMA 11 Mb/s 33 66 Mb/s con UDMA 66 14 ms 12 ms 10 Mb/s y hasta 20 Mb/s en 40 Mb/s controladoras versión Fast 80 Mb/s 10 ms ? 9 ms Notas: capacidad indica la cantidad máxima (en Megabytes) que puede controlar el sistema. Tasa de transferencia expresada en Megabits segundo (Mg/s) y en Megabytes por segundo (Mb/s). Tiempo de acceso expresado en milisegundos. Puede variar según fabricantes. Un poco de historia Aparte del clarísimo crecimiento que se puede observar a lo largo de todas estas tecnologías, el avance evolutivo es evidente también en términos cronológicos. Por ejemplo, y también de forma orientativa, podemos citar un “calendario” muy especial: durante el año 1992 y principios del 93, los discos duros implementados más comúnmente en los ordenadores domésticos eran de 40 y 80 Megas. A finales del 93 y primeros del 94, el tamaño ascendió a 100 y 120 Megas; sin embargo, antes de acabar el mismo año 94 ya nos poníamos en 214 y 260 Megas. 1995 fue testigo de la proliferación de los 428 y 540 Megas, pero antes de finalizar dicho año los discos de 620 y 850 Megas, e incluso se alcanzó la mágica cifra del Gigabyte, aunque los de 850 Megas también eran muy utilizados. En 1997 lo más bajo que se instalaba eran discos de 1,2 y 1,7 Gigabytes, siendo lo más normal discos de 2 Gigas. Hoy día, a finales de 1999, se instalan discos de 8, 12 y 15 Gb. En el ámbito de las interfaces, EIDE es la estrella del PC doméstico, y de buena parte del profesional, debido a su buen rendimiento y mejor precio. No obstante, es preciso recordar que SCSI es cada vez más popular y asequible. En cualquiera de los casos, no debemos olvidar que, para obtener el máximo rendimiento, el disco y la controladora deben estar al mismo nivel; por ejemplo, un disco Ultra SCSI no dará de sí todo lo posible con una controladora Fast SCSI, y viceversa. Lo mismo sucede con IDE: una controladora EIDE se verá frenada por un disco IDE estándar y viceversa. Por otro lado, la relación precio/Megabyte sigue más o menos la onda de otros componentes informáticos; más que la bajada de precios, lo que realmente ocurre es que se da más por el mismo precio. IEEE 1394 Firewire Este es el nuevo bus de discos duros que se utilizará dentro de unos meses en adelante, por lo que ahora no está a la venta. Sin embargo, es bueno conocerlo, ya que esto se trata de una guía. El IEEE 1394, que se dio a conocer debido sobre todo a la lista de tecnologías contenidas en Windows 98, es un nuevo bus que permite conectar hasta 63 dispositivos con una velocidad de datos media-rápida. En el fondo es similar al USB, pero, como verás más adelante, tiene diferencias tanto en aplicaciones como en prestaciones. No se harán competencia uno con otro y convivirán pacíficamente en un mismo ordenador. Lo mejor de todo es el tipo de cosas que se pueden conectar. Éstas incluyen discos duros, DVD-ROMs y CD-ROMs de alta velocidad, impresoras, escáneres... y la novedad: cámaras de fotos digitales, videocámaras DV, televisiones... Todo esto último es un nuevo hardware que se está fabricando ya. De hecho, ya hay disponibles muchos elementos. Gracias al 1394, se podrán conectar cámaras digitales y de DV sin la necesidad de incómodas tarjetas que vienen opcionalmente con estos aparatos. Y ahora, te preguntarás cómo se conecta todo esto al ordenador. Por el momento, se hará con controladoras PCI. Para más información, mira el artículo sobre IEEE 1394 Firewire. Disco Duro Como funciona un disco duro, también llamado disco rígido o HD, de una manera clara y sencilla. - El disco duro está formado por una carcasa heméticamente cerrada que protege las partes móviles del disco. Por la cara opuesta se encuentra la placa electrónica. En el interior también se suele montar un mecanismo antivibración. En la carcasa llevan una etiqueta con las características del disco y la configuración del los jumpers. - El disco duro está compuesto por un plato giratorio, impulsado por un motor, aunque para aumentar la capacidad de información que pueden almacenar se colocan varios platos de mayor o menor densidad. Los platos suelen girar entre 3600 y 10.000 rpm cuando el disco se encuentra funcionando. - El mecanismo de escritura/lectura, esta formado por las cabezas de lectura/escritura sobre un brazo móvil, que es capaz de mover las cabezas desde el centro del plato hasta el extremo. Este proceso se realiza mediante una bobina y un electroimán al cual se le aplica un campo mágnetico. - Los cabezales se conectan a la electrónica mediante un bus. - Un sensor controla la velocidad de giro, generando una señal que sirve para controlar la velocidad de giro a la velocidad óptima según las necesidades de escritura/lectura de las cabezas. - La electrónica de del disco duro transforma los impulsos magnéticos en bits de escritura o lectura. La parte más importante es el chip de entrada / salida, y el buffer que almacena los datos temporalmente. Pistas y Clusters La información se almecena en el disco duro en sectores y pistas. Las pistas son círculos concéntricos divididas en sectores, cada sector contiene un número fijo de bytes, y se agrupan en clusters. Los sectores no son físicos sino lógicos y no son iguales en todos los discos, varía en función del tamaño del disco y sistema operativo instalado, que se encarga de dividir los sectores. El principal sector del disco duro es el denominado sector de arranque, suele ser el primer sector del primer disco. En este sector el sistema operativo guarda la información que debe cargarse al arrancar el equipo. Sin este sector el sistema operativo no puede arrancar. La preparación del disco se puede hacer de dos formas. El formateo a bajo nivel, que establece las pistas y los sectores en el disco, los puntos de comienzo y terminación de cada sector están escrito sobre el disco, este sistema prepara bloques de bytes. Este tipo de formateo se suele hacer en fábrica. El formateo a alto nivel graba las estructuras de almacenamiento de ficheros y la FAT (tabla de localización de ficheros). Este sistema prepara la unidad y es particular de cada sistema operativo. Las Particiones Las particiones son las divisiones lógicas de un disco duro. Un disco nuevo viene con una partición que ocupa toda la superficie del disco. A veces es interesante disponer de más de una partición, al generar una partición el sistema operativo simula otro disco, aunque físicamente solo haya uno, y son tratados como unidades de discos independientes. Existen dos tipos de particiones. Partición Primaria. Es en la cual se instala el sistema operativo, desde la cual permite arrancar el ordenador. Para que el sistema la reconozca como primaria ésta debe estar activada. Partición Extendida. Es la partición en la cual se crean las unidades lógicas y cada unidad es tratada como unidad independiente, se pueden guardar todo tipo de ficheros, pero el ordenador no la reconoce como arrancable. Unidades de disquete Por malo y anticuado que sea un ordenador, siempre dispone de al menos uno de estos aparatos. Su capacidad es totalmente insuficiente para las necesidades actuales, pero cuentan con la ventaja que les dan los muchos años que llevan como estándar absoluto para almacenamiento portátil. ¿Estándar? Bien, quizá no tanto. Desde aquel lejano 1.981, el mundo del PC ha conocido casi diez tipos distintos de disquetes y de lectores para los mismos. Originariamente los disquetes eran flexibles y bastante grandes, unas 5,25 pulgadas de ancho. La capacidad primera de 160 Kb se reveló enseguida como insuficiente, por lo que empezó a crecer y no paró hasta los 1,44 MB, ya con los disquetes actuales, más pequeños (3,5"), más rígidos y protegidos por una pestaña metálica. Incluso existe un modelo de 2,88 MB y 3,5" que incorporaban algunos ordenadores IBM, pero no llegó a cuajar porque los discos resultaban algo caros y seguían siendo demasiado escasos para aplicaciones un tanto serias; mucha gente opina que hasta los 100 MB de un Zip son insuficientes. De cualquier forma, los tipos más comunes de disquetes aparecen en la siguiente tabla: Tamaño Tipo de disco Capacidad Explicación 5,25" SS/DD 180 Kb Una cara, doble densidad. Desfasado 5,25" DS/DD 360 Kb Dos caras, doble densidad. Desfasado 5,25" DS/HD 1,2 MB Dos caras, alta densidad. Desfasado pero útil 3,5" DS/DD 720 Kb Dos caras, doble densidad. Desfasado pero muy común 3,5" DS/HD 1,44 MB Dos caras, alta densidad. El estándar actual Las disqueteras son compatibles "hacia atrás"; es decir, que en una disquetera de 3,5" de alta densidad (de 1,44 MB) podemos usar discos de 720 Kb o de 1,44 MB, pero en una de doble densidad, más antigua, sólo podemos usarlos de 720 Kb. Por cierto, para distinguir a primera vista un disco de 3,5" de alta densidad de otro de doble, basta con observar el número de agujeros que presenta en su parte inferior. Si tiene sólo uno, situado en el lado izquierdo de la imagen y generalmente provisto de una pestaña móvil, se trata de un disco de doble densidad; si tiene dos agujeros, no hay duda de que se trata de un disco de alta densidad. Si el primero de los agujeros está al descubierto el disco estará protegido contra escritura; el segundo sólo sirve para diferenciar ambos tipos de disquetes. De cualquier forma, el disquete deberá estar formateado a la capacidad correcta, para lo cual podemos usar la orden FORMAT del DOS o bien los menús de Windows (personalmente, prefiero la orden de DOS). Debe tenerse en cuenta que si no especificamos nada, el disco intentará ser formateado a la capacidad nominal de la disquetera, lo que con un disco de capacidad inferior puede ser un error desastroso. Por ejemplo, a continuación aparecen algunas órdenes de formateado comunes: Orden de formateado Explicación FORMAT A: Da formato al disco de la unidad "A" a la capacidad nominal de la disquetera FORMAT B: /F:720 Da formato al disco de la unidad "B" a 720 Kb de capacidad FORMAT A: /S Da formato al disco de la unidad "A" a la capacidad nominal de la disquetera y copia los archivos de sistema (es decir, crea un disco básico de arranque) Los ordenadores normales disponen de un puerto para dos disqueteras, que irán conectadas a un único cable de datos. La que esté conectada en el extremo del mismo será la primera (la "A" en DOS) y la que esté en el segundo conector, entre el ordenador y la anterior disquetera, será la segunda (la "B"). Resulta común tener un ordenador que resulta suficiente para las tareas que le pedimos, pero que tiene una disquetera de un modelo anticuado, bien de 5,25" o de 3,5" de doble densidad, para las que incluso puede ser difícil encontrar discos apropiados (especialmente en el caso de las de 5,25"). En tal caso, merece la pena instalar una disquetera moderna de 3,5" y 1,44 MB, ya que cuestan menos de 5.000 pts y es una de las tareas más sencillas de hacer, como se explica en este hipervínculo. Los disquetes tienen fama de ser unos dispositivos muy poco fiables en cuanto al almacenaje a largo plazo de la información; y en efecto, lo son. Les afecta todo lo imaginable: campos magnéticos, calor, frío, humedad, golpes, polvo... Hace un tiempo verifiqué unos 25 disquetes de diferentes marcas de un antiguo 286, que estaban guardados en una caja de plástico para disquetes, y casi la mitad no funcionaba, lo que no me sorprendió en absoluto. Si tiene programas en disquete, haga copias inmediatamente y guarde los originales en lugar seguro. Si tiene datos importantes almacenados en disquete, haga copias nuevas y piense en otro método mejor de almacenaje. Y ante todo, compre siempre disquetes de marca. No le salvarán de los fallos futuros, pero al menos estarán más o menos bien de origen; las economías en estos temas son malas compañeras, huya de los disquetes metidos en cajas blancas sin logotipos como de la peste o le pesará... Dispositivos removibles Vamos a comentar ahora los demás dispositivos de almacenamiento que no aparecen de manera estándar en la configuración de un PC... al menos por ahora, porque tal como está el mundo informático nunca se sabe cuándo serán tan comunes como la disquetera o el disco duro. Se denominan removibles no porque se les dé vueltas como a la sopa, sino porque graban la información en soportes (discos o cartuchos) que se pueden remover, extraer. La clasificación hace referencia a su capacidad de almacenamiento, por ser ésta una de las principales características que influyen en la compra o no de uno de estos periféricos, pero para hacer una compra inteligente se deben tener en cuenta otros parámetros que se comentan en la explicación como velocidad, durabilidad, portabilidad y el más importante de todos: su precio. Dispositivos hasta 250 MB de capacidad Son dispositivos que buscan ofrecer un sustituto de la disquetera, pero sin llegar a ser una opción clara como backup (copia de seguridad) de todo un disco duro. Hoy en día muchos archivos alcanzan fácilmente el megabyte de tamaño, y eso sin entrar en campos como el CAD o el tratamiento de imagen digital, donde un archivo de 10 MB no es en absoluto raro. Por ello, con estos dispositivos podemos almacenar fácil y rápidamente cada proyecto en un disco o dos, además de poder realizar copias de seguridad selectivas de los datos del disco duro, guardando sólo los archivos generados por las aplicaciones y no los programas en sí. Zip (Iomega) - 100 MB Pros: portabilidad, reducido formato, precio global, muy extendido Contras: capacidad reducida, incompatible con disquetes de 3,5" Las unidades Zip se caracterizan externamente por ser de un color azul oscuro, al igual que los disquetes habituales (los hay de todos los colores, incluso algunos muy poco serios). Estos discos son dispositivos magnéticos un poco mayores que los clásicos disquetes de 3,5 pulgadas, aunque mucho más robustos y fiables, con una capacidad sin compresión de 100 MB una vez formateados. Este tamaño les hace inapropiados para hacer copias de seguridad del disco duro completo, aunque idóneos para archivar todos los archivos referentes a un mismo tema o proyecto en un único disco. Su velocidad de transferencia de datos no resulta comparable a la de un disco duro actual, aunque son decenas de veces más rápidos que una disquetera tradicional (alrededor de 1 MB/s para la versión SCSI). Existen en diversos formatos, tanto internos como externos. Los internos pueden tener interfaz IDE, como la de un disco duro o CD-ROM, o bien SCSI; ambas son bastante rápidas, la SCSI un poco más, aunque su precio es también superior. Las versiones externas aparecen con interfaz SCSI (con un rendimiento idéntico a la versión interna) o bien conectable al puerto paralelo, sin tener que prescindir de la impresora conectada a éste. Puede funcionar de pie o tumbada, y la única "pega" es que no nos guste su extravagante color (el azul marino profundo se lleva mucho para este tipo de periféricos, pero no me pregunten el porqué). El modelo para puerto paralelo pone el acento en la portabilidad absoluta entre ordenadores (basta que tengan este puerto, el de impresora), aunque su velocidad es la más reducida de las tres versiones. Muy resistente, puede ser el acompañante ideal de un portátil. Ha tenido gran aceptación, siendo el estándar "de facto" en su segmento, pese a no poder prescindir de la disquetera de 3,5" con la que no son en absoluto compatibles, aunque sus ventajas puede que suplan este inconveniente. El precio de la versión interna ronda las 14.000 pts más IVA, con discos entorno a 1.500 pts. Por cierto, parece ser que muchas de las primeras unidades Zip sufrían el denominado "mal del click", que consistía en un defecto en la unidad lectora-grabadora que, tras hacer unos ruiditos o "clicks", destrozaba el disco introducido; afortunadamente, este defecto está corregido en las unidades actuales. En todo caso, los discos son bastante resistentes, pero evidentemente no llegan a durar lo que un CD-ROM o un magneto-óptico. SuperDisk LS-120 - 120 MB (Imation/Panasonic) Pros: reducido formato, precio global, compatibilidad con disquetes 3,5" Contras: capacidad algo reducida, menor aceptación que el Zip Estos discos son la respuesta a la cada vez más común desesperación del usuario que va a grabar su trabajo en un disquete y se encuentra con que supera los temidos 1,44 MB. No importa, meta un SuperDisk, que aparenta ser un disquete de 3,5" algo más grueso, y ya tiene 120 MB a su disposición. Aparentemente, esta compatibilidad con los disquetes clásicos (ojo, con la nueva disquetera, no basta con comprarse los superdisquetes) deja K.O. al Zip, pero esto no es así. El problema está en que la velocidad de este dispositivo, unos 400 Kb/s, si bien es suficiente y supera con creces la de una disquetera de 3,5", es algo menos de la mitad de la de un Zip (al menos si se trata de la versión SCSI del Zip). La unidad se vende con conexión IDE para la versión interna o bien puerto paralelo (el de impresora) para la externa, que, aunque parece menos pensada para viajes accidentados que el Zip, permite conectarla a cualquier ordenador sin mayores problemas. Además, acaba de ser presentada una versión USB que hace la instalación aún más sencilla. Si la BIOS de su placa lo permite (lo cual sólo ocurre con placas modernas de una cierta calidad, por ejemplo muchas para Pentium II) puede configurar la versión IDE incluso como unidad de arranque, con lo que no necesitará para nada la disquetera de 3,5". Su mayor "handicap" reside en haber dejado al Zip como única opción durante demasiado tiempo, pero la compatibilidad con los disquetes de 3,5" y sus 20 MB extra parece que están cambiando esta situación. Si va a comprar un ordenador nuevo, le compensará pedir que le instalen un SuperDisk en vez de la disquetera de 3,5" (recuerde, si la BIOS lo admite); si no, la decisión entre Zip y SuperDisk es más difícil, incluso cuestan prácticamente lo mismo. EZFlyer (SyQuest) - 230 MB Pros: precio de los discos, capacidad elevada Contras: poca implantación en España El EZFlyer es el descendiente del EZ135, cuyos discos de 135 MB puede utilizar además de los suyos propios de 230 MB. Se trata de lo que se suele denominar un dispositivo Winchester, que en este caso no es un rifle sino un disco duro removible como lo es el Jaz. Como dispositivo de este tipo, es tremendamente veloz: hasta 2 MB/s y menos de 20 ms de tiempo de acceso para la versión SCSI, unas cifras muy por encima de lo que son capaces de conseguir el Zip y el SuperDisk. A decir verdad, se trata de un producto excelente, con el único problema (enorme, eso sí) de que es casi desconocido en España. No es un problema exclusivo del EZFlyer; los productos de SyQuest en general están pero que muy poco extendidos en nuestro país y eso repercute en su precio, casi 30.000 pts la unidad lectora-grabadora, lo que son unas 5.000 pts más que en EEUU (y eso si la encuentra, que puede ser algo difícil). Afortunadamente los discos, aunque acusan esta escasez de distribuidores, siguen siendo muy baratos: menos de 4.000 pts, muy bajo precio para tener más del doble de capacidad que un Zip. En fin, no hay mucho más que comentar: es un buen dispositivo, cómodo, transportable, asequible de precio y capaz ya de realizar backups de un disco duro completo, aunque seguimos necesitando una cantidad de discos considerable. Existe en versiones SCSI y para puerto paralelo, de las cuales recomendamos la SCSI, como siempre, ya que la de puerto paralelo permite mayor transportabilidad pero limita la velocidad a la mitad. Puesto que es un dispositivo interesante pero no muy conocido, vamos a hacer una excepción y dar un par de teléfonos de distribuidores a través de los cuales probablemente pueda adquirirse el EZFlyer: Mitrol (91 518 04 95) y Sintronic (977 29 72 00). Espero que sea útil la información, se la debo a PC-Actual (así que no quiero críticas, salvo que sean de las propias empresas, si no está el teléfono correcto ni nada por el estilo, no quiero enfadarme ¡rourghh!!). Dispositivos hasta 2 GB de capacidad A estos dispositivos se les podría denominar multifuncionales; sirven tanto para guardar grandes archivos o proyectos de forma organizada, como para realizar copias de seguridad del disco duro de forma cómoda e incluso como sustitutos de un segundo disco duro... o en el caso extremo, incluso del primero. No incluimos algunos dispositivos de cinta cuya capacidad les haría estar en este apartado, ya que carecen de la versatilidad que hemos comentado, siendo fundamentalmente periféricos destinados a realizar backups del disco entero. Magneto-ópticos de 3,5" - 128 MB a 1,3 GB Pros: alta seguridad de los datos, portabilidad, bajo precio de los discos, fácil manejo Contras: inversión inicial, poca implantación Se trata de dispositivos que aúnan lo mejor de ambas tecnologías para ofrecer un producto con un bajo coste por MB almacenado, bastante rápido, con un soporte absolutamente transportable y sobre todo perdurable: almacenan sus datos prácticamente para siempre, sin afectarles lo más mínimo los campos magnéticos (ni el polvo, calor, humedad, etc, hasta un límite razonable), a la vez que le permite reescribir sus datos tantas veces como quiera. Son capaces de almacenar hasta 1,3 GB en discos muy similares a los disquetes de 3,5" (sí, así de pequeños) que tienen una cubierta de plástico para protegerlos de los golpes y el polvo, no como los CDs con su superficie expuesta a involuntarias huellas de dedos que los inutilicen. Una vez instalada la unidad, se maneja como si fuera un disco duro más (sin necesidad de ningún programa accesorio). Existen discos y lectores-grabadores de 128, 230, 540, 640 MB y 1,3 GB, pero en la actualidad sólo son recomendables los de 640 MB y 1,3 GB (estos últimos algo caros), que además permiten leer y escribir en los discos de menor capacidad (excepto en los de 128 MB, que generalmente sólo pueden ser leídos). Ah, no son compatibles con esas antiguallas que son los disquetes normales de 1,44 MB, por supuesto. Su velocidad es muy elevada, comparable a la de los discos duros de hace pocos años, pero tiene el problema de que el proceso utilizado obliga a que la escritura se realice a la mitad de la velocidad de la lectura. Así, mientras que se pueden alcanzar casi los 2,5 MB/s en lectura (una velocidad comparable a la de un CD-ROM 24x), la escritura se queda en alrededor de 1 MB/s, con un tiempo de acceso cercano al de un disco duro (menos de 40 ms). Para subsanar este problema, Fujitsu (una de las empresas que más potencian este mercado) a sacado unos nuevos modelos con tecnología LIMDOW (también conocida simplemente como OW, por OverWrite) en los que se puede alcanzar más de 1,5 MB/s en escritura. Lo malo de la tecnología OW es que además de una unidad lectora-grabadora reciente necesita discos especiales, más caros que los normales; pero eso no es mucho problema, ya que los discos de 640 MB clásicos cuestan unas 1.300 pts (con IVA) y los OW menos del doble; incluso los Zip de 100 MB son más caros. Un precio ridículamente bajo, en mi opinión, para un soporte que cabe en un bolsillo, es super resistente y en el que se puede escribir miles de veces a una velocidad más del doble de rápida que en una grabadora de CDs 4x. Sus únicos problemas son el precio de la unidad lectora-grabadora, unas 30.000 pts más IVA, y su relativamente escasa implantación. Aunque en ambientes profesionales son bastante comunes, lo cierto es que no permiten copiar CDs ni juegos de PlayStation... Grabadoras de CD-ROM - 650 MB Pros: alta seguridad de los datos, compatibilidad, bajo precio de los discos Contras: inversión inicial, capacidad y velocidad relativamente reducidas Lo primero, hacer distinción entre grabadoras (aquellas que sólo permiten grabar la información una vez, sin que luego se pueda volver a escribir en el CD) y regrabadoras (las que, utilizando los discos apropiados, permiten grabarles numerosas veces, en teoría unas mil). De todas formas cada vez quedan menos grabadoras que no sean también regrabadoras, pero conviene que se informe por si acaso, evidentemente no es lo mismo lo uno que lo otro. Las grabadoras son como lectores de CD-ROM pero que permiten grabar además de leer. ¿En cualquier tipo de CD? No, en absoluto, para nada. Los CDs comerciales, de música o datos, son absolutamente inalterables, lo cual es una de sus ventajas. Los CDs grabables son especiales y de dos tipos: CD-R (Recordable, grabable una única vez), que cuestan unas 200 pts, y CD-RW (ReWritable, regrabable múltiples veces) por unas 1.000 pts. El ridículo precio de los CDs grabables una única vez los hace idóneos para almacenar datos que son poco o nada actualizados, así como para realizar pequeñas tiradas de software propio o "copias de seguridad" de software comercial (en realidad para lo que suelen servir es para piratear software, para qué engañarnos). Los regrabables sirven para realizar backups del disco duro o de la información más sensible a ser actualizada constantemente. Las características de esta tecnología determinan a la vez sus ventajas y sus principales problemas; los CD-ROMs, aunque son perfectos para distribuir datos por estar inmensamente extendidos, nunca han sido un prodigio de velocidad, y las grabadoras acentúan esta carencia. Si en los lectores de CD-ROM se habla como mínimo de 24x (otra cosa es que eso sea mentira, en realidad la velocidad media pocas veces supera los 1,8 MB/s, los 12x), en estas unidades la grabación se realiza generalmente a 4x (600 Kb/s), aunque algunas ofrecen ya 8x o más. Pero alcanzar o superar 4x no siempre es posible, ojo, especialmente si la fuente de los datos es lenta o inestable (como un lector de CD-ROM). Lo que es más, la lectura en el propio grabador no suele superar los 16x, por lo que se suele usar un lector como complemento. Esto hace que, aunque el resultado es igualmente invulnerable a campos magnéticos, humedad, etc, resulte mucho más práctico utilizar un dispositivo magneto-óptico si se desea velocidad, versatilidad y mayor resistencia y dejar las grabadoras de CD para copiar discos y hacer copias de seguridad. Claro está que para piratear software resultan más prácticas, pero allá cada uno con su conciencia... Por lo demás, indicar que el resultado de la grabación en un disco grabable una única vez se puede leer en cualquier lector no prehistórico (digamos un 2x), pero los discos regrabables dan más problemas, y no es raro que fallen en lectores algo antiguos, por ejemplo 4x ó 6x, pero con lectores modernos no existen problemas. Para realizar una grabación de cualquier tipo se recomienda poseer un equipo relativamente potente, digamos un Pentium sobrado de RAM (al menos 32 MB). Para evitar quedarnos cortos (lo que puede impedir llegar a grabar a 4x o estropear el CD por falta de continuidad de datos) podemos comprar una grabadora SCSI, que dan un flujo de datos más estable, tener una fuente de datos (disco duro o CD-ROM) muy rápida, no grabar directamente de CD-ROM a grabadora (mejor de CD-ROM a disco duro y luego a grabadora), comprar un grabador con un gran buffer de memoria incorporado (más de 1MB) o asegurarnos de que la grabadora cumple la norma IPW o mejor UDF, que facilitan la grabación fluida de datos sin errores. Las unidades únicamente grabadoras están en proceso de extinción, ya que las regrabadoras cada vez son más asequibles, unas 25.000 pts más IVA en versión IDE y unas 30.000 en versión SCSI. Jaz (Iomega) - 1 GB ó 2 GB Pros: capacidad muy elevada, velocidad, portabilidad Contras: inversión inicial, no tan resistente como un magneto-óptico, cartuchos relativamente caros Las cifras de velocidad del Jaz son absolutamente alucinantes, casi indistinguibles de las de un disco duro moderno: poco más de 5 MB/s y menos de 15 ms. La razón de esto es fácil de explicar: cada cartucho Jaz es internamente, a casi todos los efectos, un disco duro al que sólo le falta el elemento lector-grabador, que se encuentra en la unidad. Por ello, atesora las ventajas de los discos duros: gran capacidad a bajo precio y velocidad, junto con sus inconvenientes: información sensible a campos magnéticos, durabilidad limitada en el tiempo, relativa fragilidad. De cualquier forma, y sin llegar a la extrema resistencia de los discos Zip, podemos calificar este soporte de duro y fiable, aunque la información nunca estará tan a salvo como si estuviera guardada en un soporte óptico o magneto-óptico. ¿Aplicaciones? Almacenamiento masivo de datos que deben guardarse y recuperarse con la mayor velocidad posible, lo cual lo hace ideal para la edición de vídeo digital (casi una hora en formato MPEG); en general, sirve para lo mismo que los discos duros, pero con la ventaja de su portabilidad y fácil almacenaje. En cuanto a defectos y críticas, aparte de que los datos no duren "para siempre", sólo tiene un handicap: el precio. La unidad lectora-grabadora de 1 GB vale una respetable cantidad de dinero, unas 40.000 pts, y los discos unas 12.000 pts. ¿Una locura? ¿Lo bueno lo vale? Sea como sea, es un elemento profesional, no es apto como capricho... o al menos para caprichosos sin dinero. Por cierto: la versión de 2 GB, completamente compatible con los cartuchos de 1 GB (pero no los cartuchos de 2 GB con la unidad de 1 GB, mucho ojo), es algo más cara, por lo que quizá no tenga tanto interés. Si necesita tanta capacidad por disco piense si no le merecerá más la pena algo menos rápido pero más fiable como un magneto-óptico de 5,25", una inversión como ésta no se hace todos los días. SyJet (SyQuest) - 1,5 GB Pros: capacidad muy elevada, velocidad, portabilidad, precio de los cartuchos Contras: inversión inicial, no tan resistente como un magneto-óptico De nuevo otro buen dispositivo de SyQuest gafado en España; ¡este mundo de la informática es la &%#@, oigan! ("la leche", me refiero; ¿qué barbaridad creían?). Tiene un 50% más de capacidad que el Jaz normal, la misma velocidad y un precio (al menos en EEUU) idéntico al de éste, pero en nuestro país no lo conoce casi nadie. Será cosa del márketing ese, supongo. Pues eso: casi idéntico al Jaz pero con cartuchos de 1,5 GB y una velocidad mínimamente inferior, de 5 MB/s y menos de 15 ms. Existe con todo tipo de interfaces: SCSI, EIDE e incluso puerto paralelo, pero por supuesto no lo utilice con este último tipo de conector o la velocidad quedará reducida a un quinto de la indicada, que corresponde a la SCSI (o a la EIDE en un ordenador potente y sin utilizar mucho el microprocesador, ya sabe). Su precio si lo encuentra (suerte, amigo; pruebe en los mismos sitios donde vendan el EZFlyer) estará cercano al del Jaz de 1 GB, unas 40.000 pts, o quizá unas 5.000 pts más caro por aquello de ser menos común (le dirán que es por el medio giga de diferencia, pero curiosamente en el extranjero esa diferencia no la cobran...). Dispositivos de más de 2 GB de capacidad En general podemos decir que en el mundo PC sólo se utilizan de manera común dos tipos de dispositivos de almacenamiento que alcancen esta capacidad: las cintas de datos y los magnetoópticos de 5,25". Las cintas son dispositivos orientados específicamente a realizar copias de seguridad masivas a bajo coste, mientras que los magneto-ópticos de 5,25" son mucho más versátiles... y muchísimo más caros. Cintas magnéticas de datos - hasta más de 4 GB Pros: precios asequibles, muy extendidas, enormes capacidades Contras: extrema lentitud, útiles sólo para backups Seguro que ha visto más de una vez en una película antigua o en la televisión esa especie de enormes armarios acristalados en los que unos círculos oscuros de más de 30 cm de diámetro giran como locos mientras Sean Connery, encarnando al inefable 007, se enfrenta al científico loco de turno; bueno, pues esos círculos son cintas de datos de ordenador. Afortunadamente los tiempos han cambiado mucho: hoy en día las cintas de datos vienen con funda y no son mayores que las de música o las cintas de vídeo de 8 mm, lo que es un avance evidente; en cambio, sobre si Pierce Brosnan es tan buen 007 como Connery habría opiniones, aunque tampoco lo hace mal. Las cintas magnéticas de datos o streamers presentan muchos problemas como dispositivo de almacenaje de datos: casi todos los tipos son tremendamente lentas (típicamente menos de 250 Kb/s, una velocidad casi ridícula); lo que es peor, los datos se almacenan secuencialmente, por lo que si quiere recuperar un archivo que se encuentra a la mitad de la cinta deberá esperar varias decenas de segundos hasta que la cinta llegue a esa zona; y además, los datos no están en exceso seguros, ya que como dispositivos magnéticos les afectan los campos magnéticos, el calor, etc, además del propio desgaste de las cintas. Entonces, ¿por qué se fabrican? Porque son baratas, muy baratas. Existen unidades lectoras-grabadoras por menos de 15.000 pts, y las cintas pueden costar unas 3.000 pts una de 2 GB. Pero el ser baratas no elimina el resto de problemas, por lo que sólo son prácticas para realizar backups masivos del disco duro (o selectivos, según), aunque teniendo en cuenta que el proceso para un disco duro de tamaño medio puede llegar a durar fácilmente un par de horas usando cintas normales. Uno de los motivos que hace tan lentas a las cintas de datos es el tipo de interfaz que se utiliza. Generalmente se usa el conector para disquetera, el cual es muy lento, los comentados 250 Kb/s máximo (que rara vez se alcanzan); lo que es más, debe poder configurarse la BIOS como si hubiéramos conectado una disquetera de 2,88 MB, lo que no es posible si la BIOS es antigua, como la de algunos 486 y las anteriores. En el caso de que la BIOS admita como máximo disqueteras de 1,44 MB, la velocidad se reducirá a la mitad. En otras cintas se utiliza el puerto paralelo (con mayor ancho de banda, pero apenas aprovechado) y en cintas de datos más caras y rápidas se utilizan interfaces EIDE o SCSI, lo que aumenta el rendimiento pero nunca de forma espectacular, ya que el elemento más limitante es la propia maquinaria mecánica de la unidad. Además, el modo de acceso secuencial hace totalmente imposible usarlas de forma eficaz "a lo disco duro", salvo que entendamos por esto esperar y esperar cada vez que queremos un fichero... Los tipos principales de unidades de cinta son las QIC, Travan y DAT. Las Travan son una subclase que deriva de las QIC, con las que suelen guardar un cierto grado de compatibilidad; ambas forman el segmento económico del almacenaje en cinta, por ejemplo 20.000 pts una unidad de 1 GB de capacidad y 2.000 pts cada una de las cintas correspondientes. Las cintas DAT (Digital Audio Tape) son otra historia, desde luego, tanto en velocidad como en precio. El acceso sigue siendo secuencial, pero la transferencia de datos continua (lectura o escritura) puede llegar a superar 1 MB/s, lo que justifica que la práctica totalidad utilicen interfaz SCSI. Sin embargo, el precio resulta prohibitivo para un uso no profesional: más de 100.000 pts una unidad de 4 GB de capacidad, aunque las cintas son baratas: unas 4.000 pts para una de 4 GB, por cierto realmente pequeña. Marcas y modelos existen infinidad, ya que es un mercado muy maduro y basado en su mayoría en estándares, lo que redunda en unos precios más bajos y una mayor facilidad para encontrar las cintas apropiadas. Ejemplos destacados son los modelos Ditto de Iomega, los Colorado de Hewlett Packard, los TapeStor de Seagate y los modelos DAT de Sony o Hewlett Packard. Para terminar, una curiosidad muy importante: la capacidad física real de las cintas de datos suele ser la mitad de la nominal indicada en el exterior de la caja de la unidad o de la cinta, ya que al sólo utilizarse para hacer backups, generalmente comprimiendo los datos, suponen que se va a alcanzar una compresión de 2:1. En realidad la compresión depende del tipo de datos a comprimir (los programas se comprimen poco y los archivos de texto mucho, por ejemplo), por lo que le recomiendo que piense más bien en una compresión 1,5:1. Resumiendo, que si la unidad se anuncia como de 2 GB, seguro que es de 1 GB (lo que vendrá en alguna parte pero en letras más pequeñas) y casi seguro que podrá almacenar más o menos 1,5 GB de datos comprimidos; en este texto no se ha usado este truco publicitario. Magneto-ópticos de 5,25" - hasta 4,6 GB Pros: versatilidad, velocidad, fiabilidad, enormes capacidades Contras: precios elevados Los magneto-ópticos de 5,25" se basan en la misma tecnología que sus hermanos pequeños de 3,5", por lo que atesoran sus mismas ventajas: gran fiabilidad y durabilidad de los datos a la vez que una velocidad razonablemente elevada. En este caso, además, la velocidad llega a ser incluso superior: más de 3 MB/s en lectura y más de 1,5 MB/s en escritura usando discos normales. Si el dispositivo soporta discos LIMDOW, la velocidad de escritura casi se duplica, con lo que llegaríamos a una velocidad más de 5 veces superior a la grabadora de CD-ROMs más rápida y comparable a la de los discos duros, lo que determina la utilización del interfaz SCSI exclusivamente y el apelativo de discos duros ópticos que se les aplica en ocasiones. Además, el cambio de tamaño de 3,5" a 5,25" implica un gran aumento de capacidad; los discos van desde los 650 MB hasta los 5,2 GB, o lo que es lo mismo: desde la capacidad de un solo CD-ROM hasta la de 8, pasando por los discos más comunes, los de 1,3 y 2,6 GB. Con estas cifras y esta velocidad, hacer un backup de un disco duro de 2,5 GB no lleva más de un cuarto de hora y el cartucho resultado es sólo un poco más grande que la funda de un CD, ya que a eso se parecen los discos: a CDs con una funda tipo disquete. En la actualidad los modelos más extendidos son los de 2,6 GB de capacidad máxima, en los que está implantándose rápidamente el sistema LIMDOW. Puesto que se trata de dispositivos basados en estándares, existen varias empresas que los fabrican, por ejemplo Hewlett Packard, Sony o Pinnacle Micro. Esta última empresa, Pinnacle, que se dedica casi en exclusiva a estos dispositivos, tiene uno de los productos más interesantes de este mercado: el Apex. Se trata de un dispositivo que admite discos normales de 2,6 GB, pero que además tiene unos discos especiales, de diseño propietario (no compatibles con otros aparatos), que llegan hasta los 4,6 GB, todo ello con una gran velocidad y a un precio incluso inferior al de muchos dispositivos normales de sólo 2,6 GB. Pero ése, el precio, es el inconveniente (terrible inconveniente) de este tipo de periféricos. Las unidades de 2,6 GB se venden por unas 175.000 pts, mientras que las de 5,2 GB superan holgadamente este precio. Los discos, sin embargo, son bastante económicos para su gran capacidad, enorme resistencia y durabilidad: unas 10.000 pts uno de 2,6 GB. Aunque si piensa comprar un dispositivo de almacenamiento realmente masivo y dispone del suficiente dinero, no lo dude: no existe mejor opción, sobre todo si quiere la seguridad absoluta de que dentro de 30 años aún podrá recuperar sus datos sin problemas. Copias de seguridad (backups) En las anteriores páginas se ha comentado numerosas veces la mayor o menor idoneidad de los aparatos para su utilización como dispositivos de copia de seguridad o, como dicen los ingleses, backup. A continuación voy a intentar dar unas ideas generales sobre este tema, que tiene mucha mayor importancia de lo que parece. Si algún día llego a publicar un manual de informática, probablemente comenzará diciendo: "ANTE TODO, MANTENGA BACKUPS RECIENTES DE SUS FICHEROS DE DATOS", en letras mayúsculas y en el centro de la primera página. A continuación tendría que explicar qué es un fichero, un backup y sobre todo un ordenador, pero me temo que si dejara el consejo para más adelante ya no tendría la fuerza que se merece. No olvide que un ordenador no es más que un amasijo de cables, plástico y metal, por mucho que me cueste reconocerlo; es una máquina, y como tal no es especialmente interesante en sí misma, sino que lo es sobre todo por los datos que contiene: las cartas a la novia, los informes del trabajo, las fotos de astronomía, los juegos, las facturas del último trimestre... Eso es lo importante, pero parece que nos olvidamos de ello muy a menudo; confiamos en que como nunca se ha roto, nunca se romperá, olvidando la única ley de la informática, la Ley de Murphy: Si un archivo puede borrarse, se borrará. Si dos archivos pueden borrarse, se borrará el más importante. Si tenemos una copia de seguridad, no estará lo suficientemente actualizada. Y así hasta el infinito. Los discos duros fallan poco, pero más de lo deseable; incluso si no fallan, pueden verse afectados por múltiples causas, desde una subida de tensión eléctrica hasta un tropezón con un cable que nos haga tirar el ordenador al suelo. La única solución es tener copias de seguridad, actualizarlas a menudo y esperar que nunca nos haga falta usarlas; a continuación le presento Los Diez Mandamientos de los Backups: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. Haga copias de seguridad de todos los datos importantes. Haga una copia de seguridad de los discos de instalación de los programas. Actualice las copias de seguridad tan a menudo como pueda. Revise el estado de sus copias de seguridad de vez en cuando. Si le da pereza copiar todo el disco, al menos copie sus archivos de datos. Si le da pereza copiar todos sus archivos de datos, al menos copie los más recientes o importantes. No confíe en los disquetes como dispositivo de backup, su fiabilidad es ínfima. Si no dispone de otra cosa, al menos haga copias en disquete. Sobre todo si utiliza disquetes o cintas magnéticas, tenga más de un juego de copias, intercámbielos de forma rotatoria y renuévelos de vez en cuando. Guarde las copias en lugar seguro, si no serán copias de seguridad inseguras. Bueno, no voy a insistir más; si a estas alturas no le he convencido, es usted un caso perdido. Pero no diga que no estaba advertido cuando pierda todos los asientos bancarios de los últimos 3 años de sus clientes, ni tenga vergüenza de sentirse como para tirarse por una ventana: no sería el primero que lo hace. Ni el último.