Electrónica Digital III ARMADO DE PC Realizado por Sebastián Frydman Año 2015 Contenido La PC 4 Arquitectura de PC 6 Microprocesador (CPU) 8 Placa Base ( MotherBoard) 11 Memoria RAM ( Random-Access-Memory) 16 Disco rígido ( Hard Disk Drive) 20 Fuente de alimentación 22 Unidad lectora de discos (CD, DVD & Blu-Ray) 25 Placa de video 27 Placa de sonido 30 Gabinete31 2 La presente edición del apunte de “Armado de PC” tiene por objetivos que el lector: • Identifique los nombres, los propósitos y las características de los componentes internos de una PC. • Identifique los nombres, los propósitos y las características de los puertos y los cables de conexión. • Identifique los nombres, los propósitos y las características de los dispositivos de entrada/salida. • Comprenda los recursos del sistema y sus propósitos. A continuación se enuncian los materiales de consulta y fuentes principales: • Web Wikipedia (http://www.wikipedia.org) • Curso de hardware (2008) de V. Javier Ortiz Gallart • Arquitectura de Computadoras - William Stalling Aclaraciones: Algunas partes son directamente copia o traducción de las fuentes. Reconocimiento tautológico: Todas las marcas pertenecen a sus respectivos propietarios. 3 La PC Historia de la computadora Los primeros microcomputadoras aparecieron en el mercado a finales de 1970 aunque se les conocía como computadoras domésticos. Eran equipos de 8 bits (tamaño de la instrucción) orientados principalmente al mercado del videojuego. Aunque aparecieron equipos de 16 bits, la aparición en 1981 del primer IBM PC 5150 de 16 bits hizo desaparecer el mercado de "computadoras domésticas". En cambio apareció un gran mercado de equipos "PC Compatibles" que son los que hoy se conocen sencillamente como PCs. Estos "PC Compatibles" o simplemente "PCs" se pueden encontrar como equipos de escritorio, portátiles o ultraportátiles y son de propósito general, permitiendo la conexión a redes, el trabajo de oficina, las aplicaciones multimedia, etc. Los IBM PC se basaban en una arquitectura de 16 bits, en chips x86 tipo CISC de Intel y en firmware PC BIOS. Esta arquitectura original ha ido creciendo y desarrollándose mediante arquitecturas de 32 y 64 bits, el desarrollo de chips y chipsets y la interfaz UEFI. A pesar de la enorme popularidad de los PCs, otras arquitecturas de microprocesador son populares como los equipos Apple, las vídeo-consolas o, en otros mercados, los dispositivos móviles. De izquierda a derecha: Apple II (1977) Sinclair ZX Spectrum 48K (1981) IBM PC 5150 (1981) Año 1977 Año 1981 Esquema de una PC 4 Año 1981 ¿Qué es una computadora? La computadora es una máquina electrónica que recibe y procesa datos para convertirlos en información conveniente y útil. Una computadora está formada, físicamente, por numerosos circuitos integrados y otros muchos componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con suma rapidez y bajo el control de un programa. Dos partes esenciales la constituyen, el hardware, que es su composición física (circuitos electrónicos, cables, gabinete, teclado, etcétera) y su software, siendo ésta la parte intangible (programas, datos, información, etcétera). Una no funciona sin la otra. Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento (operaciones arimético-lógicas) y los dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un programa. El hecho de que sea programable, le posibilita realizar una gran diversidad de tareas, ésto la convierte en una máquina de propósitos generales (a diferencia, por ejemplo, de una calculadora cuyo único propósito es calcular limitadamente). Es así que, en base a datos de entrada, puede realizar operaciones y resolución de problemas en las más diversas áreas del quehacer humano (administrativas, científicas, de diseño, ingeniería, medicina, comunicaciones, música, etc), incluso muchas cuestiones que directamente no serían resolubles o posibles sin su intervención. Básicamente, la capacidad de una computadora depende de sus componentes hardware, en tanto que la diversidad de tareas radica mayormente en el software que admita ejecutar y contenga instalado. Las tecnologías utilizadas en computadoras digitales han evolucionado mucho desde la aparición de los primeros modelos en los años 1940, aunque la mayoría todavía utiliza la Arquitectura de von Neumann, publicada por John von Neumann a principios de esa década, que otros autores atribuyen a John Presper Eckert y John William Mauchly. 5 Arquitectura de PC La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central de proceso (CPU por Central Processing Unit) trabaja internamente y accede a las direcciones de memoria. También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo. Arquitectura Von Neumann La arquitectura de Von Neumann, también llamada de Eckert-Mauchly, describe una computadora con cuatro (4) secciones principales: la unidad aritmético lógica, la unidad de control, la memoria primaria, principal o central, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de conductores denominados buses. Las computadoras son máquinas de arquitectura von Neumann cuando: • Tanto los programas como los datos se almacenan en una memoria en común. Esto hace posible la ejecución de comandos de la misma forma que los datos. • Cada celda de memoria de la máquina se identifica con un número único, llamado dirección. • Las diferentes partes de la información (los comandos y los datos) tienen diferente modos de uso, pero la estructura no se representa en memoria de manera codificada. • Cada programa se ejecuta de forma secuencial que, en el caso de que no haya instrucciones especiales, comienza con la primera instrucción. Para cambiar esta secuencia se utiliza el comando de control de transferencia. El diseño de una arquitectura Von Neumann es más simple que la arquitectura Harvard más moderna, que también es un sistema de programa almacenado, pero tiene un conjunto dedicado de direcciones y buses de datos para leer datos desde memoria y escribir datos en la misma, y otro conjunto de direcciones y buses de datos para ir a buscar instrucciones. En la gran mayoría de las computadoras modernas, se utiliza la misma memoria tanto para datos como para instrucciones de programa, y la distinción entre Von Neumann vs. Harvard se aplica a la arquitectura de memoria caché, pero no a la memoria principal. 6 La unidad central de procesamiento consta de manera básica de los siguientes tres elementos: La unidad aritmético lógica (ALU, por sus siglas del inglés: Arithmetic-Logic Unit) es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (AND, OR, NOT), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional. La unidad de control (UC) sigue la dirección de las posiciones en memoria que contienen la instrucción que el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria). Los registros: de datos, de memoria, registros constantes, de coma flotante, de propósito general y de propósito específico. Una computadora puede tener más de una CPU; esto se llama multiprocesamiento. Todas las CPU modernas son microprocesadores, lo que significa que contienen un solo chip. Algunos circuitos integrados (ICs) pueden contener varias CPUs en un solo chip. Estos IC son denominados procesadores multi-core o multinúcleo. La operación fundamental de la mayoría de las CPU es ejecutar una secuencia de instrucciones almacenadas llamadas “programa”. El programa es representado por una serie de números que se mantienen en una cierta clase de memoria de ordenador. Hay cuatro pasos que casi todos las CPU de arquitectura de von Neumann usan en su operación: fetch, decode, execute, y writeback, (buscar, decodificar, ejecutar y escribir). EDVAC, una de las primeras computadoras de programas almacenados electrónicamente. Costo de fabricación: ~ 500.000 U$D Año 1946 ENIAC, la primera computadora de proposito general. Totalmente digital, utilizaba programas almacenados electrónicamente. Pesaba 27 Toneladas, medía 2,4 m x 0,9 m x 30 m Costo de fabricación: ~ 500.000 U$D 15 de Febrero de 1946 7 Microprocesador (CPU) El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un sistema informático. A modo de ilustración, se le suele llamar por analogía el “cerebro” de una computadora. El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeración que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador. Entre el disipador y la cápsula del microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del calor. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking. Desempeño de un microprocesador La potencia de una CPU se mide por la velocidad y la cantidad de datos que puede procesar. La velocidad de una CPU se mide en ciclos por segundo. La velocidad de las CPU actuales se calcula en millones de ciclos por segundo, llamados megahertz (MHz), o en miles de millones de ciclos por segundo, llamados gigahertz (GHz). La cantidad de datos que puede procesar una CPU a la vez depende del tamaño del bus de datos del procesador. Éste también se denomina bus de CPU o bus frontal (FSB). Cuanto mayor es el ancho del bus de datos del procesador, mayor potencia tiene el procesador. Los procesadores actuales tienen un bus de datos del procesador de 32 bits o de 64 bits. La sobreaceleración (overclocking) es una técnica usada para lograr que un procesador funcione a una velocidad mayor que su especificación original. La sobreaceleración no es una forma confiable de mejorar el rendimiento de la computadora y puede ocasionar daños en la CPU, siendo desaconsejable su realización. El desempeño o la velocidad de un procesador depende de, entre muchos otros factores, la velocidad del reloj (generalmente dada en múltiplos de hertz) y las instrucciones por ciclo de reloj (IPC), que juntos son los factores para las instrucciones por segundo (IPS) que el CPU puede rendir. El desempeño de procesamiento de las computadoras se incrementa utilizando procesadores multinúcleo, que en esencia es conectar dos o más procesadores individuales (llamados núcleos en este sentido) en un solo circuito integrado.11 Idealmente, un procesador de doble núcleo sería casi dos veces tan potente como un procesador de núcleo único. En la práctica, la ganancia de desempeño es mucho menor, sólo alrededor del 50%, [cita requerida] debido a la implementación de algoritmos imperfectos de software. El aumento del número de núcleos en un procesador (es decir, dual-core, quad-core, etc) aumenta la carga de trabajo que se puede manejar. Esto significa que el procesador ahora puede manejar numerosos eventos asíncronos, interrupciones, etc que pueden tomar un peaje en la CPU (Central Processing Unit) cuando se abruma. Estos núcleos pueden considerarse como diferentes plantas en una planta de procesamiento, con el manejo de cada piso una tarea diferente. En ocasiones, estos núcleos se manejan las mismas tareas que los núcleos adyacentes a ellos si un solo núcleo no es suficiente para manejar la información. 8 La tecnología de los circuitos de estado sólido evolucionó en la década de 1950. El empleo del silicio (Si), de bajo costo y con métodos de producción masiva, hicieron del transistor el componente más usado para el diseño de circuitos electrónicos. Por lo tanto el diseño de la computadora digital se reemplazo del tubo al vacío por el transistor, a finales de la década de 1950. El primer microprocesador fue el Intel 4004,1 producido en 1971. Se desarrolló originalmente para una calculadora y resultó revolucionario para su época. Contenía 2.300 transistores, era un microprocesador de arquitectura de 4 bits que podía realizar hasta 60.000 operaciones por segundo trabajando a una frecuencia de reloj de alrededor de 700 KHz. Intel 4004 1º microprocesador del mundo En la actualidad, además de los ventiladores de chasis, un disipador de calor elimina el calor del núcleo de la CPU. Un ventilador en la parte superior del disipador de calor empuja el calor hacia fuera de la CPU. Otros componentes también son vulnerables al daño por calor y a veces están equipados con ventiladores. Las tarjetas adaptadoras de vídeo también producen una gran cantidad de calor. Los ventiladores se dedican a enfriar la unidad de procesamiento de gráficos (GPU). Las computadoras con CPU y GPU extremadamente rápidas pueden usar un sistema de refrigeración por agua. Se coloca una placa metálica sobre el procesador y se bombea agua hacia la parte superior para juntar el calor que produce la CPU. El agua es bombeada hacia un radiador, donde es enfriada por el aire, y luego vuelve a circular. 9 Arquitectura de microprocesadores La CPU ejecuta un programa, que es una secuencia de instrucciones almacenadas. Cada modelo de procesador tiene un conjunto de instrucciones, que ejecuta. La CPU ejecuta el programa procesando cada fragmento de datos según lo indicado por el programa y el conjunto de instrucciones. Mientras la CPU ejecuta un paso del programa, las instrucciones y los datos restantes se almacenan cerca, en una memoria especial llamada caché. Existen dos arquitecturas principales de CPU relacionadas con conjuntos de instrucciones: CISC (Complex Instruction Set Computer) y RISC (Reduced Instruction Set Computer). Los microprocesadores CISC tienen un conjunto de instrucciones que se caracteriza por ser muy amplio y permitir operaciones complejas entre operandos situados en la memoria o en los registros internos. Este tipo de arquitectura dificulta el paralelismo entre instrucciones, por lo que, en la actualidad, la mayoría de los sistemas CISC de alto rendimiento implementan un sistema que convierte dichas instrucciones complejas en varias instrucciones simples del tipo RISC, llamadas generalmente microinstrucciones. El nombre CISC apareció por contraposición a RISC cuando apareció esta nueva arquitectura de diseño (finales 1980). Algunos chips que usan la arquitectura CISC son: Motorola 68000, Zilog Z80 y toda la familia Intel x86 y AMD. Por otro lado, RISC -llamada a veces carga/descarga- es una filosofía de diseño de CPU para computadora que está a favor de conjuntos de instrucciones pequeños y simples que se ejecutan más rápidamente y acceden a registros internos. Esta filosofía proviene del hecho de que muchas de las características de los diseños de las CPU estaban siendo ignoradas por los programas que eran ejecutados en ellas, principalmente por una simplificación de los compiladores que tienden a utilizar siempre las mismas instrucciones. Además, la velocidad del procesador en relación con la memoria de la computadora que accedía era cada vez más alta, por lo que se decidió reducir los accesos a memoria. Esto llevó a la aparición de RISC que utiliza diversas técnicas para reducir el procesamiento dentro del CPU, así como de reducir el número total de accesos a memoria. Algunos chips que usan la arquitectura RISC son: PA-RISC de HP, MIPS1 en equipos SGI y consolas Nintendo64 y PlayStation; Sun SPARC; Motorola PowerPC o ARM usados en dispositivos móviles Nokia, Nintendo DS, Palm... Algunas CPU incorporan hyperthreading para mejorar el rendimiento. Con el hyperthreading, la CPU tiene varios fragmentos de código que son ejecutados simultáneamente en cada canal. Para un sistema operativo, una CPU única con hyperthreading parece ser dos CPU. Los microprocesadores disponen de registros internos de memoria que permiten reducir el tiempo medio de acceso a memoria. Este conjunto de registros se conoce como memoria caché y es más rápida y más pequeña que la memoria principal. Además puede organizarse jerárquicamente por niveles siendo L1 (Level 1) el primer nivel consultado, el más rápido y el más pequeño. Algunos micros pueden tener hasta tres niveles de memoria caché (L1-L3). Dependiendo de la configuración de la memoria caché el procesador busca los registros primero en L1, después en L2, L3... después en la memoria principal y por último en la memoria virtual (swap). Los componentes electrónicos generan calor. El calor es causado por el flujo de corriente dentro de los componentes. Los componentes de la computadora funcionan mejor cuando se mantienen fríos. Si no se elimina el calor, la computadora puede funcionar a una velocidad más lenta. Si se acumula mucho calor, los componentes de la computadora pueden dañarse. El aumento del flujo de aire en el chasis de la computadora permite eliminar más calor. Un ventilador de chasis, como se muestra en la Figura 1, se instala en el chasis de la computadora para aumentar la eficacia del proceso de refrigeración. 10 Placa Base ( MotherBoard) La placa base, también conocida como placa madre (motherboard), es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora. Es una parte fundamental para armar cualquier computadora personal de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar (chipset), que sirve como centro de conexión entre el microprocesador (CPU), la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos. Va instalada dentro de una carcasa o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes internos. La placa madre, además incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo. Componentes de una motherboard Una placa base típica admite los siguientes componentes: • Zócalo de CPU (monoprocesador) o zócalos de CPU (multiprocesador). • Chipset. • Ranuras de RAM. • Conectores de alimentación de energía eléctrica. El zócalo(socket) de la CPU es el conector que actúa como interfaz entre la motherboardy el procesador mismo. La mayoría de los sockets y los procesadores de CPU que se utilizan hoy se construyen sobre la arquitectura de la matriz de rejilla de pines (PGA, pin grid array), en la cual los pines de la parte inferior del procesador están insertados en el socket, habitualmente con una fuerza de inserción cero (ZIF). ZIF se refiere a la cantidad de fuerza necesaria para instalar una CPU en el socket o la ranura de la motherboard. Principales zocalos AMD Socket AM3, Socket AM3+, Socket FM1, Socket FM2. INTEL LGA 1150, LGA 1155, LGA 1156, LGA 2011, LGA 1366. 11 La tecnología de procesador más reciente ha llevado a los fabricantes de CPU a buscar maneras de incorporar más de un núcleo de CPU en un único chip. Muchas CPU son capaces de procesar múltiples instrucciones al mismo tiempo: CPU de núcleo único: Un núcleo dentro de un único chip de CPU que maneja todas las capacidades de procesamiento. Un fabricante de motherboards puede proporcionar sockets para más de un procesador, lo cual brinda la posibilidad de construir una computadora de alta potencia con múltiples procesadores. CPU de doble núcleo: Dos núcleos dentro de un chip de CPU único en el cual ambos núcleos pueden procesar información al mismo tiempo. Chipset El chipset es una serie o conjunto de circuitos electrónicos, que gestionan las transferencias de datos entre los diferentes componentes de la computadora (procesador, memoria, tarjeta gráfica, unidad de almacenamiento secundario, etcétera). El chipset, generalmente se divide en dos secciones: 1. puente norte (northbridge): gestiona la interconexión entre el microprocesador, la memoria RAM y la unidad de procesamiento gráfico 2. puente sur (southbridge): gestiona la interconexión entre los periféricos y los dispositivos de almacenamiento, como los discos duros o las unidades de disco óptico. Las nuevas líneas de procesadores de escritorio tienden a integrar el propio controlador de memoria dentro del procesador. Ranuras de RAM Las placas bases constan de ranuras (slots) de memoria de acceso aleatorio, su número es de 2 a 6 ranuras en una misma placa base común. En ellas se insertan dichas memorias del tipo conveniente dependiendo de la velocidad, capacidad y fabricante requeridos según la compatibilidad de cada placa base y la CPU. La memoria de acceso aleatorio (RAM) es la ubicación de almacenamiento temporal para datos y programas a los que accede la CPU. Esta memoria es volátil; por lo tanto, su contenido se elimina cuando se apaga la computadora. Cuanta más RAM tenga una computadora, mayor capacidad tendrá para almacenar y procesar programas y archivos de gran tamaño, además de contar con un mejor rendimiento del sistema. Las primeras computadoras tenían una RAM instalada en la motherboard como chips individuales. Los chips de memoria individuales, llamados paquete dual en línea (DIP, Dual inline package), eran difíciles de instalar y a menudo se soltaban de la motherboard. Para resolver este problema, los diseñadores soldaron los chips de memoria en una placa de circuito especial llamada módulo de memoria. Conectores de alimentación A través de varios conectores de alimentación eléctrica se proporciona a la placa base los diferentes voltajes e intensidades necesarios para su funcionamiento. La placa madre recibe los diferentes valores de tensión provisto por la fuente de alimentación. Cada cable de color indica el valor de tensión que brinda: - Rojo -> +5V - Amarillo -> +12V- Azul-> -12V - Naranja -> +3.3V - Negro -> 0V (GND) 12 Conector principal de alimentación ( 20 + 4 pin) Conjunto de conectores 13 Otros componentes importantes El reloj (clock): regula la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos internos. El BIOS: un programa registrado en una memoria no volátil (antiguamente en memorias ROM, pero desde hace tiempo se emplean memorias flash). Este programa es específico de la placa base y se encarga de la interfaz de bajo nivel entre el microprocesador y algunos periféricos. Recupera, y después ejecuta, las instrucciones del registro de arranque principal (Master Boot Record, MBR), o registradas en un disco duro o un dispositivo de estado sólido, cuando arranca el sistema operativo. Actualmente, las computadoras modernas sustituyen el MBR por la tabla de particiones GUID (GPT) y el BIOS por Extensible Firmware Interface (EFI). El bus frontal o bus delantero (front-side bus o FSB): también llamado “bus interno”, conecta el microprocesador al chipset. Está cayendo en desuso frente a HyperTransport y Quickpath. El bus de memoria conecta el chipset a la memoria temporal. El bus de expansión (también llamado bus E/S): une el microprocesador a los conectores de entrada/salida y a las ranuras de expansión. Los conectores de entrada/salida, incluyendo: Los puertos serie, para conectar dispositivos por protocolo RS232. Los puertos paralelos, para la conexión de impresoras antiguas. (EN DESUSO) Los puertos PS/2 para conectar teclado y ratón; estas interfaces ya han sido practicamente sustituidas por conectores USB. Los puertos USB (en inglés Universal Serial Bus), por ejemplo, para conectar diferentes periféricos, como por ejemplo: mouse, teclado, memoria USB, teléfonos inteligentes, impresoras. Los conectores RJ-45, para conectarse a una red informática. Los conectores VGA, DVI, HDMI o DisplayPort para la conexión del monitor de computadora o proyector de vídeo. Los conectores IDE o Serial ATA, para conectar dispositivos de almacenamiento, tales como discos duros (HDD), dispositivos de estado sólido (SDD) y unidades de disco óptico. Los conectores jacks de audio para conectar por ejemplo: altavoces y auriculares (código de color: verde), y micrófonos (código de color: rosado). Las ranuras de expansión: se trata de receptáculos (slots) que pueden acoger placas o tarjetas de expansión (estas tarjetas se utilizan para agregar características o aumentar el rendimiento de la computadora; por ejemplo, una tarjeta gráfica se puede añadir para mejorar el rendimiento 3D). Estos puertos pueden ser puertos: ISA (Industry Standard Architecture) interfaz antigua, PCI (Peripheral Component Interconnect), AGP (Accelerated Graphics Port) y, PCIe o PCI-Express, son los más recientes. Con la evolución de las computadoras, más y más características se han integrado en la placa base, tales como circuitos electrónicos para la gestión del vídeo, de sonido o de redes, evitando así la adición de tarjetas de expansión: interfaz gráfica integrada o unidad de procesamiento gráfico (GPU, Graphics Processing Unit, o IGP, Integrated Graphic Processor); interfaz integrada de audio o sonido; interfaz integrada Ethernet o puertos de red integrados ((10/100 Mbit/s)/(1 Gbit/s)). 14 Formatos de la motherboard Las tarjetas madre necesitan tener dimensiones compatibles con las cajas que las contienen, de manera que desde los primeros computadores personales se han establecido características mecánicas, llamadas factor de forma. Definen la distribución de diversos componentes y las dimensiones físicas, como por ejemplo el largo y ancho de la tarjeta, la posición de agujeros de sujeción y las características de los conectores. 15 Memoria RAM ( Random-Access-Memory) La memoria de acceso aleatorio (Random-Access Memory, RAM) se utiliza como memoria de trabajo de computadoras para el sistema operativo, los programas y la mayor parte del software. La memoria de acceso aleatorio (RAM: Random Access Memory) es una memoria volátil -la información se pierde si dejan de recibir electricidad- de acceso aleatorio. En la RAM se cargan todas las instrucciones que ejecutan la unidad central de procesamiento (procesador) y otras unidades de cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder (acceso secuencial) a la información de la manera más rápida posible. Durante el encendido de la computadora, la rutina POST verifica que los módulos de RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de sonidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma. Las memorias en sus orígenes Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. 16 Las memorias actuales Físicamente está formada por módulos con chips tipo SMD (Superficial Mounted Device) bien por una sola cara (SIMM: Single In-line Memory Module) bien por las dos caras (DIMM: Dual In-line Memory Module). Las memorias RAM que se usan en los PCs actuales son dinámicas (necesitan refresco para no perder la información) y síncronas (trabajan en base a una señal de reloj) por lo que se llaman SDRAM (Synchronous Dynamic RAM). El bus que conecta el procesador con la memoria se denomina FSB (Front Side Bus) y depende del GMCH (NorthBridge) del chipset de la placa. La velocidad del FSB es una característica de cada procesador pero es independiente de la velocidad del mismo. Por ejemplo: Pentium 4, FSB= 400MHz; Athlon XP, FSB= 266MHz. El ancho de banda de pico es la velocidad máxima de transferencia no sostenida posible. Se calcula multiplicando la frecuencia del bus por el ancho de bytes por el número de transferencias en cada ciclo de reloj. Así por ejemplo una memoria DDR (dos transferencias por ciclo), con frecuencia de 100 Mhz y un ancho de bus de 64 bits (8 bytes) tendrá un ancho de banda de pico de: 2*100*8 = 1600 MB/s. Para hacer referencia a las memorias se utilizan dos nomenclaturas diferentes. Una hace referencia al FSB efectivo -característico de los chips- (DDR-200) y otra hace referencia al ancho de banda de pico, a veces redondeado, -característico de los módulos- (PC-1600). La latencia es el tiempo que la memoria emplea desde que se solicita una lectura hasta que ofrece el dato correspondiente; por tanto, no todos los ciclos de reloj son productivos. Cuanto menor sea la latencia más rápida es la memoria. A veces es mejor disponer de una baja latencia que de un ancho de banda de pico mayor. – SDR: se indica según el valor “latencia de CAS” (CL), los valores posibles son 2 y 3 (CL2, CL3). – RDRAM: alta latencia, depende del número de chips. – DDR: igual que SDR; los valores posibles son 2 y 2.5 (CL2, CL2.5). – DDR2: igual que DDR; los valores posibles son 3, 4, 5, 6 y 7. – DDR3: igual que DDR; los valores posibles son 5, 6, 7 y 9. DUAL-CHANNEL Algunas placas que utilizan módulos DDR pueden configurarse como “Dual Memory Channel” (2 bancos de varias bahías o “slots”, generalmente dos). Trabajando en modo bicanal, el controlador de memoria puede acceder a dos módulos a la vez, mejorando la latencia y la velocidad de transferencia teórica. Esto se consigue mediante un segundo controlador de memoria en el NorthBrigde. No obstante, suele obligar a emplear módulos idénticos dentro del mismo canal. Esta tecnología afecta por tanto al bus de la memoria (la placa), no a la memoria en sí (los módulos). 17 ARIANTES COMERCIALES a) SIMM Las memorias montadas en SIMM (Single In-line Memory Module) han quedado obsoletas. Comercialmente se utilizaron módulos de 30 pines con un ancho de 8 bits y posteriormente módulos de 72 pines con un ancho de 32 bits y un pin-out. b) SDR SDRAM La memoria SDR (Single Date Rate) fue la primera memoria en montarse en DIMMs por lo que inicialmente se le conocía simplemente como “memoria DIMM”, sin embargo esta denominación es confusa ya que todas las memorias posteriores también se han montado en DIMMs. El ancho de bus es de 64 bits (8 bytes) y trabaja a una transferencia por ciclo. c) DDR SDRAM La memoria DDR (Dual Date Rate) trabaja a dos transferencias por ciclo. Para ello utiliza búferes que añaden latencia. Fue adoptada primero por AMD. Se comercializan módulos de hasta 1GB. El ancho de bus es de 64 bits (8 bytes) y trabaja a dos transferencias por ciclo. d) RDRAM La memoria RDRAM obtiene un FSB efectivo de 400 MHz para una frecuencia de reloj de 100 MHz “quad dumped”. El ancho de bus es de 16 bits (2 bytes) pero se usa en configuración de doble canal, obteniendo un ancho de 32 bits (4 bytes) y trabaja a dos transferencias por ciclo. Esta memoria se monta en módulos RIMM (Rambus In-line Memory Module) con chips por ambas caras y disipador incorporado. En las ranuras libres de la pl aca base deben colocarse módulos CRIMM (Continuity RIMM). 18 e) DDR2 SDRAM La memoria DDR2 es una evolución de DDR, pero incompatible con ella. El pin-out queda en otra posición para evitar confusiones. Utiliza un bufer de 4 bits lo que hace que tenga mayor latencia que DDR. Sin embargo trabaja con buses más rápidos y a menor potencia. Se comercializan módulos de hasta 2x2GB. El ancho de bus es de 64 bits (8 bytes) y trabaja a cuatro transferencias por ciclo. f) DDR3 SDRAM La memoria DDR3 es una evolución de DDR2, pero incompatible con ella. El pin-out queda en otra posición para evitar confusiones. Utiliza un bufer de 8 bits lo que hace que tenga mayor latencia que DDR2. Sin embargo trabaja con buses más rápidos y a menor potencia. Se comercializan módulos de hasta 8GB. El ancho de bus es de 64 bits (8 bytes) y trabaja a ocho transferencias por ciclo. Las memorias SO-DIMM (Small Outline DIMM) consisten en una versión compacta de los módulos DIMM convencionales. Debido a su tamaño tan compacto, estos módulos de memoria suelen emplearse en computadores portátiles, PDAs y notebooks, aunque han comenzado a sustituir a los SIMM/DIMM en impresoras de gama alta y tamaño reducido y en equipos con placa base miniatura (Mini-ITX). 19 Disco rígido ( Hard Disk Drive) En informática, la unidad de disco duro o unidad de disco rígido (en inglés: Hard Disk Drive, HDD) es el dispositivo de almacenamiento de datos que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos. Es memoria no volátil. El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 1960.1 Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.1 Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5 " los modelos para PC y servidores, 2,5 " los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hasta los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los Serial ATA. Existe además FC (empleado exclusivamente en servidores). Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, unidades de estado sólido y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC y IEEE, en lugar de los prefijos binarios, que emplean múltiplos de potencias de 1024, y son los usados por sistemas operativos de Microsoft. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan confusiones, por ejemplo un disco duro de 500 GB, en algunos sistemas operativos será representado como 465 GiB (es decir gibibytes; 1 GiB = 1024 MiB) y en otros como 500 GB. Estructura lógica Dentro del disco se encuentran: • El registro de arranque principal (Master Boot Record, MBR), en el bloque o sector de arranque, que contiene la tabla de particiones. • Las particiones de disco, necesarias para poder colocar los sistemas de archivos. 20 Dentro de la unidad de disco duro hay uno o varios discos (de aluminio o cristal) concéntricos llamados platos (normalmente entre 2 y 4, aunque pueden ser hasta 6 o 7 según el modelo), y que giran todos a la vez sobre el mismo eje, al que están unidos. El cabezal (dispositivo de lectura y escritura) está formado por un conjunto de brazos paralelos a los platos, alineados verticalmente y que también se desplazan de forma simultánea, en cuya punta están las cabezas de lectura/escritura. Por norma general hay una cabeza de lectura/ escritura para cada superficie de cada plato. Los cabezales pueden moverse hacia el interior o el exterior de los platos, lo cual combinado con la rotación de los mismos permite que los cabezales puedan alcanzar cualquier posición de la superficie de los platos. Cada plato posee dos “ojos”, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la formación de esta película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas). Hay varios conceptos para referirse a zonas del disco: Plato: cada uno de los discos que hay dentro de la unidad de disco duro. Cara: cada uno de los dos lados de un plato. Cabezal: número de cabeza o cabezal por cada cara. Pista: una circunferencia dentro de una cara; la pista cero (0) está en el borde exterior. Cilindro: conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara). Sector : cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes, aunque la IDEMA ha creado un comité que impulsa llevarlo a 4 KiB. Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología grabación de bits por zonas (Zone Bit Recording, ZBR) que aumenta el número de sectores en las pistas exteriores, y utiliza más eficientemente el disco duro. Así las pistas se agrupan en zonas de pistas de igual cantidad de sectores. Cuanto más lejos del centro de cada plato se encuentra una zona, ésta contiene una mayor cantidad de sectores en sus pistas. Además mediante ZBR, cuando se leen sectores de cilindros más externos la tasa de transferencia de bits por segundo es mayor; por tener la misma velocidad angular que cilindros internos pero mayor cantidad de sectores. Sector geométrico: son los sectores contiguos pero de pistas diferentes. Clúster: es un conjunto de sectores. 21 Fuente de alimentación En electrónica, la fuente de alimentación es el dispositivo que convierte la corriente alterna (CA), en una o varias corrientes continuas (CC), que alimentan los distintos circuitos del aparato electrónico al que se conecta (computadora, televisor, impresora, router, etcétera). En inglés se conoce como power supply unit (PSU), que literalmente traducido significa: unidad de fuente de alimentación, refiriéndose a la fuente de energía eléctrica. Las fuentes de alimentación para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineales y conmutadas. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corriente que deben suministrar, sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de la misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías. 22 Conectores de la fuente de alimentación Una PC moderna debe poseer una fuente de alimentación que le brinde entre 650W y 800W dependiendo el consumo y grado de exigencia y procesamiento que requiera. 23 Fuentes de alimentación lineales Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida. En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en corriente continua pulsante se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación, o estabilización de la tensión a un valor establecido, se consigue con un componente denominado regulador de tensión, que no es más que un sistema de control a lazo cerrado (“realimentado”, figura 3) que en base a la salida del circuito ajusta el elemento regulador de tensión que en su gran mayoría este elemento es un transistor. Este transistor que dependiendo de la tipología de la fuente está siempre polarizado, actúa como resistencia regulable mientras el circuito de control juega con la región activa del transistor para simular mayor o menor resistencia y por consecuencia regulando el voltaje de salida. Este tipo de fuente es menos eficiente en la utilización de la potencia suministrada dado que parte de la energía se transforma en calor por efecto Joule en el elemento regulador (transistor), ya que se comporta como una resistencia variable. A la salida de esta etapa a fin de conseguir una mayor estabilidad en el rizado se encuentra una segunda etapa de filtrado (aunque no obligatoriamente, todo depende de los requerimientos del diseño), esta puede ser simplemente un condensador. Esta corriente abarca toda la energía del circuito, para esta fuente de alimentación deben tenerse en cuenta unos puntos concretos a la hora de decidir las características del transformador. Fuentes de alimentación conmutadas Una fuente conmutada es un dispositivo electrónico que transforma energía eléctrica mediante transistores en conmutación. Mientras que un regulador de tensión utiliza transistores polarizados en su región activa de amplificación, las fuentes conmutadas utilizan los mismos conmutándolos activamente a altas frecuencias (20-100 kHz típicamente) entre corte (abiertos) y saturación (cerrados). La forma de onda cuadrada resultante se aplica a transformadores con núcleo de ferrita (Los núcleos de hierro no son adecuados para estas altas frecuencias) para obtener uno o varios voltajes de salida de corriente alterna (CA) que luego son rectificados (con diodos rápidos) y filtrados (inductores y condensadores) para obtener los voltajes de salida de corriente continua (CC). Las ventajas de este método incluyen menor tamaño y peso del núcleo, mayor eficiencia y por lo tanto menor calentamiento. Las desventajas comparándolas con fuentes lineales es que son más complejas y generan ruido eléctrico de alta frecuencia que debe ser cuidadosamente minimizado para no causar interferencias a equipos próximos a estas fuentes. Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y salida. La regulación se obtiene con el conmutador, normalmente un circuito PWM (pulse width modulation) que cambia el ciclo de trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales pero su posición es diferente. El segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor continuo. La salida puede ser también un filtro de condensador o uno del tipo LC. Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por otra parte las conmutadas obtienen un mejor rendimiento, menor coste y tamaño. 24 Unidad lectora de discos (CD, DVD & Blu-Ray) Es un dispositivo que realiza las operaciones de lectura y escritura de los medios o soportes de almacenamiento con forma de disco, más específicamente a las unidades de disco duro, unidades de discos flexibles (disquetes de 5¼" y de 3½"), unidades de discos ópticos (CD, DVD, HD DVD o Bluray). Una unidad de disco cuenta con un motor que hace funcionar un sistema de arrastre que hace girar uno o varios discos a una velocidad constante, al tiempo que un mecanismo de posicionamiento sitúa la cabeza o cabezas sobre la superficie del disco para permitir la reproducción o grabación del disco. La rotación del disco puede ser constante o parar de forma alternada. El almacenamiento óptico se basa en discos de policarbonato donde la información se guarda sobre la superficie del disco mediante marcas formando un surco en espiral que comienza en el interior del disco. Este surco se ilumina con un haz de láser y las marcas modifican su reflejo. Pueden utilizarse ambas caras del disco y en una misma cara diferentes capas Los primeros CDs (Compact-Disc) fueron diseñados para audio y tenían una tasa de transferencia de 150 KB/s con Velocidad Lineal Constante de 1’2 m/s, modificando la velocidad de rotación del motor según la posición del cabezal. Este sistema permite maximizar el espacio pero en la práctica solo permite búsquedas aleatorias hacia adelante. Además a grandes velocidades de rotación se vuelve impráctico. Actualmente los CDs de datos y el resto de unidades ópticas utilizan un sistema de Velocidad Angular Constante. Los CDs escriben sus datos mediante una transformación de 8 bits en 14 llamada EFM (Eightto-Fourteen Modulation) que persigue limitar la componente continua de los datos. En DVDs se utiliza EFMPlus que es una transformación de 8 bits en 16. Además utilizan códigos de corrección de errores. La capacidad de una capa de un disco óptico viene determinada por el tamaño de su superficie, el grosor del surco y la longitud de las marcas. Así un CD tiene un diámetro de 5” (con una perforación central de 15 mm ), un surco de 1,65 μm y utiliza un láser rojo de 0,78 μm lo que permite 700 MB de datos o unos 80 minutos de sonido a una VLC de 1,2 m/s. El DVD (Digital Versatile Disc) tiene la apariencia de un CD pero utiliza un láser rojo de 0,65 μm con una capacidad estándar (DVD-5: monocara y monocapa) de 4’7 GB y velocidad de transferencia base de 1.350 KB/s. A diferencia del CD que permite diferentes sistemas de ficheros (ISO 9660, Juliet / Romeo, Rock Ridge, HFS... más formato Audio), DVD solo utiliza un sistema de ficheros, el UDF (Universal Disk Format), una extensión del estándar ISO 9660. Los dispositivos “Blue-Ray” utilizan un láser azul de 405 nanómetros con una capacidad de 25 GB por capa y una velocidad de transferencia de 4’5 MB/s. 25 Mecanismo y lente de la unidad lectora CD DVD 26 BlueRay Placa de video Una tarjeta gráfica es una tarjeta de expansión o un circuito integrado (chip), de la placa base de la computadora, que se encarga de procesar los datos provenientes de la unidad central de procesamiento (CPU) y transformarlos en información comprensible y representable en el dispositivo de salida (por ejemplo: monitor, televisor o proyector). Es habitual que se utilice el mismo término, para las tarjetas dedicadas y separadas (tarjeta de expansión), y para los chips de las unidades de procesamiento gráfico (GPU) integrados en la placa base. Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como sintonización de televisión, captura de vídeo, decodificación2 MPEG-2 y MPEG-4, o incluso conectores IEEE 1394 (Firewire), de mouse, lápiz óptico o joystick. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de estas, pero otras arquitecturas también hacen uso de este tipo de dispositivos. Las tarjetas gráficas no son dominio exclusivo de los computadoras personales (PC) IBM compatibles; contaron o cuentan con ellas dispositivos como por ejemplo: Commodore Amiga (conectadas mediante las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y en las videoconsolas modernas, como la Wii U, la PlayStation 4 y la Xbox One. 27 DEFINICIONES ● Resolución: Número de puntos que es capaz de representar por pantalla una tarjeta de vídeo representada como matriz Horizontal x Vertical. ● Profundidad de color: La profundidad de color indica el número de bits utilizados en la tarjeta para representar cada color RGB por pantalla, expresada en bits (actualmente 16 o 32). El número de colores disponibles más habitualmente son: 1 color (monocromo), 16 colores, 256 colores, Color de alta densidad (16 bits) y Color verdadero (32 bits). ● Color verdadero: Es una profundidad de color de 8 bits asociados para cada color RGB (24 bits) más 8 bits de control (en total 32 bits). Esto permite más de 16,7 millones de colores para cada píxel. Se denomina color verdadero (Truecolor) debido a que es aproximadamente el número de colores que el ojo humano puede detectar. Los 8 bits extra normalmente no afectan a la precisión del color, pero permiten incorporar un canal alfa que representa la transparencia de cada píxel. ● Modo de Vídeo: combinación de la resolución y la profundidad de color. Determina la cantidad de memoria de vídeo mínima necesaria en la tarjeta. ● Memoria Gráfica: Equivale a la Resolución por los bits de color dividido 8 (para indicarse en bytes). ● Velocidad de Refresco o Tasa de Refresco: Número de veces que se dibuja la pantalla por segundo. Expresado en Hz. La velocidad mínima recomendada son 60 Hz. A diferencia de los monitores CRT, los monitores TFT no trabajan por el sistema de barrido de rayos, por lo que ese parpadeo ha desaparecido prácticamente. De hecho la tasa de refresco en los monitores TFT es muy pequeña (normalmente entre 56Hz y 75Hzt). ● Conversión digital-analógica: Se llama RAMDAC al dispositivo encargado de convertir los datos digitales de color que genera la tarjeta de vídeo a las señales analógicas que entiende el monitor en sus 3 colores básicos. La calidad de este dispositivo viene determinada por la formula: Ancho de banda (Mhz) = Píxeles(x) * Píxeles(y) * frecuencia de refresco * 1.5 VGA (Video Graphics Array) Es un estándar gráfico introducido por IBM en 1988, y que continua la evolución de MDA, CGA, HGC, EGA11..., con una resolución característica de 640x480 píxeles y 256 colores12. Hoy día se conoce como VGA a éste modo de vídeo. Los conectores VGA y su correspondiente cableado casi siempre son utilizados exclusivamente para transportar componentes analógicos RGB-HV (Red-Green-Blue-Horiz. Sync.-Vert. Sync.) junto con señales de vídeo DDC2 (señales bidireccionales entre el monitor y la tarjeta), reloj digital y datos. Este modo de vídeo vuelve a ser popular en dispositivos móviles y es la configuración mínima en las tarjetas actuales. El estándar utilizaba en origen 256KB de memoria RAM de vídeo. Utiliza un conector de tipo DE-15F (DE15 Hembra) en el PC y DE-15F o DE-15M (DE-15 Macho) en el monitor. Este estándar ha ido evolucionando para permitir mayores resoluciones y mayor profundidad de color aumentado también la memoria RAM de vídeo necesaria. Algunas resoluciones cambian la relación de proporción original 4:3 Las principales resoluciones son: ● VGA (Video Graphics Array, IBM 1988): 640 x 480 (proporción 4:3) ● SVGA (Super VGA, varios 198713): 800 x 600 (proporción 4:3) ● XGA (eXtended VGA, IBM 1990): 1024 x 768 (proporción 4:3) ● SXGA (Super XGA): 1280 x 1024 (proporción 5:3) ● UXGA (Ultra XGA): 1600 x 1200 (proporción 4:3) 28 VÍDEO DIGITAL DFP (Digital Flat Panel) es un estándar digital de vídeo un poco antiguo que no llegó a tener aceptación en el mercado. DVI (Digital Visual Interface) es otro estándar de vídeo digital. El brillo de los píxeles se transmite en forma de lista de números. La pantalla, en su resolución nativa, lee cada número y aplica ese brillo al píxel apropiado. Un enlace DVI se compone de cable de 4 pares trenzados (rojo, verde, azul y reloj). No usa compresión ni transmisión por paquetes. La pantalla entera se transmite constantemente. Los conectores DVI pueden ser solo analógicos, solo digitales o permitir ambos y de un solo canal o de dos: ● Enlace Simple (Single Link) - Máxima resolución: 2.6 Mpíxels a 60Hz. 165MHz máximo. ● Enlace Doble (Dual Link) – Incluye un segundo conjunto de pares trenzados. Cuando se activa se emiten conjuntos de píxeles alternos. Cada canal ofrece más de 165MHz. HDMI (High-Definition Multimedia Interface) es un estándar con gestión DRM (HDCP) promovido por la industria para sustituir a DVI. HDMI permite el envío de vídeo digital sin comprimir -de forma compatible con DVI digital- y hasta 8 canales de audio digital por un mismo cable. Pero si el emisor detecta que no está conectado a otra equipo HDMI (sino a un DVI, por ejemplo) degrada intencionadamente la señal de vídeo. Además los fabricantes se han comprometido a no fabricar grabadores con conexión HDMI, teniendo cada uno una firma digital que los productos de los demás rechazarían en caso de romper el compromiso. 29 Placa de sonido Una tarjeta de sonido o placa de sonido es una tarjeta de expansión para computadoras que permite la salida de audio controlada por un programa informático llamado controlador (en inglés driver). El uso típico de las tarjetas de sonido consiste en hacer, mediante un programa que actúa de mezclador, que las aplicaciones multimedia del componente de audio suenen y puedan ser gestionadas. Estas aplicaciones incluyen composición de audio y en conjunción con la tarjeta de videoconferencia también puede hacerse una edición de vídeo, presentaciones multimedia y entretenimiento (videojuegos). Algunos equipos (como los personales) tienen la tarjeta ya integrada, mientras que otros requieren tarjetas de expansión. También hay equipos que por su uso (como por ejemplo servidores) no requieren de dicha función. Las tarjetas de sonido analógicas disponen de un conversor analógico-digital que se encarga de transformar la señal de sonido analógica en su equivalente digital. Esto se lleva a cabo mediante tres fases: muestreo, cuantificación y codificación. Como resultado se obtiene una secuencia de valores binarios que representan el nivel de tensión en un momento concreto. El número de bits por muestra es fijo, y suele ser 16. La frecuencia de muestreo se puede controlar por software y normalmente es una fracción de 44.1kHz. La audición humana está limitada a los 16 o 17 KHz, pero si los equipos se extienden más allá de este limite se obtiene una mejor calidad. La frecuencia de muestreo (del convertidor) debe ser de más del doble que la banda que se pretende utilizar (teorema de Nyquist en la práctica). Finalmente los nuevos formatos de alta definición usan frecuencias de muestreo de 96 KHz (para tener una banda de 40 KHz) y hasta 192 KHz, no porque estas frecuencias se puedan oír, sino porque así es más fácil reproducir las que si se oyen. 30 Gabinete En informática, la carcasa, torre, gabinete, caja o chasis de computadora, es la estructura metálica o plástica, cuya función consiste en albergar y proteger los componentes internos como la CPU, la RAM, la placa madre, la fuente de alimentación, la/s placas de expansión y los dispositivos o unidades de almacenamiento: disquetera, unidad de disco rígido, unidad de disco óptico (lectora o grabadora de: CD, DVD, Blu-Ray). Normalmente están construídas de acero electrogalvanizado, plástico o aluminio. Hay que distinguir 2 formatos de gabinetes. 1. Gabinete tipo Torre (PC Tradicional) 2. Gabinete tipo Rack (Servidores) 31 32