Introducción a la computación Computación Procesamiento de datos por medios mecánicos y/o eléctricos. Dispositivos computacionales pueden abarcar tareas tan simples de cálculo del tipo de costos/beneficios o tan complejas como jugar al ajedrez con buen éxito. Informática Es una palabra de origen francés formada por la contracción de dos vocablos INFORmación y autoMÁTICA. La Real Academia de la Lengua define Informática como el conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de computadoras electrónicas. La palabra informática suele utilizarse como sinónimo de Ciencia e Ingeniería de las Computadoras (Computer Science). Sistema Informático Un sistema informático es la síntesis de hardware y software. Un sistema informático típico emplea un ordenador que usa dispositivos programables para almacenar, recuperar y procesar datos. El ordenador personal o PC resulta de por sí un ejemplo de un sistema informático. Incluso el ordenador más sencillo se clasifica como un sistema informático, porque al menos dos componentes (hardware y software) tienen que trabajar unidos. Pero el genuino significado de "sistema informático" viene mediante la interconexión. Muchos sistemas informáticos pueden interconectarse, esto es, unirse para convertirse un sistema mayor. El interconexionado de sistemas informáticos puede tornarse dificultoso debido a las incompatibilidades. A veces estas dificultades ocurren entre hardware incompatible, mientras que en otras ocasiones se dan entre programas informáticos que no se entienden entre sí. Procesamiento de Datos Por procesamiento de datos se entienden habitualmente las técnicas eléctricas o mecánicas usadas para manipular datos para el empleo humano o de máquinas. Programas Secuencia de instrucciones que describe cómo se deben procesar los datos. Los programas presentan una amplia variedad, dependiendo del tipo de información a la que deben acceder o que deben generar. Por ejemplo, las instrucciones que permiten balancear una chequera son muy diferentes a las necesarias para simular un mundo de realidad virtual en la Internet. Hay dos tipos de software: sistemas operativos y aplicaciones. El software de aplicaciones acepta entradas del usuario y luego las manipula para obtener un resultado, conocido como salida. Las aplicaciones son programas diseñados para ejecutar una función específica directamente para el usuario o para otro programa de aplicación. Los ejemplos de aplicaciones incluyen procesadores de texto, programas de bases de datos, planillas de cálculo, navegadores web, herramientas de desarrollo web, y herramientas de diseño gráfico. Un Sistema Operativo es un programa que administra a todos los otros programas en una computadora. También proporciona el entorno operativo con las aplicaciones que son usadas para acceder a los recursos en la computadora. Los sistemas operativos ejecutan tareas básicas como reconocimiento de entradas desde el teclado o mouse, envío de salidas a la pantalla de video o periféricos, seguimiento de los archivos en los discos, y control de los periféricos como impresoras y módems. Windows 98, Windows 2000, Windows NT, Linux, Mac OS X, DEC VMS, y el OS/400 de IBM son todos ejemplos de sistemas operativos. Base de Datos Desde el punto de vista informático una base de datos es una colección de ficheros interrelacionados. Se puede definir más formalmente como un conjunto de datos operativos a los que acceden los programas de aplicación o los usuarios. Una base de datos es un almacén de información en forma de datos de diferentes tipos. Lic. Hugo Santander Jhong 1 Introducción a la computación Información En sentido general, la información es un conjunto organizado de datos, que constituyen un mensaje sobre un determinado ente o fenómeno. Según otro punto de vista, la información es un fenómeno que proporciona significado o sentido a las cosas, e indica mediante códigos y conjuntos de datos, los modelos del pensamiento humano. La información por tanto, procesa y genera el conocimiento humano. Hardware Es el equipo físico como el gabinete, las disqueteras, el teclado, el monitor, los cables, los parlantes y las impresoras. Software También llamado programas, le da instrucciones a la computadora sobre cómo operar. Estas operaciones pueden incluir identificar, acceder y procesar información. El Computador Máquina que almacena y procesa datos que representan información. La importancia de estas máquinas reside en su capacidad para realizar cálculos a gran velocidad y de forma ordenada. Evolución por generaciones Primera generación En esta generación había un gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarcó la década de los cincuenta. Y se conoce como la Primera Generación. Estas máquinas tenían las siguientes características: Estaban construidas por medio de tubos de vacío. Eran programadas en lenguaje de máquina. En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares). En 1951 aparece la UNIVAC (UNIVERSAL Computer), que fue la primera computadora comercial, disponía de mil palabras de memoria central y podía leer cintas magnéticas. Se utilizó para procesar el censo de 1950 en los Estados Unidos. En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860-1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines). Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957. Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrolló la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado. Lic. Hugo Santander Jhong 2 Introducción a la computación La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales. Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105. Segunda generación Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas. Las características de las computadoras de la segunda generación son las siguientes: Están construidas con circuitos de transistores. Se programan en nuevos lenguajes llamados lenguajes de alto nivel. En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras son bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo ncr 315. La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601. Tercera generación Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 60, surge la Tercera Generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964. Las características de las computadoras de esta generación fueron las siguientes: Su fabricación electrónica está basada en circuitos integrados. Su manejo es por medio de los lenguajes de control de los sistemas operativos. La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaban divididos por aplicaciones). El sistema operativo de la serie 360, se llamó OS y contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándar. En 1964 CDC introdujo la serie 370 y produce los modelos 115, 125, 135, 145,158, 168. UNIVAC compite con los modelos 1108 y 1110, máquinas de gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces. A finales de esta década la IBM produce su serie 370 los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey – Well participa con su computadora DPS con varios modelos. A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también mainframes, que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP – 8 y la PDP -11 de Digital Equipment Corporation, la VAX (Virtual Ardes extended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett – Packard con varios modelos el 36 y el 34, la Wang y Honey – Well – Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryan) que ha pasado por varias generaciones. Lic. Hugo Santander Jhong 3 Introducción a la computación Cuarta generación Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales, cuyo uso ha adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada “Revolución Informática”. En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan sólo por IBM; y ésta por su parte es aún de las cinco compañías más grandes del mundo. En 1981 se vendieron 800 000 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes. Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas se manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crecen con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft). No todo son microcomputadoras, por supuesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de la serie CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo. Quinta generación En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en el lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado “programa de la quinta generación de computadoras”, con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera: Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. Manejo de lenguaje natural y sistemas de inteligencia artificial. El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto. Clases de Computadoras Supercomputadoras Una supercomputadora es el tipo de computadora más potente y más rápida que existe en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea específica. Así mismo son las más caras, sus precios alcanzan los 30 MILLONES de dólares y más; y cuentan con un control de temperatura especial, esto para disipar el calor que algunos componentes alcanzan a tener. Lic. Hugo Santander Jhong 4 Introducción a la computación Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes: Búsqueda y estudio de la energía y armas nucleares. Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos. El estudio y predicción de tornados. El estudio y predicción del clima de cualquier parte del mundo. La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo, Etc. Debido a su precio, son muy pocas las supercomputadoras que se construyen en un año. Macrocomputadoras o mainframes Las macro computadoras son también conocidas como Mainframes. Los mainframes son grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. Los mainframes tienen un costo que va desde 350,000 dólares hasta varios millones de dólares. De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. Pero las supercomputadoras pueden ejecutar un sólo programa más rápido que un mainframe. En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cientos de cables d e los periféricos, y su temperatura tiene que estar controlada. Minicomputadoras En 1960 surgió la minicomputadora, una versión más pequeña de la Macro computadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframe, y esto ayudo a reducir el precio y costos de mantenimiento. Las minicomputadoras, en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo. En general, una minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario. Microcomputadoras o PC´s Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es "una computadora en un chip", o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares. El término PC se deriva de que para el año de 1981, IBM®, sacó a la venta su modelo "IBM PC", la cual se convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando procesadores del mismo tipo que las IBM, pero a un costo menor y pudiendo ejecutar el mismo tipo de programas. Existen otros tipos de microcomputadoras, como la Macintosh®, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser de uso personal. En la actualidad existen variados tipos en el diseño de PC´s: Computadoras personales, con el gabinete tipo minitorre, separado del monitor. Lic. Hugo Santander Jhong 5 Introducción a la computación Computadoras personales portátiles "Laptop" o "Notebook". Computadoras personales más comunes, con el gabinete horizontal, separado del monitor. Computadoras personales que están en una sola unidad compacta el monitor y el CPU. Las computadoras "laptops" son aquellas computadoras que están diseñadas para poder ser transportadas de un lugar a otro. Se alimentan por medio de baterías recargables, pesan entre 2 y 3 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crys tal Display). Estaciones de trabajo o Workstations Las estaciones de trabajo se encuentran entre las minicomputadoras y las macro computadoras (por el procesamiento). Las estaciones de trabajo son un tipo de computadoras que se utilizan para aplicaciones que requieran de poder de procesamiento moderado y relativamente capacidades de gráficos de alta calidad. Son usadas para: Aplicaciones de ingeniería CAD (Diseño asistido por computadora) CAM (manufactura asistida por computadora) Publicidad Creación de Software En redes, la palabra "workstation" o "estación de trabajo" se utiliza para referirse a cualquier computadora que está conectada a una red de área local. BIT Dígito simple de número binario ( 0 ó 1). En el computador, un bit físicamente es un transistor en una celda de memoria, un punto magnético en un disco o una cinta, o una pulsación de alto o bajo voltaje a través de un circuito. Los grupos de bits forman unidades de almacenamiento en el computador, llamados bytes y palabras, que son tratados como grupos. Los bytes siempre contienen ocho bits y almacenan un carácter alfanumérico. Las palabras se refieren a registros internos y capacidad de procesamiento del computador (8, 16, 32 y 64 bits); cuanto mayor sea el número, mayor será la cantidad de datos que procesa el computador a la vez. Byte Voz inglesa, se pronuncia báit, que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de carácteres en que sea definido. Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde seis a nueve bits (un caracter codificado estaría adaptado a esta unidad). La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de los microprocesadores basados en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. Múltiplos del Byte La capacidad de almacenamiento de un ordenador se mide en bytes. Como el byte es una unidad relativamente pequeña, se suelen utilizar múltiplos de éste: Kilobyte : 1 KB = 210 bytes = 1.024 bytes Megabyte : 1 MB = 210 KB = 220 bytes = 1.048.576 bytes 10 Gigabyte : 1 GB = 2 MB = 230 bytes = 1.073.741.824 bytes 10 Terabyte : 1 TB = 2 GB = 240 bytes Los múltiplos anteriores no solo se utilizan con bytes, sino que también se pueden utilizar con otras unidades. Así 1 Gb (Gigabit) son 230 bits. De ahora en adelante utilizaremos una b para indicar bit y una B para byte. Lic. Hugo Santander Jhong 6 Introducción a la computación Códigos de representación 7 EBCDIC (Extended Binary Coded Decimal Interchange Code) EBCDIC es un código binario que representa caracteres alfanuméricos, controles y signos de puntuación. Cada carácter está compuesto por 8 bits = 1 byte, por eso EBCDIC define un total de 256 caracteres. Existan muchas versiones ("codepages") de EBCDIC con caracteres diferentes, respectivamente sucesiones diferentes de los mismos caracteres. Por ejemplo al menos hay 9 versiones nacionales de EBCDIC con Latín 1 caracteres con sucesiones diferentes. EBCDIC es un producto de IBM para ordenadores centrales. El siguiente es el código CCSID 500, una variante de EBCDIC. Los caracteres 0x00–0x3F y 0xFF son de control, 0x40 es un espacio, 0x41 es no-saltar página y 0xCA es un guión suave. ASCII El código ASCII (acrónimo inglés de American Standard Code for Information Interchange — Código Estadounidense Estándar para el Intercambio de Información), pronunciado generalmente [áski], es un código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas occidentales. UNICODE Estándar industrial cuyo objetivo es proporcionar le medio por el cual un texto en cualquier forma e idioma pueda ser codificado por un sistema informático. El establecimiento de Unicode ha involucrado un ambicioso proyecto para reemplazar los esquemas de codificación de caracteres existentes, muchos de los cuales están muy limitados en tamaño y son incompatibles con entornos multilingües. Unicode se ha vuelto el más extenso y completo esquema de codificación de caracteres siendo el mas dominante en la internacionalización y adaptación local del software informático. El estándar ha sido implementado en un número considerable de tecnologías recientes, que incluyen XML, Java y sistema operativos modernos. Ciclo de procesamiento de datos: Proceso, Entrada, Salida El Sistema Operativo (OS) es el software que controla la funcionalidad y que proporciona rutinas de bajo nivel para los programas de aplicación. La mayoría de los sistemas operativos proporcionan funciones para leer y escribir datos en archivos. Un sistema operativo traduce los Lic. Hugo Santander Jhong Introducción a la computación pedidos de operaciones sobre archivos en operaciones que la controladora de disco puede ejecutar. El sistema operativo ayuda a la computadora a ejecutar cuatro operaciones básicas que incluyen entrada-procesamiento-salida-almacenamiento. DISPOSITIVO DE ENTRADA COMPUTADORA (CPU) DISPOSITIVO DE SALIDA Teclado Mouse Monitor Impresora DISPOSITIVO DE ALMACENAMIENTO Disco duro La operación de entrada reconoce la entrada desde el teclado o el mouse. La operación de procesamiento manipula los datos de acuerdo con las instrucciones del usuario. La operación de salida envía la salida a la pantalla de video o impresora. La operación de almacenamiento registra los archivos para su uso posterior. Ejemplos de dispositivos de almacenamiento son diskettes y discos rígidos. La forma más común para ingresar datos en una computadora es mediante el teclado. La apertura de una página web, de un archivo de e-mail o de un archivo que vino desde un servidor de red también son formas de ingresar datos. Después de que los datos han sido ingresados, la computadora puede procesar o "triturar" los datos. Cuando un archivo está abierto y el texto es reformateado, la computadora está procesando datos. El procesamiento de datos usualmente da como resultado algún tipo de salida, como un archivo de procesador de texto o una planilla de cálculo. La forma más común de salida de datos es el envío al monitor de la computadora, o a una impresora. Hoy, la mayoría de las computadoras tienen una conexión a la Internet, por lo que es común la salida de datos hacia Internet por medio de e-mail o como una página web. El almacenamiento de datos es probablemente la más importante de las cuatro funciones básicas de la computadora. La forma más común de almacenar un archivo es grabarlo en un disco rígido. Los discos rígidos pueden imaginarse como enormes archiveros. Un sistema operativo encontrará un lugar en el disco rígido, grabará el archivo y recordará su ubicación. Sistemas de Numeración usados en las computadoras Los computadores manipulan y almacenan los datos usando interruptores electrónicos que están ENCENDIDOS o APAGADOS. Los computadores sólo pueden entender y usar datos que están en este formato binario, o sea, de dos estados. Los unos y los ceros se usan para representar los dos estados posibles de un componente electrónico de un computador. Se denominan dígitos binarios o bits. Los 1 representan el estado ENCENDIDO, y los 0 representan el estado APAGADO. El Código americano normalizado para el intercambio de información (ASCII) es el código que se usa más a menudo para representar los datos alfanuméricos de un computador. ASCII usa dígitos binarios para representar los símbolos que se escriben con el teclado. Cuando los computadores envían estados de ENCENDIDO/APAGADO a través de una red, se usan ondas eléctricas, de luz o de radio para representar los unos y los ceros. Los computadores reconocen y procesan datos utilizando el sistema numérico binario, o de Base 2. Lic. Hugo Santander Jhong 8 Introducción a la computación El sistema numérico hexadecimal (hex) se usa frecuentemente cuando se trabaja con computadores porque se puede usar para representar números binarios de manera más legible. El computador ejecuta cálculos en números binarios, pero hay varios casos en los que el resultado del computador en números binarios se expresa en números hexadecimales para facilitar su lectura. Clasificación del Software Un ordenador, como máquina programable que es, posee unos elementos fijos (máquina base) y otros modificables (programa). En forma simplificada podemos asociar los elementos fijos a los dispositivos físicos del ordenador, que constituyen el hardware, y los elementos modificables a los programas en sentido amplio, que constituyen el software. La palabra Hardware se refiere al soporte físico del ordenador. Es la máquina en sí: el conjunto de cables, circuitos, dispositivos y otros elementos que forman el ordenador. El soporte lógico o Software del ordenador, es el conjunto de programas (Sistema Operativo, Compiladores, programas de usuario,...) ejecutables por el ordenador. Para que un ordenador funcione es necesario utilizar programas, o sea el software es tan importante como el hardware. En principio, cualquier función de un sistema de cómputo puede proporcionarse mediante software o hardware. Es decir, un procedimiento que describa como realizar la función, puede expresarse como un programa o puede construirse con componentes físicos. En la práctica la elección entre hardware y software es un compromiso entre velocidad y coste. Las funciones complejas son realizadas por software, mientras que las simples (o que son requeridas frecuentemente) son realizadas por hardware para ganar en rapidez. En resumen, la frontera entre software y hardware es muy flexible y probablemente cambiará con los avances de la tecnología. Podemos establecer una jerarquía, en forma de capas concéntricas, para clasificar el software presente en un ordenador. En un nivel más interno se encuentra el hardware de la máquina. El siguiente nivel lo ocupa el sistema operativo. Éste no es más que un programa especial que se encarga de manejar el directamente el hardware del sistema (controlar el teclado y la pantalla, hacer que una unidad de disco empiece a rotar y leer datos de ésta, etc.). Por lo general cada constructor de ordenadores, tiene su sistema operativo, aunque últimamente se tiende a una normalización siendo los más comunes UNIX, MS-DOS, OS/2 y Microsoft-WINDOWS. El próximo nivel más externo está constituido por las herramientas de programación. Se trata de programas compiladores e intérpretes que el programador usa para construir los programas de aplicación o de usuario. Estos últimos forman el nivel exterior de la jerarquía, y son los programas que usuarios de un ordenador (personas que no tienen que entender de programación) podrán usar para realizar labores concretas. Algunos de los más comunes son procesadores de textos, hojas de cálculo, diseño gráfico, etc. Programas de usuarios Herramientas de programación Sistemas Operativos Hardware Sistemas Operativos Un Sistema Operativo es un programa que administra a todos los otros programas en una computadora. También proporciona el entorno operativo con las aplicaciones que son usadas para acceder a los recursos en la computadora. Los sistemas operativos ejecutan tareas básicas como reconocimiento de entradas desde el teclado o mouse, envío de salidas a la pantalla de video o Lic. Hugo Santander Jhong 9 Introducción a la computación periféricos, seguimiento de los archivos en los discos, y control de los periféricos como impresoras y módems. Windows 98, Windows 2000, Windows NT, Linux, Mac OS X, DEC VMS, y el OS/400 de IBM son todos ejemplos de sistemas operativos. Software de aplicación Software de aplicación, que permite a los usuarios llevar a cabo una o varias tareas más específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre otros: Aplicaciones de automatización industrial, Aplicaciones ofimáticas (procesadores), Software educativo, Software médico, Bases de datos, Videojuegos. Procesadores de textos Software que provee funciones de creación y administración de documentos de texto mediante un computador. Hojas de Cálculo Software que simula una hoja de cálculo, o planilla, en la que las columnas de números se suman para presupuestos y planes. Aparece en pantalla como una matriz de filas y columnas, cuyas intersecciones se identifican como celdas. La magia de las hojas de cálculo está en su capacidad para re calcular rápidamente las filas y columnas cada vez que se realiza un cambio en los datos numéricos en una de las celdas. Graficadores Software gráfico que permite al usuario diseñar e ilustrar productos y objetos. Los programas de dibujo mantienen una imagen en formato de graficas vectoriales, esto permite que todos los elementos del objeto gráfico puedan aislarse y manipularse en forma individual. Los programas de dibujo y CAD son similares, sin embargo, los de dibujo habitualmente proveen una mayor cantidad de efectos especiales para ilustraciones de fantasía, mientras que los programas CAD suministran un dimensionamiento y posicionamiento preciso de cada elemento gráfico, con el fin de poder transferir los objetos a otros sistemas para análisis de ingeniería y manufactura. Manejadores de Base de Datos Software que permite a un usuario manejar múltiples archivos de datos. Software que provee la capacidad de gestión de bases de datos para lenguajes de programación tradicionales, como COBOL, BASIC y C. Parte del DBMS (Sistema de administración o gestión de bases de datos) que almacena y recupera los datos Ejemplo: Oracle, DB2, Informix, Sysbase, Ms Sql-Server, MySQL, PostgradeSQL) Clasificación de los Lenguajes de Programación Un ordenador, como máquina programable que es, posee unos elementos fijos (la máquina) y otros modificables (el programa). Programa de bajo nivel: es un conjunto ordenado de instrucciones que se dan al ordenador para indicarle las operaciones o tareas a realizar. Un ordenador funciona bajo control de un programa que ha de estar almacenado en la memoria del ordenador. El programa contiene, en forma codificada, una descripción del comportamiento deseado del ordenador. El ordenador solo puede ejecutar directamente instrucciones de un lenguaje muy simple llamado lenguaje máquina. Las instrucciones de este lenguaje están formadas por grupos de unos y ceros. El lenguaje máquina tiene serios inconvenientes: el repertorio de instrucciones es muy reducido, y las operaciones que puede realizar son muy simples, por lo que los programas resultan largos y laboriosos. Además el lenguaje máquina es distinto para cada tipo de ordenador, por lo que un programa escrito para un ordenador no vale para otro distinto. Lic. Hugo Santander Jhong 10 Introducción a la computación Para facilitar la tarea de programación resulta muy deseable disponer de formas de representación de los programas que sean adecuadas para ser leídas o escritas por personas, y que al mismo tiempo resulten independientes del ordenador utilizado. Los lenguajes de programación de alto nivel, sirven precisamente para representar programas de forma simbólica, en forma de texto, que puede ser leído con relativa facilidad por una persona. Además un lenguaje de alto nivel es independiente del ordenador utilizado. Ejemplos de lenguajes de programación son Modula-2, Pascal, C y Basic. La siguiente figura muestra un programa en Modula-2 que lee dos números enteros de teclado, calcula su suma y la imprime: Lenguajes Orientados a objetos En la programación orientada a objetos (POO u OOP según sus siglas en inglés) se definen los programas en términos de “clases de objetos”, objetos que son entidades que combinan estado (es decir, datos) comportamiento (esto es, procedimientos o métodos) e identidad (propiedad del objeto que lo diferencia del resto). La programación orientada a objetos expresa un programa como un conjunto de estos objetos, que colaboran entre ellos para realizar tareas. Esto permite hacer los programas módulos más fáciles de escribir, mantener y reutilizar. Compiladores Es un lenguaje que traduce un programa escrito en un lenguaje de alto nivel, por ejemplo C++, en un programa en lenguaje máquina que la computadora es capaz de entender y ejecutar directamente. Un compilador es un tipo esencial de programa, en cuanto a que sus entradas o datos son algún programa y su salida es otro programa, para evitar confusiones, solemos llamar un programa fuente o código fuente al programa de entrada, y programa de objeto o código objeto a la versión traducida (que el compilador produce). Código que usa frecuentemente para referirse a un programa o a una parte de él, sobre todo cuando se habla de programas objetos. Ejemplo: Pascal, Cobol, Fortran, Ada, etc. Código Traducción Código Fuente (Compilador) Objeto Traducción: Ensamblador, intérprete, compilador Código objeto: Código ensamblador Interpretes Toman la primera instrucción del programa en lenguaje de alto nivel, la traducen a lenguaje máquina y la ejecutan. Continúan así instrucción por instrucción. En este caso el programa se ejecuta en una sola fase. El principal inconveniente de los intérpretes es su velocidad: el mismo programa se ejecuta más rápido compilado que interpretado. Lic. Hugo Santander Jhong 11 Introducción a la computación LA UNIDAD CENTRAL DE PROCESO (CPU) 12 El microprocesador, o simplemente el micro, es el cerebro del ordenador. Es un chip, un tipo de componente electrónico en cuyo interior existen miles (o millones) de elementos llamados transistores, cuya combinación permite realizar el trabajo que tenga encomendado el chip. Los micros, como los llamaremos en adelante, suelen tener forma de cuadrado o rectángulo negro, y van o bien sobre un elemento llamado zócalo (socket en inglés) o soldados en la placa o, en el caso del Pentium II, metidos dentro de una especie de cartucho que se conecta a la placa base (aunque el chip en sí está soldado en el interior de dicho cartucho). A veces al micro se le denomina "la CPU" (Central Process Unit, Unidad Central de Proceso), aunque este término tiene cierta ambigüedad, pues también puede referirse a toda la caja que contiene la placa base, el micro, las tarjetas y el resto de la circuitería principal del ordenador. La velocidad de un micro se mide en megahertzios (MHz) o gigahertzios (1 GHz = 1.000 MHz), aunque esto es sólo una medida de la fuerza bruta del micro; un micro simple y anticuado a 500 MHz puede ser mucho más lento que uno más complejo y moderno (con más transistores, mejor organizado...) que vaya a "sólo" 400 MHz. Es lo mismo que ocurre con los motores de coche: un motor americano de los años 60 puede tener 5.000 cm3, pero no tiene nada que hacer contra un multiválvula actual de "sólo" 2.000 cm3. Debido a la extrema dificultad de fabricar componentes electrónicos que funcionen a las inmensas velocidades de MHz habituales hoy en día, todos los micros modernos tienen 2 velocidades: Velocidad interna: la velocidad a la que funciona el micro internamente (200, 333, 450... MHz). Velocidad externa o del bus: o también "velocidad del FSB"; la velocidad a la que se comunican el micro y la placa base, para poder abaratar el precio de ésta. Típicamente, 33, 60, 66, 100 ó 133 MHz. La cifra por la que se multiplica la velocidad externa o de la placa para dar la interna o del micro es el multiplicador; por ejemplo, un Pentium III a 450 MHz utiliza una velocidad de bus de 100 MHz y un multiplicador 4,5x. Partes de un microprocesador En un micro podemos diferenciar diversas partes: El encapsulado: es lo que rodea a la oblea de silicio en sí, para darle consistencia, impedir su deterioro (por ejemplo por oxidación con el aire) y permitir el enlace con los conectores externos que lo acoplarán a su zócalo o a la placa base. La memoria caché: una memoria ultrarrápida que emplea el micro para tener a mano ciertos datos que previsiblemente serán utilizados en las siguientes operaciones sin tener que acudir a la memoria RAM, reduciendo el tiempo de espera. Todos los micros "compatibles PC" desde el 486 poseen al menos la llamada caché interna de primer nivel o L1; es decir, la que está más cerca del micro, tanto que está encapsulada junto a él. Los micros más modernos (Pentium III Coppermine, Athlon Thunderbird, etc.) incluyen también en su interior otro nivel de caché, más grande aunque algo menos rápida, la caché de segundo nivel o L2. El coprocesador matemático: o, más correctamente, la FPU (Floating Point Unit, Unidad de coma Flotante). Parte del micro especializada en esa clase de cálculos matemáticos; antiguamente estaba en el exterior del micro, en otro chip. LA MEMORIA RAM La memoria principal o RAM (acrónimo de Random Access Memory, Memoria de Acceso Aleatorio) es donde el ordenador guarda los datos que está utilizando en el momento presente; son los "megas" famosos en número de 32, 64 ó 128 que aparecen en los anuncios de ordenadores. Físicamente, los chips de memoria son rectángulos negros que suelen ir soldados en grupos a unas plaquitas con "pines" o contactos, algo así: Lic. Hugo Santander Jhong Introducción a la computación La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o los discos duros, es que la RAM es mucho (mucho) más rápida, y que se borra al apagar el ordenador, no como éstos. DRAM Dinamic-RAM, o RAM a secas, ya que es "la original", y por tanto la más lenta (aunque recuerde: siempre es mejor tener la suficiente memoria que tener la más rápida, pero andar escasos). Usada hasta la época del 386, su velocidad de refresco típica es de 80 ó 70 nanosegundos (ns), tiempo éste que tarda en vaciarse para poder dar entrada a la siguiente serie de datos. Por ello, es más rápida la de 70 ns que la de 80 ns. Físicamente, aparece en forma de DIMMs o de SIMMs, siendo estos últimos de 30 contactos. SDRAM Sincronic-RAM. Funciona de manera sincronizada con la velocidad de la placa (de 50 a 66 MHz), para lo que debe ser rapidísima, de unos 25 a 10 ns. Sólo se presenta en forma de DIMMs de 168 contactos; es usada en los Pentium II de menos de 350 MHz y en los Celeron. Memoria Cache La memoria caché de segundo nivel (L2) es una memoria muy rápida llamada SRAM (RAM estática) que se coloca entre la memoria principal y la CPU y que almacena los últimos datos transferidos. El procesador, como en los casos de caché de disco, primero consulta a dicha memoria intermedia para ver si la información que busca está allí, en caso afirmativo podemos trabajar con ella sin tener que esperar a la más lenta memoria principal. Dicha memoria solo se usa como caché debido a que su fabricación es muy cara y se emplea en módulos de poca capacidad como 256 ó 512 Kb. No hay que confundir nunca la memoria de segundo nivel con la de primer nivel (L1) ya que esta suele ir integrada dentro del procesador, y suele ser de menor capacidad, aunque evidentemente dispone de un acceso mucho más rápido por parte de la CPU. Su implementación en la placa base puede ser o bien colocar los chips directamente en ella, mediante zócalos o con soldadura directa, o en unos módulos parecidos a los SIMM's llamados COAST, de más fácil actualización. Memoria ROM Una alternativa son los chips de memoria de solo lectura programables, o PROM (Programmable ReadOnly Memory). Este tipo de circuitos consiste en una matriz de elementos que actúan como fusibles. Normalmente conducen la electricidad. Sin embargo, al igual que los fusibles, estos elementos pueden fundirse, lo que detiene el flujo de la corriente. Los chips PROM están fabricados y desarrollados con todos sus fusibles intactos. Se emplea una máquina especial llamada programador de PROM o quemador de PROM, para fundir los fusibles uno por uno según las necesidades del software que se va a codificar en el chip. Este proceso se conoce normalmente como el “quemado“ de la PROM. Como la mayoría de los incendios, los efectos de quemar la PROM son permanentes. El chip no puede modificar, ni actualizar, ni revisar el programa que lleva dentro. Definitivamente, las PROM no están pensadas para la gente que cambia rápidamente de ideas, ni para la industria de cambios rápidos. Por fortuna, la tecnología nos ha traído otra alternativa: los chips de memoria programables y borrables de solo lectura, las EPROM. (Erasable Programmable Read-Only Memory). Las EPROM son internamente semiconductores auto-reparables porque los datos de su interior pueden borrarse y el chip puede ser reutilizado por otros datos o programas. Las EPROM son fáciles de distinguir de los otros chips porque tienen una pequeña ventana transparente en el centro de la cápsula. Invariablemente, esta ventana esta cubierta con una etiqueta de cualquier clase, y con una buena razón: el chips se puede borrar por la luz ultravioleta de alta intensidad que entra por la ventana. Si la luz del sol llega directamente al chip a través de una ventana, el chip podría borrarse sin que nadie se diera cuenta. A causa de su versatilidad con la memoria permanente, y por su facilidad de reprogramación, basta borrarla con luz y programarla de nuevo, las EPROM se encuentran en el interior de muchos ordenadores. Lic. Hugo Santander Jhong 13 Introducción a la computación UNIDADES DE ALMACENAMIENTO 14 Las Unidades de almacenamiento son aquellos dispositivos, ya sea interno o externo, donde se guardan físicamente los archivos de un sistema de envergadura computo. Disco Duro El disco duro almacena casi toda la información que manejamos al trabajar con una computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la máquina, los programas, los archivos de texto, imagen... Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que graba y lee la información. Este componente, al contrario que el micro o los módulos de memoria, no se pincha directamente en la placa, sino que se conecta a ella mediante un cable. También va conectado a la fuente de alimentación, pues, como cualquier otro componente, necesita energía para funcionar. Además, una sola placa puede tener varios discos duros conectados. Las características principales de un disco duro son: La capacidad. Se mide en gigabytes (GB). Es el espacio disponible para almacenar secuencias de 1 byte. La capacidad aumenta constantemente cientos de MB, decenas de GB, cientos de GB. La velocidad de giro. Se mide en revoluciones por minuto (rpm). Cuanto más rápido gire el disco, más rápido podrá acceder a la información la cabeza lectora. Los discos actuales giran desde las 4.200 a 15.000 rpm, dependiendo del tipo de ordenador al que estén destinadas. La capacidad de transmisión de datos. De poco servirá un disco duro de gran capacidad si transmite los datos lentamente. Los discos actuales pueden alcanzar transferencias de datos de más de 100 Mb por segundo. También existen discos duros externos que permiten almacenar grandes cantidades de información. Son muy útiles para intercambiar información entre dos equipos. Normalmente se conectan al PC mediante un conector USB. Cuando el disco duro está leyendo, se enciende en la carcasa un diodo LED (de color rojo, verde). Esto es útil para saber, por ejemplo, si la máquina ha acabado de realizar una tarea o si aún está procesando datos. Unidades externas Los discos duros tienen una gran capacidad, pero al estar alojados normalmente dentro de la carcasa, no son transportables. Para intercambiar información con otros equipos (si no están conectados en red) necesitamos utilizar unidades de disco, como los populares disquetes, los CD-ROM o DVD-ROM, los discos magneto-ópticos, etc. Disquete (Unidad de 3,5 pulgadas) La unidad de 3,5 pulgadas permite intercambiar información utilizando disquetes magnéticos de 1,44 Mb de capacidad. Aunque la capacidad de soporte es muy limitada si tenemos en cuenta las necesidades de las aplicaciones actuales se siguen utilizando para intercambiar archivos pequeños, pues pueden borrarse y reescribirse cuantas veces se desee de una manera muy cómoda, aunque la transferencia de información es bastante lenta si la comparamos con otros soportes, como el disco duro o un CD-ROM. Para usar el disquete basta con introducirlo en la ranura de la Lic. Hugo Santander Jhong Introducción a la computación disquetera. Para expulsarlo se pulsa el botón situado junto a la ranura, o bien se ejecuta alguna acción en el entorno gráfico con el que trabajamos (por ejemplo, se arrastra el símbolo del disquete hasta un icono representado por una papelera). La unidad de disco se alimenta mediante cables a partir de la fuente de alimentación del sistema. Y también va conectada mediante un cable a la placa base. Un diodo LED se ilumina junto a la ranura cuando la unidad está leyendo el disco, como ocurre en el caso del disco duro. En los disquetes solo se puede escribir cuando la pestaña esta cerrada. ATENCION: Los Disquetes son muy inseguros e inestables, por lo tanto están en extinción. Unidad de CD-ROM La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los disquetes de 3,5 pulgadas hasta 700 Mb. Esta es su principal ventaja, pues los CD-ROM se han convertido en el estándar para distribuir sistemas operativos, aplicaciones, etc. El uso de estas unidades está muy extendido, ya que también permiten leer los discos compactos de audio. Para introducir un disco, en la mayoría de las unidades hay que pulsar un botón para que salga una especie de bandeja donde se deposita el CD-ROM. Pulsando nuevamente el botón, la bandeja se introduce. En estas unidades, además, existe una toma para auriculares, y también puede estar presentes los controles de navegación y de volumen típicos de los equipos de audio para saltar de una pista a otra, por ejemplo. Una característica básica de las unidades de CD-ROM es la velocidad de lectura que normalmente se expresa como un número seguido de una «x» (40x, 52x,..). Este número indica la velocidad de lectura en múltiplos de 128 Kb/s. Así, una unidad de 52x lee información de 128 Kb/s × 52 = 6,656 Kb/s, es decir, a 6,5 Mb/s. Unidad de CD-RW (Regrabadora) Las unidades de CD-ROM son sólo de lectura. Es decir, pueden leer la información en un disco, pero no pueden escribir datos en él. Una regrabadora (CD-RW) puede grabar y regrabar discos compactos. Las características básicas de estas unidades son la velocidad de lectura, de grabación y de regrabación. En discos regrabables es normalmente menor que en los discos grabables una sola vez. Las regrabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 Mb o más tamaño (hasta 900 Mb) de un disco compacto en unos pocos minutos. Es habitual observar tres datos de velocidad, según la expresión ax bx cx (a:velocidad de lectura; b: velocidad de grabación; c: velocidad de regrabación). Unidad de DVD-ROM Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 Gb de capacidad, y en la velocidad de lectura de los datos. La velocidad se expresa con otro número de la «x»: 12x, 16x... Pero ahora la x hace referencia a 1,32 Mb/s. Así: 16x = 21,12 Mb/s. Las conexiones de una unidad de DVD-ROM son similares a las de la unidad de CD-ROM: placa base, fuente de alimentación y tarjeta de sonido. La diferencia más destacable es que las unidades lectoras de discos DVD-ROM también pueden disponer de una salida de audio digital. Gracias a esta conexión es posible leer películas en formato DVD y escuchar seis canales de audio separados si disponemos de una buena tarjeta de sonido y un juego de altavoces apropiado (subwoofer más cinco satélites). Unidad de DVD-RW Puede leer y grabar imágenes, sonido y datos en discos de varios gigabytes de capacidad. Unidades magneto-ópticas Estas unidades son menos usadas en entornos domésticos que las unidades de CD-ROM, pero tienen varias ventajas: Lic. Hugo Santander Jhong 15 Introducción a la computación Por una parte; admiten discos de gran capacidad: 230 Mb, 640 Mb o 1,3 Gb. Además; son discos reescribibles, por lo que es interesante emplearlos, por ejemplo, para realizar copias de seguridad. Otros dispositivos de almacenamiento Otros dispositivos de almacenamiento son las memorias flash o los dispositivos de almacenamiento magnético de gran capacidad. La memoria flash. Es un tipo de memoria que se comercializa para el uso de aparatos portátiles, como cámaras digitales o agendas electrónicas. El aparato correspondiente o bien un lector de tarjetas, se conecta a la computadora a través del puerto USB o Firewire. Los discos duros o memorias portátiles. Son memorias externas que se conectan directamente al puerto USB. Discos y cintas magnéticas de gran capacidad. Son unidades especiales que se utilizan para realizar copias de seguridad o respaldo en empresas y centros de investigación. Su capacidad de almacenamiento puede ser de cientos de gigabytes. DISPOSITIVOS DE MÁS DE 2 GB DE CAPACIDAD En general podemos decir que en el mundo PC sólo se utilizan de manera común dos tipos de dispositivos de almacenamiento que alcancen esta capacidad: las cintas de datos y los magneto-ópticos de 5,25". Las cintas son dispositivos orientados específicamente a realizar copias de seguridad masivas a bajo coste, mientras que los magneto-ópticos de 5,25" son mucho más versátiles... y muchísimo más caros. Cintas magnéticas de datos - hasta más de 4 GB Pros: precios asequibles, muy extendidas, enormes capacidades Contras: extrema lentitud, útiles sólo para backups Seguro que ha visto más de una vez en una película antigua o en la televisión esa especie de enormes armarios acristalados en los que unos círculos oscuros de más de 30 cm de diámetro giran como locos mientras Sean Connery, encarnando al inefable 007, se enfrenta al científico loco de turno; bueno, pues esos círculos son cintas de datos de ordenador. Afortunadamente los tiempos han cambiado mucho: hoy en día las cintas de datos vienen con funda y no son mayores que las de música o las cintas de vídeo de 8 mm, lo que es un avance evidente; en cambio, sobre si Pierce Brosnan es tan buen 007 como Connery habría opiniones, aunque tampoco lo hace mal. Las cintas magnéticas de datos o streamers presentan muchos problemas como dispositivo de almacenaje de datos: casi todos los tipos son tremendamente lentas (típicamente menos de 250 Kb/s, una velocidad casi ridícula); lo que es peor, los datos se almacenan secuencialmente, por lo que si quiere recuperar un archivo que se encuentra a la mitad de la cinta deberá esperar varias decenas de segundos hasta que la cinta llegue a esa zona; y además, los datos no están en exceso seguros, ya que como dispositivos magnéticos les afectan los campos magnéticos, el calor, etc, además del propio desgaste de las cintas. Entonces, ¿por qué se fabrican? Porque son baratas, muy baratas. Existen unidades lectorasgrabadoras por menos de 15.000 pts, y las cintas pueden costar unas 3.000 pts una de 2 GB. Pero el ser baratas no elimina el resto de problemas, por lo que sólo son prácticas para realizar backups masivos del disco duro (o selectivos, según), aunque teniendo en cuenta que el proceso para un disco duro de tamaño medio puede llegar a durar fácilmente un par de horas usando cintas normales. Uno de los motivos que hace tan lentas a las cintas de datos es el tipo de interfaz que se utiliza. Generalmente se usa el conector para disquetera, el cual es muy lento, los comentados 250 Kb/s máximo (que rara vez se alcanzan); lo que es más, debe poder configurarse la BIOS como si hubiéramos conectado una disquetera de 2,88 MB, lo que no es posible si la BIOS es antigua, como la de algunos 486 Lic. Hugo Santander Jhong 16 Introducción a la computación y las anteriores. En el caso de que la BIOS admita como máximo disqueteras de 1,44 MB, la velocidad se reducirá a la mitad. En otras cintas se utiliza el puerto paralelo (con mayor ancho de banda, pero apenas aprovechado) y en cintas de datos más caras y rápidas se utilizan interfaces EIDE o SCSI, lo que aumenta el rendimiento pero nunca de forma espectacular, ya que el elemento más limitante es la propia maquinaria mecánica de la unidad. Además, el modo de acceso secuencial hace totalmente imposible usarlas de forma eficaz "a lo disco duro", salvo que entendamos por esto esperar y esperar cada vez que queremos un fichero... Los tipos principales de unidades de cinta son las QIC, Travan y DAT. Las Travan son una subclase que deriva de las QIC, con las que suelen guardar un cierto grado de compatibilidad; ambas forman el segmento económico del almacenaje en cinta, por ejemplo 20.000 pts una unidad de 1 GB de capacidad y 2.000 pts cada una de las cintas correspondientes. Las cintas DAT (Digital Audio Tape) son otra historia, desde luego, tanto en velocidad como en precio. El acceso sigue siendo secuencial, pero la transferencia de datos continua (lectura o escritura) puede llegar a superar 1 MB/s, lo que justifica que la práctica totalidad utilicen interfaz SCSI. Sin embargo, el precio resulta prohibitivo para un uso no profesional: más de 100.000 pts una unidad de 4 GB de capacidad, aunque las cintas son baratas: unas 4.000 pts para una de 4 GB, por cierto realmente pequeña. Marcas y modelos existen infinidad, ya que es un mercado muy maduro y basado en su mayoría en estándares, lo que redunda en unos precios más bajos y una mayor facilidad para encontrar las cintas apropiadas. Ejemplos destacados son los modelos Ditto de Iomega, los Colorado de Hewlett Packard, los TapeStor de Seagate y los modelos DAT de Sony o Hewlett Packard. Para terminar, una curiosidad muy importante: la capacidad física real de las cintas de datos suele ser la mitad de la nominal indicada en el exterior de la caja de la unidad o de la cinta, ya que al sólo utilizarse para hacer backups, generalmente comprimiendo los datos, suponen que se va a alcanzar una compresión de 2:1. En realidad la compresión depende del tipo de datos a comprimir (los programas se comprimen poco y los archivos de texto mucho, por ejemplo), por lo que le recomiendo que piense más bien en una compresión 1,5:1. Resumiendo, que si la unidad se anuncia como de 2 GB, seguro que es de 1 GB (lo que vendrá en alguna parte pero en letras más pequeñas) y casi seguro que podrá almacenar más o menos 1,5 GB de datos comprimidos; en este texto no se ha usado este truco publicitario. Magneto-ópticos de 5,25" - hasta 4,6 GB Pros: versatilidad, velocidad, fiabilidad, enormes capacidades Contras: precios elevados Los magneto-ópticos de 5,25" se basan en la misma tecnología que sus hermanos pequeños de 3,5", por lo que atesoran sus mismas ventajas: gran fiabilidad y durabilidad de los datos a la vez que una velocidad razonablemente elevada. En este caso, además, la velocidad llega a ser incluso superior: más de 3 MB/s en lectura y más de 1,5 MB/s en escritura usando discos normales. Si el dispositivo soporta discos LIMDOW, la velocidad de escritura casi se duplica, con lo que llegaríamos a una velocidad más de 5 veces superior a la grabadora de CD-ROMs más rápida y comparable a la de los discos duros, lo que determina la utilización del interfaz SCSI exclusivamente y el apelativo de discos duros ópticos que se les aplica en ocasiones. Además, el cambio de tamaño de 3,5" a 5,25" implica un gran aumento de capacidad; los discos van desde los 650 MB hasta los 5,2 GB, o lo que es lo mismo: desde la capacidad de un solo CD-ROM Lic. Hugo Santander Jhong 17 Introducción a la computación hasta la de 8, pasando por los discos más comunes, los de 1,3 y 2,6 GB. Con estas cifras y esta velocidad, hacer un backup de un disco duro de 2,5 GB no lleva más de un cuarto de hora y el cartucho resultado es sólo un poco más grande que la funda de un CD, ya que a eso se parecen los discos: a CDs con una funda tipo disquete. En la actualidad los modelos más extendidos son los de 2,6 GB de capacidad máxima, en los que está implantándose rápidamente el sistema LIMDOW. Puesto que se trata de dispositivos basados en estándares, existen varias empresas que los fabrican, por ejemplo Hewlett Packard, Sony o Pinnacle Micro. Esta última empresa, Pinnacle, que se dedica casi en exclusiva a estos dispositivos, tiene uno de los productos más interesantes de este mercado: el Apex. Se trata de un dispositivo que admite discos normales de 2,6 GB, pero que además tiene unos discos especiales, de diseño propietario (no compatibles con otros aparatos), que llegan hasta los 4,6 GB, todo ello con una gran velocidad y a un precio incluso inferior al de muchos dispositivos normales de sólo 2,6 GB. Pero ése, el precio, es el inconveniente (terrible inconveniente) de este tipo de periféricos. Las unidades de 2,6 GB se venden por unas 175.000 pts, mientras que las de 5,2 GB superan holgadamente este precio. Los discos, sin embargo, son bastante económicos para su gran capacidad, enorme resistencia y durabilidad: unas 10.000 pts uno de 2,6 GB. Aunque si piensa comprar un dispositivo de almacenamiento realmente masivo y dispone del suficiente dinero, no lo dude: no existe mejor opción, sobre todo si quiere la seguridad absoluta de que dentro de 30 años aún podrá recuperar sus datos sin problemas. Copias de seguridad (backups) En las anteriores páginas se ha comentado numerosas veces la mayor o menor idoneidad de los aparatos para su utilización como dispositivos de copia de seguridad o, como dicen los ingleses, backup. A continuación voy a intentar dar unas ideas generales sobre este tema, que tiene mucha mayor importancia de lo que parece. Si algún día llego a publicar un manual de informática, probablemente comenzará diciendo: "ANTE TODO, MANTENGA BACKUPS RECIENTES DE SUS FICHEROS DE DATOS", en letras mayúsculas y en el centro de la primera página. A continuación tendría que explicar qué es un fichero, un backup y sobre todo un ordenador, pero me temo que si dejara el consejo para más adelante ya no tendría la fuerza que se merece. No olvide que un ordenador no es más que un amasijo de cables, plástico y metal, por mucho que me cueste reconocerlo; es una máquina, y como tal no es especialmente interesante en sí misma, sino que lo es sobre todo por los datos que contiene: las cartas a la novia, los informes del trabajo, las fotos de astronomía, los juegos, las facturas del último trimestre... Eso es lo importante, pero parece que nos olvidamos de ello muy a menudo; confiamos en que como nunca se ha roto, nunca se romperá, olvidando la única ley de la informática, la Ley de Murphy: Si un archivo puede borrarse, se borrará. Si dos archivos pueden borrarse, se borrará el más importante. Si tenemos una copia de seguridad, no estará lo suficientemente actualizada. Y así hasta el infinito. Los discos duros fallan poco, pero más de lo deseable; incluso si no fallan, pueden verse afectados por múltiples causas, desde una subida de tensión eléctrica hasta un tropezón con un cable que nos haga tirar el ordenador al suelo. La única solución es tener copias de seguridad, actualizarlas a menudo y esperar que nunca nos haga falta usarlas; a continuación le presento Los Diez Mandamientos de los Backups: 1. Haga copias de seguridad de todos los datos importantes. 2. Haga una copia de seguridad de los discos de instalación de los programas. 3. Actualice las copias de seguridad tan a menudo como pueda. 4. Revise el estado de sus copias de seguridad de vez en cuando. 5. Si le da pereza copiar todo el disco, al menos copie sus archivos de datos. 6. Si le da pereza copiar todos sus archivos de datos, al menos copie los más recientes o importantes. 7. No confíe en los disquetes como dispositivo de backup, su fiabilidad es ínfima. Lic. Hugo Santander Jhong 18 Introducción a la computación 8. 9. Si no dispone de otra cosa, al menos haga copias en disquete. Sobre todo si utiliza disquetes o cintas magnéticas, tenga más de un juego de copias, intercámbielos de forma rotatoria y renuévelos de vez en cuando. 10. Guarde las copias en lugar seguro, si no serán copias de seguridad inseguras. Lic. Hugo Santander Jhong 19 Introducción a la computación MAINBOARD O TARJETA PRINCIPAL 20 Se denomina Placa Base o Madre (MotherBoard en inglés) a la placa de circuito impreso que integra los siguientes elementos: Microprocesador: consiste en un circuito integrado que contiene la Unidad Aritmético/Lógica y la Unidad de Control. En la familia PC corresponde a los micros 8088, 8086, 80286,…hasta los actuales procesadores Pentium MMX, II y III . En esta familia a partir del 80486 también se incorpora el coprocesador matemático encargado de las operaciones de punto flotante. Banco de memoria: está formado por uno o varios "chips" que forman la RAM, ésta es una de las dos partes que componen la memoria principal. Los PC actuales contienen una serie de zócalos donde se insertan los denominados módulos SIMM (Single Inline Memory Module) formados estos a su vez por varios "chips"; esta construcción modular permite añadir más módulos, y por tanto más memoria, cuando resulta necesario de una forma muy sencilla; eso si, respetando unas reglas de colocación en cuanto a su número y tamaño. Se han introducido otros módulos de memoria conocidos como DIMM los cuales son más rápidos y con mayor memoria, por consecuencia con un número mayor de pines (168 vs. 72). ROM: formada a su vez por uno o varios circuitos integrados, aunque de características distintas a los que forman la RAM, que contienen información de modo permanente. Ranuras o Slots de expansión: se trata de conexiones para las tarjetas de ampliación de la placa base; las más habituales suelen ser la tarjeta gráfica, la controladora de discos, la tarjeta de los puertos serie y paralelo. Las placas base - también se denominan placas madre - más modernas suelen incorporar tanto la controladora de discos, como la serie-paralelo y algunas también la tarjeta gráfica e incluso otros periféricos. Resto: los cristales de cuarzo que suministran la frecuencia o frecuencias para el funcionamiento del sistema, el controlador programable de interrupciones que controla las interrupciones - las interrupciones, IRQ, son señales generadas por los componentes de la computadora, indicando que se requiere la atención de la CPU - y las presenta a la CPU, el controlador DMA - el propósito de este controlador es escribir o leer datos directamente de memoria prescindiendo del microprocesador -, el conector a la fuente de alimentación y otros como la memoria caché o el coprocesador matemático que no se encuentran en todos los ordenadores o incluso pueden estar integrados en el propio microprocesador. Componentes Chipset El Chipset es el conjunto (Set) de chips que se encargan de controlar algunas funciones de la computadora, como por ejemplo la forma en que interacciona el microprocesador, con la memoria DRAM y la memoria caché. También en el control de puertos y Slots de diferentes arquitecturas y tecnologías. Característica Obtener o no el máximo rendimiento del microprocesador. Las posibilidades de actualización del computador. El uso de ciertas tecnologías avanzadas de memoria y periféricos Es importante tener presente la siguiente premisa “El uso de un buen Chipset no implica que la Placa Base sea de Calidad”. En la práctica los Chipset más utilizados son: INTEL (Triton), VIA, ALI, SIS, TXPRO, XCELL, etc. BIOS Es un conjunto de programas desarrollado en firmware. Es utilizado como programas de control de hardware. ¿Que significa? BIOS viene de “Basic Input Output System” (Sistema Básico de Entrada Salida) pero también podría haber significado “Basic Initial Operating System” (Sistema Operativo Inicial Básico)" y hubiera sido verdad porque el BIOS es lo que primero se carga cuando se prende la computadora. Lic. Hugo Santander Jhong Introducción a la computación De hecho el BIOS es donde se mantiene toda la información básica sobre el hardware de su computadora, que es la primera información leída y requerida cuando se enciende su computadora. ¿Cómo se mantiene la información del BIOS? La información del BIOS es almacenada en un chip CMOS el cual es mantenido bajo un flujo constante de voltaje por la batería de respaldo de la computadora. De esta forma la información contenida en el chip CMOS se mantiene siempre viva, aún si se apaga la computadora. Sistema de Buses Son medios de comunicación que permiten transmitir datos e instrucciones, direcciones y pulsos de control en forma de líneas paralelas, dentro del microprocesador y en la parte exterior del mismo. Clasificación de buses Por la información que transporta: Bus de Datos, es de 8, 16, 32 y 64 bits Bus de Dirección, son de 16, 20, 24, 32 bits. Bus de Control, es de 9, 11, y 13 pulsos. Buses Internos.- Son aquellos BUSES que se encuentra formando la arquitectura del chip de la CPU. Buses Externos.- Son los BUSES que están instalados fuera del chip de la CPU, que permiten la comunicación entre los periféricos, las interfaces, en dirección a la CPU, o viceversa. En la práctica se presentan de la siguiente forma: Buses de Expansión.- Son buses tipo ranuras, en las que se instalan las tarjetas controladoras. (interfaces), como por ejemplo las tarjetas SuperIde. Buses Locales.- Son los BUSES que permiten la comunicación entre la CPU y la Memoria Principal, administrados por el controlador de buses. Arquitectura de Bus Arquitectura ISA Arquitectura ISA, denominado Arquitectura Estándar de las Industrias. Diseñada por IBM para 8 y 16bits de datos. La velocidad del bus es de 8.33MHz y transfiere señales a 8MBps Lic. Hugo Santander Jhong 21 Introducción a la computación PCI (Interface Controlador de Periférico) Desarrollado por INTEL, consta de 188 pines, administra 32 y 64bits de datos, la velocidad de transferencia de datos es de 264MBps para una frecuencia de 66MHz. Utiliza las técnicas de multiplexado de datos y el método por ráfagas lineales. AGP (Puerto Acelerador Gráfico) Es el mejoramiento de PCI para el proceso en diseño gráfico en el sistema 3D. La velocidad de transferencia de datos es de 800MBps, mientras que la frecuencia de 100MHz.,para 64bits. Puertos seriales Es un puerto diseñado para transmitir datos por un solo cable en forma sucesiva. Es del tipo asincrónica, es decir que no obedece a ningún pulso de reloj durante el envió de datos. Los puertos seriales se caracterizan por transmitir la información BIT x BIT uno tras otro. Son de dos tipos el puerto serial 1 y el puerto serial 2; cada uno de ellos utilizan dos puntos de conexión denominado. El puerto serial 1 se utiliza el COM1 y COM3, los cuales utilizan siempre el puerto de tipo “D” pequeña de 9 pines. Para el puerto serial 2 se utilizan los puntos de conexión COM2 y COM4 los cuales utilizan siempre el puerto tipo “D” grande de 25 pines. Puerto paralelo Los puertos paralelos son los LPT que son 1,2 y 3. En la práctica el puerto serial 1 en el COM1, se instala el MOUSE, el cual utiliza el interruptor IRQ4. Para la instalación de un Fax/MODEM, se instala en el puerto serial 2 en el COM2, utilizando el IRQ3. Las impresoras se instalan en los puertos paralelos, por ejemplo para el LPT1, que utiliza el IRQ7. USB Bus Universal Serial (USB). Es el bus serial universal que permite conectar cualquier periférico a la computadora, por ejemplo el Mouse, teclado, joystick, impresora, MODEM, cámara de video, webcam, escáner, etc. Tiene la particularidad de conectar hasta 126 dispositivos, los cuales pueden ser conectados en serie (uno de tras de otro) o utilizando otros dispositivos de múltiples salidas colocados en los diversos periféricos, como por ejemplo el monitor. Monitores La mejor forma de adquirir la información es a través de la vista, lo que hace que el monitor sea uno de los periféricos de salida más usual. Qué es un Píxel Es la mínima unidad representable en un monitor. Cada píxel en la pantalla se pinta, o mejor dicho se enciende, con un determinado color para formar la imagen. De esta forma, cuanto más cantidad de píxeles puedan ser representados en una pantalla, mayor resolución habrá. Es decir, cada uno de los puntos será más pequeño y habrá más al mismo tiempo en la pantalla para conformar la imagen. Cada píxel se representa en la memoria de video con un número. Dicho número es la Lic. Hugo Santander Jhong 22 Introducción a la computación representación numérica de un color especifico, que puede ser de 8, 16 o más bits. Cuanto más grande sea la cantidad de bits necesarios para representar un píxel, más variedad de colores podrán unirse en la misma imagen. De esta manera se puede determinar la cantidad de memoria de video necesaria para una cierta definición y con una cierta cantidad de colores. Tipos de Monitores Monitores color: Las pantallas de estos monitores están formadas internamente por tres capas de material de fósforo, una por cada color básico (rojo, verde y azul). También consta de tres cañones de electrones, e, igual que las capas de fósforo, hay uno por cada color. Para formar un color en pantalla que no sea ninguno de los colores básicos, se combinan las intensidades de los haces de electrones de los tres colores básicos. Monitores monocromáticos: Muestra por pantalla un solo color: negro sobre blanco o ámbar, o verde sobre negro. Uno de estos monitores con una resolución equivalente a la de un monitor color, si es de buena calidad, generalmente es más nítido y más legible. Monitores de Cristal Líquido Funcionamiento: Los cristales líquidos son sustancias transparentes con cualidades propias de líquidos y de sólidos. Al igual que los sólidos, una luz que atraviesa un cristal líquido sigue el alineamiento de las moléculas, pero al igual que los líquidos, aplicando una carga eléctrica a estos cristales, se produce un cambio en la alineación de las moléculas, y por tanto en el modo en que la luz pasa a través de ellas. Una pantalla LCD está formada por dos filtros polarizantes con filas de cristales líquidos alineados perpendicularmente entre sí, de modo que al aplicar o dejar de aplicar una corriente eléctrica a los filtros, se consigue que la luz pase o no pase a través de ellos, según el segundo filtro bloquee o no el paso de la luz que ha atravesado el primero. El color se consigue añadiendo 3 filtros adicionales de color (uno rojo, uno verde, uno azul). Sin embargo, para la reproducción de varias tonalidades de color, se deben aplicar diferentes niveles de brillo intermedios entre luz y no-luz, lo cual se consigue con variaciones en el voltaje que se aplica a los filtros. En esto último, hay un parecido con los monitores CRT, que más adelante veremos. Características Resolución: La resolución máxima de una pantalla LCD viene dada por el número de celdas de cristal líquido. Tamaño: A diferencia de los monitores CRT, se debe tener en cuenta que la medida diagonal de una pantalla LCD equivale al área de visión. Es decir, el tamaño diagonal de la pantalla LCD equivale a un monitor CRT de tamaño superior. Lic. Hugo Santander Jhong 23 Introducción a la computación Monitores con Tubos de Rayos Catódicos Las señales digitales del entorno son recibidas por el adaptador de VGA, que a veces esta incluido en el mother de la PC. El adaptador lleva las señales a través de un circuito llamado convertidor analógico digital (DAC). Generalmente, el circuito de DAC está contenido dentro de un chip especial que realmente contiene tres DAC, uno para cada uno de los colores básicos utilizados en la visualización: rojo, azul y verde. Los circuitos DAC comparan los valores digitales enviados por la PC en una tabla que contiene los niveles de voltaje coincidentes con los tres colores básicos necesarios para crear el color de un único pixel. El adaptador envía señales a los tres cañones de electrones localizados detrás del tubo de rayos catódicos del monitor (CRT). Cada cañón de electrones expulsa una corriente de electrones, una cantidad por cada uno de los tres colores básicos. Como ya mencionamos, la intensidad de cada corriente es controlada por las señales del adaptador. El adaptador también envía señales a un mecanismo en el cuello del CRT que enfoca y dirige los rayos de electrones. Parte del mecanismo es un componente, formado por material magnético y bobinas, que abraza el cuello del tubo de rayos catódicos, que sirve para mandar la desviación de los haces de electrones, llamado yugo de desvío magnético. Las señales enviadas al yugo de ayuda determinan la resolución del monitor (la cantidad de píxeles horizontal y verticalmente) y la frecuencia de refresco del monitor, que es la frecuencia con que la imagen de la pantalla será redibujada. La imagen esta formada por una multitud de puntos de pantalla, uno o varios puntos de pantalla forman un punto de imagen (píxel), una imagen se constituye en la pantalla del monitor por la activación selectiva de una multitud de puntos de imagen. Los rayos pasan a través de los agujeros en una placa de metal llamada máscara de sombra o mascara perforada. El propósito de la máscara es mantener los rayos de electrones alineados con sus blancos en el interior de la pantalla de CRT. El punto de CRT es la medición de como cierran los agujeros unos a otros; cuanto más cerca estén los agujeros, más pequeño es el punto. Los agujeros de la mencionada máscara miden menos de 0,4 milímetros de diámetro. El electrón golpea el revestimiento de fósforo dentro de la pantalla. (El fósforo es un material que se ilumina cuando es golpeado por electrones). Son utilizados tres materiales de fósforo diferentes, uno para cada color básico. El fósforo se ilumina más cuanto mayor sea el número de electrones emitido. Si cada punto verde, rojo o azul es golpeado por haces de electrones igualmente intensos, el resultado es un punto de luz blanca. Para lograr diferentes colores, la intensidad de cada uno de los haces es variada. Después de que cada haz deje un punto de fósforo, este continúa iluminado brevemente, a causa de una condición llamada persistencia. Para que una imagen permanezca estable, el fósforo debe de ser reactivado repitiendo la localización de los haces de electrones. Después de que los haces hagan un barrido horizontal de la pantalla, las corrientes de electrones son apagadas cuando el cañón de electrones enfoca las trayectorias de los haces en el borde inferior izquierdo de la pantalla en un punto exactamente debajo de la línea de barrido anterior, este proceso es llamado refresco de pantalla. Los barridos a través de la superficie de la pantalla se realizan desde la esquina superior izquierda de la pantalla a la esquina inferior derecha. Un barrido completo de la pantalla es llamado campo. La pantalla es normalmente redibujada, o refrescada, cerca de unas 60 veces por segundo, haciéndolo imperceptible para el ojo humano. El Refresco de Pantalla Lic. Hugo Santander Jhong 24 Introducción a la computación El refresco es el número de veces que se dibuja la pantalla por segundo. Evidentemente, cuanto mayor sea la cantidad de veces que se refresque, menos se nos cansará la vista y trabajaremos más cómodos y con menos problemas visuales. La velocidad de refresco se mide en hertzios (Hz. 1/segundo), así que 70 Hz significan que la pantalla se dibuja cada 1/70 de segundo, o 70 veces por segundo. Para trabajar cómodamente necesitaremos esos 70 Hz. Para trabajar ergonómicamente, o sea, con el mínimo de fatiga visual, 80 Hz o más. El mínimo son 60 Hz; por debajo de esta cifra los ojos sufren demasiado, y unos minutos bastan para empezar a sentir escozor o incluso un pequeño dolor de cabeza. Antiguamente se usaba una técnica denominada entrelazado, que consiste en que la pantalla se dibuja en dos pasadas, primero las líneas impares y luego las pares, por lo que 70 Hz. entrelazados equivale a poco más de 35 sin entrelazar, lo que cansa la vista increíblemente. La frecuencia máxima de refresco del monitor se ve limitada por la resolución del monitor. Esta última decide el número de líneas o filas de la máscara de la pantalla y el resultado que se obtiene del número de filas de un monitor y de su frecuencia de exploración vertical (o barrido, o refresco) es la frecuencia de exploración horizontal; esto es el número de veces por segundo que el haz de electrones debe desplazarse de izquierda a derecha de la pantalla. Por consiguiente, un monitor con una resolución de 480 líneas y una frecuencia de exploración vertical de 70Hz presenta una frecuencia de exploración horizontal de 480 x 70, o 33,6 kHz. En este caso, el haz de electrones debe explorar 33600 líneas por segundo. Quien proporciona estos refrescos es la tarjeta gráfica, pero quien debe presentarlos es el monitor. Si ponemos un refresco de pantalla que el monitor no soporta podríamos dañarlo, por lo que debemos conocer sus capacidades a fondo. También hay que tener claro que la tarjeta de video debe ser capaz de proporcionar una cierta cantidad de refrescos por segundo, ya que de no ser así, de nada nos servirá que el monitor los soporte. Resolución Se denomina resolución de pantalla a la cantidad de píxeles que se pueden ubicar en un determinado modo de pantalla. Estos píxeles están a su vez distribuidos entre el total de horizontales y el de verticales. Todos los monitores pueden trabajar con múltiples modos, pero dependiendo del tamaño del monitor, unos nos serán más útiles que otros. Un monitor cuya resolución máxima sea de 1024x768 píxeles puede representar hasta 768 líneas horizontales de 1024 píxeles cada una, probablemente además de otras resoluciones inferiores, como 640x480 u 800x600. Cuanto mayor sea la resolución de un monitor, mejor será la calidad de la imagen en pantalla, y mayor será la calidad (y por consiguiente el precio) del monitor. La resolución debe ser apropiada además al tamaño del monitor; es normal que un monitor de 14" ó 15" no ofrezca 1280x1024 píxeles, mientras que es el mínimo exigible a uno de 17" o superior. Hay que decir que aunque se disponga de un monitor que trabaje a una resolución de 1024x768 píxeles, si la tarjeta gráfica instalada es VGA (640x480) la resolución de nuestro sistema será esta última. Tamaño El tamaño de los monitores CRT se mide en pulgadas, al igual que los televisores. Hay que tener en cuenta que lo que se mide es la longitud de la diagonal, y que además estamos hablando de tamaño de tubo, ya que el tamaño aprovechable siempre es menor. Radiación El monitor es un dispositivo que pone en riesgo la visión del usuario. Los monitores producen radiación electromagnética no ionizante (EMR). Hay un ancho de banda de frecuencia que oscila entre la baja frecuencia extrema (ELF) y la muy baja frecuencia, que ha producido un debate a escala mundial de los altos tiempos de exposición a dichas emisiones por parte de los usuarios. Los monitores que ostentan las siglas MPRII cumplen con las normas de radiación toleradas fuera de los ámbitos de discusión. Foco y Convergencia De ellos depende la fatiga visual y la calidad del texto y de las imágenes. El foco se refiere especialmente a la definición que hay entre lo claro y lo oscuro. La convergencia es lo mismo que el foco, pero se refiere a la definición de los colores del tubo. La convergencia deberá ser ajustada cuando los haces de electrones disparados por los cañones no estén alineados correctamente. Lic. Hugo Santander Jhong 25 Introducción a la computación El modo Entrelazado Cualquier monitor VGA a color del modelo estándar puede operar con la resolución más baja (480 líneas) de un adaptador VGA a una frecuencia de refresco de pantalla de 70 Hz. Sin embargo, tal operación resulta del todo imposible con una mayor resolución. Por este motivo, la mayoría de las tarjetas VGA utilizan frecuencias de exploración vertical más bajas con resoluciones más elevadas, con lo cuál el monitor dispone de más tiempo para construir dichas líneas de más. El inconveniente de este método es que a menudo provoca un notable parpadeo, sobre todo en aquellas imágenes con grandes zonas de brillo intenso. El modo Interlaced (entrelazado) es un método para que el adaptador de gráficos reduzca dicho parpadeo hasta el punto de conseguir una calidad de imagen mínimamente aceptable. En este modo, en lugar de transmitir todos los pixeles en serie, el controlador de video se saltea las líneas pares de la pantalla. De esta forma, el monitor solo tiene que explorar la mitad de los pixeles de la pantalla en cada pasada vertical. La recomposición de pantalla siguiente se limitará por consiguiente a la otra mitad de los pixeles de la pantalla. Por así decirlo, el controlado de video alterna la transmisión de dos imágenes al monitor, y cada una de estas imágenes contiene tan sólo la mitad de la información de pantalla. El monitor puede operar fácilmente con las medias pantallas, incluso a 70 Hz. porque tan sólo se exploran la mitad de líneas cada vez, y esto es así también cuándo toda la pantalla dispone de más líneas. Tamaño de Punto (dot pitch) Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones. Lo mínimo exigible en este momento es que sea de 0,28 mm, no debiéndose admitir nada superior como no sea en monitores de gran formato para presentaciones, donde la resolución no es tan importante como el tamaño de la imagen. Para CAD o en general usos a alta resolución debe ser menor de 0,28 mm, idealmente de 0,25 mm (o menos). De todas formas, el mero hecho de ser inferior a 0,28 mm ya indica una gran preocupación del fabricante por la calidad del monitor. Como ejemplo cabe destacar los monitores Sony, los afamados Triniton, que pasan por ser lo mejor del mercado (y probablemente lo sean, con perdón de Nokia y Eizo) y tienen todos un dot pitch máximo de 0,25 mm. Multimedia Algunos monitores llevan acoplados altavoces, e incluso micrófono y/o cámaras de vídeo. Esto resulta interesante cuando se trata de un monitor de 15" ó 17" cuyo uso vaya a ser doméstico, para juegos o videoconferencia. Sin embargo, no nos engañemos: un monitor es para ver, no para oír. Ni la calidad de sonido de dichos altavoces es la mejor posible, ni su disposición la más adecuada, ni es mayor la calidad de un monitor con dichos aditamentos. Si lo que quiere (y debería quererlo) es un buen monitor, primero mire la calidad de imagen y luego estos extras; tenga en cuenta que unos altavoces de calidad media y potencia apabullante no valen más de 10.000 pts, y podrá colocarlos donde quiera. Impresora Las impresoras son una parte vital de los modernos sistemas de PC. La necesidad de copias en papel de los documentos de la computadora y en línea no es menos importante hoy que cuando la revolución del sin papel comenzó hace varios años. Los técnicos de computadoras de hoy deben conocer el funcionamiento de los distintos tipos de impresoras para poder instalarlas, mantenerlas y solucionar problemas de impresión. Los tipos de impresoras más populares en uso hoy son las impresoras laser del tipo electrofotográficas y las impresoras a chorro de tinta . Las viejas impresoras de matriz de punto del tipo de impacto aun se utilizan en muchas oficinas y hogares pero es difícil encontrar repuestos cuando estas unidades se rompen. Las impresoras están conectadas a las computadoras personales por medio de conexiones de cable USB, firewall, serial, paralelo y de red. Las conexiones del tipo inalámbrico incluyen las tecnologías de infrarrojo y de onda de radio. Lic. Hugo Santander Jhong 26 Introducción a la computación Los drivers de impresora son software que debe ser instalado en la PC para que la impresora pueda comunicarse y coordinar el proceso de impresión. Los drivers de impresora difieren de acuerdo al tipo de impresora, fabricante, modelo y sistema operativo de PC. Impresora de matriz de puntos La impresora de matriz de puntos pertenece a una clase de impresoras llamadas impresoras de impacto. En este tipo, la parte que realmente imprime impacta una cinta de impresora o cinta entintada para hacer que los caracteres se formen en el papel. En la impresora de matriz de puntos, este impacto se realiza cuando el cabezal de impresión dispara agujas (o pins de impresión) contra una cinta entintada, la que hace contacto con el papel y deja una marca. El cabezal de impresión, el montaje que contiene las agujas, se mueve de izquierda a derecha a través del papel, una línea por vez, creando letras con puntos circulares de tinta que impactan el papel. Muchas impresoras de matriz de puntos también imprimen en forma bidireccional, de izquierda a derecha y de derecha a izquierda, lo que aumenta la velocidad. Las bobinas de cables forman electromagnetos que son llamados solenoides y, cuando éstos son energizados, causan que las agujas golpeen hacia adelante y afecten a la cinta. La cantidad de agujas, como en las impresoras de 9 agujas, 24 agujas, o 48 agujas, indican la calidad de la impresión. Esta es la cantidad real de agujas que están ubicadas en el cabezal de impresión. La calidad de impresión más alta que es producida por la impresora de matriz de puntos se llama Calidad Cercana a la Carta. La velocidad a la que puede funcionar la impresora de matriz de puntos se mide en cps, caracteres por segundo. El tipo de papel que se usa más a menudo con la impresora de matriz de puntos es el papel continuo. Este papel tiene perforaciones entre cada hoja y bandas perforadas a los costados. Se utilizan para alimentar el papel y para evitar que se arrugue o se mueva. Los alimentadores de hojas que imprimen una página por vez fueron agregados a algunas de las impresoras de más alta calidad usadas en las oficinas. Un cilindro largo, llamado platen, aplica presión para evitar que el papel se mueva. Si se usa un papel carbónico, se puede ajustar el espacio del platen al grosor del papel. En un tiempo la impresora más barata, hoy las impresoras de matriz de puntos son raras y en cierta forma caras para adquirir porque sirven a un pequeño mercado que requiere papeles con copias múltiples. Impresora de inyección de tinta Las impresoras de inyección de tinta son el tipo de impresora más popular de uso hogareño de hoy. Esto es a causa de su bajo costo y moderada calidad de impresión. La impresora de inyección de tinta usa cartuchos llenos de tinta líquida que fuerzan la salida y esparcen partículas de tinta en la página a través de pequeños agujeros llamados boquillas. Las impresoras de inyección de tinta normalmente imprimen una línea por vez, están orientadas a página, y son más rápidas que las impresoras de matriz de puntos. La impresora de inyección de tinta esparce pequeñas gotas de tinta en la página por medio de la aplicación de presión causada por electricidad o por una carga eléctrica. La presión dentro del reservorio de tinta del cartucho es menor que la presión del exterior hasta que se aplica la electricidad, entonces la presión sube. Esta presión interna causa que pequeñas gotas de tinta sean forzadas a salir a través de las boquillas. Las impresoras de inyección de tinta tienen dos tipos de cabezales de impresión. Una marca popular de impresoras de inyección de tinta tiene un tipo de cabezal llamado cabeza de impresión de choque térmico. Posee un elemento calorífico que rodea a cada boquilla y cuando se calienta por medio de una corriente eléctrica, causa que la tinta se expanda. Cuando la tinta se expande, es eyectada a través de la boquilla. Otra marca popular de impresoras de inyección de tinta funciona en base a cargas electrostáticas. Cuando las placas de desviación están cargadas eléctricamente, el tamaño y forma de la boquilla cambia, causando que actúe como una bomba. Esta acción de bombeo fuerza a la tinta a través de la boquilla hacia el papel. Estos cabezales de impresión son llamados piezoeléctricos. Lic. Hugo Santander Jhong 27 Introducción a la computación Las impresoras de inyección de tinta están diseñadas para usar papel común, pero también pueden ser usadas con papeles específicos para inyección de tinta cuando se necesita una impresión de alta calidad o de fotografías. Cuando la impresión de inyección de tinta está terminada y el papel sale de la impresora, a menudo la tinta aun está húmeda. El tocarla de inmediato puede correr la tinta y manchar la impresión. La mayor parte de las tintas se secan de 10 a 15 segundos. La calidad de impresión de una impresora de inyección de tinta se mide en dpi, puntos por pulgada, y la velocidad de impresión se mide en ppm, páginas por minuto. Impresora laser En estos días, la impresora laser es la impresora de preferencia a causa de su alta resolución, funcionamiento superior, y velocidad. Sin embargo, su funcionamiento interno es más complejo que el de los otros tipos de impresoras. Como en las fotocopiadoras, la electricidad estática es el principio principal que se utiliza en el funcionamiento de una impresora laser. Esta es la misma electricidad estática que causa los relámpagos o que partículas con cargas opuestas se atraigan entre sí. Esta atracción se usa para mantener temporalmente a pequeñas partículas de tinta seca llamadas toner en una imagen cargada estáticamente sobre un tambor electrofotográfico. Para dibujar esta imagen se usa un rayo laser. Consejo: Conozca los componentes de una impresora laser y los pasos necesarios para imprimir una página. La parte central de la impresora laser es su tambor electrofotográfico. El tambor es un cilindro metálico que está recubierto con un material aislante sensible a la luz. Cuando un rayo de luz laser golpea el tambor, se convierte en conductor en el punto donde la luz lo golpeó. A medida que el tambor gira, el rayo laser dibuja una imagen electrostática sobre el tambor llamada la imagen. La imagen latente, que es la imagen no desarrollada, es pasada por un suministro de tinta seca o toner que es atraído a ella. El tambor gira y lleva a esta imagen a tomar contacto con el papel, que atrae el toner del tambor. El papel es pasado a través de un fundidor que está hecho de rodillos calientes que funden el toner en el papel. ¿Qué es... un escáner? Ateniéndonos a los criterios de la Real Academia de la Lengua, famosa por la genial introducción del término cederrón para denominar al CD-ROM, probablemente nada; para el resto de comunes mortales, digamos que es la palabra que se utiliza en informática para designar a un aparato digitalizador de imagen. Por digitalizar se entiende la operación de transformar algo analógico (algo físico, real, de precisión infinita) en algo digital (un conjunto finito y de precisión determinada de unidades lógicas denominadas bits). En fin, que dejándonos de tanto formalismo sintáctico, en el caso que nos ocupa se trata de coger una imagen (fotografía, dibujo o texto) y convertirla a un formato que podamos almacenar y modificar con el ordenador. Realmente un escáner no es ni más ni menos que los ojos del ordenador. Cómo funciona El proceso de captación de una imagen resulta casi idéntico para cualquier escáner: se ilumina la imagen con un foco de luz, se conduce mediante espejos la luz reflejada hacia un dispositivo denominado CCD que transforma la luz en señales eléctricas, se transforma dichas señales eléctricas a formato digital en un DAC (conversor analógico-digital) y se transmite el caudal de bits resultante al ordenador. El CCD (Charge Coupled Device, dispositivo acoplado por carga -eléctrica-) es el elemento fundamental de todo escáner, independientemente de su forma, tamaño o mecánica. Consiste en un elemento electrónico que reacciona ante la luz, transmitiendo más o menos electricidad según sea la intensidad y el color de la luz que recibe; es un auténtico ojo electrónico. Hoy en día es bastante común, puede que usted posea uno sin saberlo: en su cámara de vídeo, en su fax, en su cámara de fotos digital... Lic. Hugo Santander Jhong 28 Introducción a la computación La calidad final del escaneado dependerá fundamentalmente de la calidad del CCD; los demás elementos podrán hacer un trabajo mejor o peor, pero si la imagen no es captada con fidelidad cualquier operación posterior no podrá arreglar el problema. Teniendo en cuenta lo anterior, también debemos tener en cuenta la calidad del DAC, puesto que de nada sirve captar la luz con enorme precisión si perdemos mucha de esa información al transformar el caudal eléctrico a bits. Por este motivo se suele decir que son preferibles los escáners de marcas de prestigio como Nikon o Kodak a otros con una mayor resolución teórica, pero con CCDs que no captan con fidelidad los colores o DACs que no aprovechan bien la señal eléctrica, dando resultados más pobres, más planos. La resolución No podemos continuar la explicación sin definir este término, uno de los parámetros más utilizados (a veces incluso demasiado) a la hora de determinar la calidad de un escáner. La resolución (medida en ppp, puntos por pulgada) puede definirse como el número de puntos individuales de una imagen que es capaz de captar un escáner... aunque en realidad no es algo tan sencillo. La resolución así definida sería la resolución óptica o real del escáner. Así, cuando hablamos de un escáner con resolución de "300x600 ppp" nos estamos refiriendo a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede captar 300 puntos individuales, mientras que en vertical llega hasta los 600 puntos; como en este caso, generalmente la resolución horizontal y la vertical no coinciden, siendo mayor (típicamente el doble) la vertical. Esta resolución óptica viene dada por el CCD y es la más importante, ya que implica los límites físicos de calidad que podemos conseguir con el escáner. Por ello, es un método comercial muy típico comentar sólo el mayor de los dos valores, describiendo como "un escáner de 600 ppp" a un aparato de 300x600 ppp o "un escáner de 1.200 ppp" a un aparato de 600x1.200 ppp; téngalo en cuenta, la diferencia es obtener o no el cuádruple de puntos. Tenemos también la resolución interpolada; consiste en superar los límites que impone la resolución óptica (300x600 ppp, por ejemplo) mediante la estimación matemática de cuáles podrían ser los valores de los puntos que añadimos por software a la imagen. Por ejemplo, si el escáner capta físicamente dos puntos contiguos, uno blanco y otro negro, supondrá que de haber podido captar un punto extra entre ambos sería de algún tono de gris. De esta forma podemos llegar a resoluciones absurdamente altas, de hasta 9.600x9.600 ppp, aunque en realidad no obtenemos más información real que la que proporciona la resolución óptica máxima del aparato. Evidentemente este valor es el que más gusta a los anunciantes de escáners... Por último está la propia resolución de escaneado, aquella que seleccionamos para captar una imagen concreta. Su valor irá desde un cierto mínimo (típicamente unos 75 ppp) hasta el máximo de la resolución interpolada. En este caso el valor es siempre idéntico para la resolución horizontal y la vertical, ya que si no la imagen tendría las dimensiones deformadas. Los colores y los bits Al hablar de imágenes, digitales o no, a nadie se le escapa la importancia que tiene el color. Una fotografía en color resulta mucho más agradable de ver que otra en tonos grises; un gráfico acertadamente coloreado resulta mucho más interesante que otro en blanco y negro; incluso un texto en el que los epígrafes o las conclusiones tengan un color destacado resulta menos monótono e invita a su lectura. Sin embargo, digitalizar los infinitos matices que puede haber en una foto cualquiera no es un proceso sencillo. Hasta no hace mucho, los escáners captaban las imágenes únicamente en blanco y negro o, como mucho, con un número muy limitado de matices de gris, entre 16 y 256. Posteriormente aparecieron escáners que podían captar color, aunque el proceso requería tres pasadas por encima de la imagen, una para cada color primario (rojo, azul y verde). Hoy en día la práctica totalidad de los escáners captan hasta 16,7 millones de colores distintos en una única pasada, e incluso algunos llegan hasta los 68.719 millones de colores. Para entender cómo se llega a estas apabullantes cifras debemos explicar cómo asignan los ordenadores los colores a las imágenes. En todos los ordenadores se utiliza lo que se denomina sistema binario, que es un sistema matemático en el cual la unidad superior no es el 10 como en el sistema decimal al que estamos acostumbrados, sino el 2. Un bit cualquiera puede por tanto tomar 2 valores, que pueden representar colores (blanco y negro, por ejemplo); si en vez de un bit tenemos 8, los posibles valores son 2 elevado a 8 = 256 colores; si son 16 bits, 2 elevado a 16 = 65.536 colores; si son 24 bits, 2 elevado a 24 = 16.777216 colores; etc, etc. Lic. Hugo Santander Jhong 29 Introducción a la computación Por tanto, "una imagen a 24 bits de color" es una imagen en la cual cada punto puede tener hasta 16,7 millones de colores distintos; esta cantidad de colores se considera suficiente para casi todos los usos normales de una imagen, por lo que se le suele denominar color real. La casi totalidad de los escáners actuales capturan las imágenes con 24 bits, pero la tendencia actual consiste en escanear incluso con más bits, 30 ó incluso 36, de tal forma que se capte un espectro de colores absolutamente fiel al real; sin embargo, casi siempre se reduce posteriormente esta profundidad de color a 24 bits para mantener un tamaño de memoria razonable, pero la calidad final sigue siendo muy alta ya que sólo se eliminan los datos de color más redundantes. ¿Cuánto ocupa una imagen? Depende de la imagen. Para saber exactamente cuál va a ser el tamaño de una imagen, deberemos usar la siguiente fórmula: Tamaño imagen (KB) = L x A x RH x RV x bits / 8.192 Donde L y A son las dimensiones de la imagen en pulgadas (una pulgada = 2,54 cm) y RH y RV las resoluciones horizontal y vertical respectivamente. Hagamos un ejemplo rápido: una imagen DIN-A4 (aproximadamente 11,7x8,3 pulgadas) escaneada a 300 ppp (300x300) con 24 bits de color (color real) ocupa ¡25.490 KB!! (unos 25 MB, 25 megas!!). La cifra resulta impactante, pero no se preocupe; existen muchos métodos para reducir el tamaño de las imágenes, tanto a la hora de manejarlas en memoria como a la de almacenarlas en el disco duro. El primer método consiste en escanear a menor resolución; la calidad es menor, pero el tamaño del fichero resultante también. Si la imagen va a tener como destino la pantalla de un ordenador, 75 ppp serán casi siempre suficientes, lo que reduciría el tamaño de la imagen anterior a apenas 1.593 KB, poco más de 1,5 MB. Como segundo método tenemos reducir la profundidad de color. Si la imagen anterior es un dibujo a tinta china, con escanear a 1 bit (en blanco y negro) puede que tengamos suficiente. Esto reduciría el tamaño a tan sólo 1.062 KB, casi exactamente 1 MB. Por último podemos archivar la imagen en formato comprimido. En este caso el tamaño de la imagen en memoria permanece invariable (25 MB), pero el tamaño en disco puede quedar en menos de una quinta parte sin pérdida de calidad, o incluso menos si la compresión se realiza eliminando información redundante. Como ejemplo de formatos de archivo de imagen con compresión tenemos los JPEG (o JPG), GIF o TIFF, frente al clásico BMP que carece de compresión alguna. Lo más importante es que podemos combinar los factores anteriores para conseguir resultados realmente optimizados; así, escaneando la imagen del ejemplo a 75 ppp, con 1 bit de color y guardándola en formato GIF, el resultado puede ocupar tan sólo 66 KB en memoria y menos de 15 KB en disco. Para terminar con este tema vamos a poner una tabla resumen en la que se ilustra la cantidad de memoria RAM que ocupan algunos ejemplos típicos de original a diferentes resoluciones y colores: Tipo de original-Destino-Método escaneado-Tamaño en RAM Fotografía 10x15 cm-Pantalla-75 ppp / 24 bits-0,4 MB Impresora B/N-300 ppp / 8 bits-2 MB Impresora color-300 ppp / 24 bits-6 MB Texto o dibujo en blanco y negro tamaño DIN-A4-Pantalla-75 ppp / 1 bit-66 KB Impresora-300 ppp / 8 bit-8 MB OCR-300 ppp / 1 bit-1 MB Foto DIN-A4 en color-Pantalla-75 ppp / 24 bits-1,6 MB Impresora-300 ppp / 24 bits-25 MB Cabe destacar que en muchos casos se utilizan escalas de 256 grises (8 bits) para representar más fielmente originales en blanco y negro con bordes muy definidos o pequeños tamaños de letra. Multimedia Multimedia es un sistema que utiliza más de un medio de comunicación al mismo tiempo en la presentación de la información, como el texto, la imagen, la animación, el vídeo y el sonido. Este concepto es tan antiguo como la comunicación humana ya que al expresarnos en una charla normal hablamos (sonido), escribimos (texto), observamos a nuestro interlocutor (video) y accionamos con Lic. Hugo Santander Jhong 30 Introducción a la computación gestos y movimientos de las manos (animación). Con el auge de las aplicaciones multimedia para computador este vocablo entró a formar parte del lenguaje habitual Cuando un programa de computador, un documento o una presentación combina adecuadamente los medios, se mejora notablemente la atención, la compresión y el aprendizaje, ya que se acercará algo más a la manera habitual en que los seres humanos nos comunicamos, cuando empleamos varios sentidos para comprender un mismo objeto o concepto. La utilización de técnicas multimedia permitió el desarrollo del hipertexto, una manera de ligar temas mediante palabras en los textos permitiendo el acceso a temas de interés específico en uno o varios documentos sin tener que leerlos completamente haciendo clic con el ratón en las palabras remarcadas (subrayadas o de un color diferente) que estén relacionadas con lo que buscas. El programa muestra inmediatamente en la pantalla otros documentos que contienen el texto relacionado con dicha palabra. Incluso, se pueden poner marcas de posición (bookmarks). Así se controla el orden de lectura y la aparición de los datos en la pantalla, de una manera más parecida a nuestro modo de relacionar pensamientos, en el que el cerebro va respondiendo por libre asociación de ideas, y no siguiendo un hilo único y lineal. Pero la vinculación interactiva no se limitó a textos solamente. También se puede interactuar con sonidos, animaciones y servicios de Internet relacionados con el tema que se está tratando, lo cual ha dado origen a un nuevo concepto: Hipermedia, resultado de la fusión de los conceptos hipertexto y multimedia. A los sistemas de hipermedios podemos entenderlos como organización de información textual, gráfica y sonora a través de vínculos que crean asociaciones entre información relacionada dentro del sistema. Actualmente estos términos se confunden e identifican entre sí, de tal forma que al nombrar uno de los conceptos anteriores (hipermedia, hipertexto o multimedia) de forma instintiva y casi automática se piensa en los otros dos. Fruto de esta interrelación de ideas y apoyadas por nuevas necesidades de trabajo aparecen una serie de herramientas ofimáticas orientadas, ya no como procesadores de textos, sino como procesadores hipermedia. Estas aplicaciones combinan ciertas características del hipertexto dentro de documentos con elementos informativos muy diversos. La hipermedia, y muy especialmente el hipertexto, es la base funcional y estructural de la Web (World Wide Web), la red mundial de información más utilizada en Internet:) La multimedia es el uso de diversos medios (e.g. texto, audio, gráficos, animación, vídeo, e interactividad) de transporte de la información. La multimedia también se refiere al uso de la informática de crear, almacenar y contenido de la experiencia multimedia. Mientras que la información se presenta en varios formatos, la multimedia realza la experiencia del usuario y la hace más fácil y más rápida para tomar la información. La presentación de la información en varios formatos no es nada nuevo, pero los multimedia implican generalmente la presentación de la información en varios formatos digitales. En 1965 el término multi-media fue utilizado para describir “el estallar inevitable del Plástico”, un funcionamiento que combinó música de rock, el cine y el arte del funcionamiento. Uso La multimedia encuentra su uso en varias áreas incluyendo pero no limitado a: arte, educación, entretenimiento, ingeniería, medicina, matemáticas, negocio, y la investigación científica. En la educación, la multimedia se utiliza para producir los cursos de aprendizaje computarizado (popularmente llamados CBTs) y los libros de consulta como enciclopedia y almanaques. Un CBT deja al usuario pasar con una serie de presentaciones, de texto sobre un asunto particular, y de ilustraciones asociadas en varios formatos de información. El sistema de la mensajería de la multimedia, o MMS, es un uso que permite que uno envíe y que reciba los mensajes que contienen la multimedia - contenido relacionado. MMS es una característica común de la mayoría de los teléfonos celulares. Una enciclopedia electrónica multimedia puede presentar la información de maneras mejores que la enciclopedia tradicional, así que el usuario tiene más diversión y aprende más rápidamente. Por ejemplo, un artículo sobre la segunda guerra mundial puede incluir hyperlinks (hiperligas o hiperenlaces) a los artículos sobre los países implicados en la guerra. Cuando los usuarios hayan encendido un hyperlink, los vuelven a dirigir a un artículo detallado acerca de ese país. Además, puede incluir un vídeo de la campaña pacífica. Puede también presentar los mapas pertinentes a los hyperlinks de la segunda guerra mundial. Esto puede acelerar la comprensión y mejorar la experiencia del usuario, cuando está agregada a los elementos múltiples tales como cuadros, fotografías, audio y vídeo. (También se dice que alguna gente aprende mejor viendo que leyendo, y algunos otras escuchando). Lic. Hugo Santander Jhong 31 Introducción a la computación La multimedia es muy usada en la industria del entretenimiento, para desarrollar especialmente efectos especiales en películas y la animación para los personajes de caricaturas. Los juegos de la multimedia son un pasatiempo popular y son programas del software como CD-ROMs o disponibles en línea. Algunos juegos de vídeo también utilizan características de la multimedia. Los usos de la multimedia permiten que los usuarios participen activamente en vez de estar sentados llamados recipientes pasivos de la información, la multimedia es interactiva. Tipos de información multimedia: Texto: sin formatear, formateado, lineal e hipertexto. Gráficos: utilizados para representar esquemas, planos, dibujos lineales... Imágenes: son documentos formados por pixeles. Pueden generarse por copia del entorno (escaneado, fotografía digital) y tienden a ser ficheros muy voluminosos. Animación: presentación de un número de gráficos por segundo que genera en el observador la sensación de movimiento. Vídeo: Presentación de un número de imágenes por segundo, que crean en el observador la sensación de movimiento. Pueden ser sintetizadas o captadas. Sonido: puede ser habla, música u otros sonidos. El trabajo multimedia está actualmente a la orden del día y un buen profesional debe seguir unos determinados pasos para elaborar el producto. Definir el mensaje clave. Saber qué se quiere decir. Para eso es necesario conocer al cliente y pensar en su mensaje comunicacional. Es el propio cliente el primer agente de esta fase comunicacional. Conocer al público. Buscar qué le puede gustar al público para que interactúe con el mensaje. Aquí hay que formular una estrategia de ataque fuerte. Se trabaja con el cliente, pero es la agencia de comunicación la que tiene el protagonismo. En esta fase se crea un documento que los profesionales del multimedia denominan "ficha técnica", "concepto" o "ficha de producto". Este documento se basa en 5 ítems: necesidad, objetivo de la comunicación, público, concepto y tratamiento. Desarrollo o guión. Es el momento de la definición de la Game-play: funcionalidades, herramientas para llegar a ese concepto. En esta etapa sólo interviene la agencia que es la especialista. Creación de un prototipo. En multimedia es muy importante la creación de un prototipo que no es sino una pequeña parte o una selección para testear la aplicación. De esta manera el cliente ve, ojea, interactúa... Tiene que contener las principales opciones de navegación. Ahora ya se está trabajando con digital, un desarrollo que permite la interactividad. Es en este momento cuando el cliente, si está conforme, da a la empresa el dinero para continuar con el proyecto. En relación al funcionamiento de la propia empresa, está puede presuponer el presupuesto que va a ser necesario, la gente que va a trabajar en el proyecto (lista de colaboradores). En definitiva, estructura la empresa. El prototipo es un elemento muy importante en la creación y siempre va a ser testeado (público objetivo y encargados de comprobar que todo funciona) Creación del producto. En función de los resultados del resteo del prototipo, se hace una redefinición y se crea el producto definitivo, el esquema del multimedia. Hipermedia Un documento Hipermedial contiene informacion a través de la cual usted puede navegar. Por lo general, existen múltiples rutas que se pueden tomar en búsqueda de la información requerida. La información puede aparecer en muchos formatos: texto, gráficos, sonido, películas, etc. Ventajas de la Hipermedia Los textos Hipermediales no son lineales. Los lectores pueden explorar la información como lo deseen. Esto significa, a su vez, que un mismo documento puede servir a públicos diferentes. Lic. Hugo Santander Jhong 32 Introducción a la computación 33 Ejemplos de Hipermedia Aquí hay algunos ejemplos de como puede ser usada la hipermedia: Herramientas de referencia Los documentos con referencias cruzadas hacen de la hipermedia una útil fuente de material de referencia. Información educativa Los lectores pueden explorar los documentos en la forma que mejor les acomode. Además, una imágen vale por mil palabras, y la hipermedia incluye imagenes, sonido, video... Información de un producto La hipermedia es un medio útil de ofrecer información de cualquier tipo. En particular, referencias acerca de un producto o servicio, permitiendo abarcar un amplio rango de público. Esto significa, que los potenciales clientes pueden explorar las características del producto que les interesen. Hipermedia global En vez de que la información exista solamente en los discos locales, o en una pequeña red de computadores, los documentos pueden ser distribuidos a lo largo del mundo y enlazados entre sí. Así, toda esta red de información forma una poderosa base de datos, llamada WWW (World Wide Web), que integra a muchos computadores que tienen información hipermedial. Estos computadores distribuyen documentos en HTML. ¿Qué es el WWW? Un conjunto de servicios hipermediales, ofrecidos en todo el mundo a través de INTERNET, constituyen lo que se llama WWW (World Wide Web - Telaraña de cobertura mundial). No existe un centro que administre esta red de información, sino más bien está constituída por muchos servicios distintos que se conectan entre sí a través de referencias en los distintos documentos, por ejemplo, un documento contenido en un computador en Canadá, puede tener referencias a otro documento en Japón, o a un archivo en Inglaterra, o a una imagen en Suecia. Para acceder a WWW, basta con un computador, una conección a InterNet, y algún programa que sirva para conectarse a los distintos servidores WWW, como NetScape, NCSA-Mosaic, MS Internet Explorer, Lynx, etc. ¿Cómo localizar información en WWW? A pesar de que no existe un computador ´central´ WWW, existen computadores donde uno puede anotar su servicio de información en una lista, o consultar dicha lista. De estos computadores, los más comunmente usados son (sólo por dar algunos ejemplos): Yahoo y All The Web. Existen muchas otras herramientas de búsqueda. ¿Cómo funciona el WWW? El WWW está basado en un modelo cliente-servidor, utilizando el protocolo HTTP: hypertext transfer protocol. Un computador actúa como servidor, ofreciendo la información hipermedial, y otro como cliente, recibiéndola. El computador que actúa como servidor, debe estar corriendo un programa especial, llamado httpd (hyper-text transfer protocol daemon), que es capaz de recibir los requerimientos de información y atenderlos. El computador que actúa como cliente, no necesita ningún aditamento especial, basta con el programa (NetScape, Mosaic, etc.) El cliente al indicársele que se conecte a algún servicio en el Web, envía una señal al computador indicado solicitando la información. El servidor la recibe y contesta este requerimiento, enviando el documento solicitado. ¿En que formato esta la información? En WWW, se pueden encontrar sonidos, imágenes, animaciones, etcétera. Sin embargo, el propósito principal es ofrecer servicios hipermediales, que contengan un poco de todos los anteriores. Estos servicios hipermediales son documentos que contienen imágenes, sonidos, etc., junto con enlaces a otros documentos hipermediales. Estos documentos hipermediales son archivos de texto simples, que están escritos en un lenguaje llamado HTML (hyper-text markup language , o lenguaje de hypertextos). Este documento, por ejemplo, está escrito en HTML. Lic. Hugo Santander Jhong Introducción a la computación Red de computadoras Una red de computadoras (también llamada red de ordenadores o red informática) es un conjunto de computadoras y/o dispositivos conectados por enlaces de un medio físico (medios guiados) ó inalámbricos (medios no guiados) y que comparten información (archivos), recursos (CD-ROM, impresoras, etc.) y servicios (e-mail, chat, juegos), etc. Redes según la direccionalidad de los datos (tipos de transmisión) simplex unidireccionales, un ETD transmite y otro recibe half-duplex bidireccionales, pero sólo uno transmite por vez. También se llama ´´semi-duplex´´. full-duplex ambos pueden transmitir y recibir a la vez una misma información Protocolos de redes Categorías Por localización: Red de área personal (PAN) Red de área local (LAN) Red de área metropolitana (MAN) Red de área amplia (WAN) Por relación funcional: Cliente-servidor Igual-a-Igual (p2p) Por estructura: Red OSI o Modelo OSI Red TCP/IP Por Topología de red: Red de bus Red de estrella Red de anillo Red alambrada Red de bus-estrella red mesh Topología de red La arquitectura o topología de red es la disposición física en la que se conectan los nodos de una red de ordenadores o servidores, mediante la combinación de estándares y protocolos. Define las reglas de una red y cómo interactúan sus componentes. Estos equipos de red pueden conectarse de muchas y muy variadas maneras. La conexión más simple es un enlace unidireccional entre dos nodos. Se puede añadir un enlace de retorno para la comunicación en ambos sentidos. Los cables de comunicación modernos normalmente incluyen más de un cable para facilitar esto, aunque redes muy simples basadas en buses tienen comunicación bidireccional en un solo cable. En casos mixtos se puede usar la palabra arquitectura en un sentido relajado para hablar a la vez de la disposición física del cableado y de como el protocolo considera dicho cableado. Así, en un anillo con una MAU podemos decir que tenemos una topología en anillo, o de que se trata de un anillo con topología en estrella. Lic. Hugo Santander Jhong 34 Introducción a la computación La topología de red la determina únicamente la configuración de las conexiones entre nodos. La distancia entre los nodos, las interconexiones físicas, las tasas de transmisión y/o los tipos de señales no pertenecen a la topología de la red, aunque pueden verse afectados por la misma. Componentes Describe los componentes de una red, así como la forma en que se relacionan y coordinan para alcanzar el objetivo final de la red. Hay que tener en cuenta: Hardware. Software. Operatividad. Escenarios. Interconexión. Compatibilidad. Análisis y diseño. Al principio, la transmisión de datos era un gran problema, que fue resuelto dividiéndolo los procesos en capas, ordenadas de forma piramidal. Mientras más inferior sea una capa, se tratará de un proceso más físico, y mientras más se ascienda, se tratará de un proceso más lógico. La principal arquitectura de capas es el Modelo OSI. En una arquitectura de capas, cada capa realiza unas funciones y ofrece unos servicios. a) Una capa N ofrece sus servicios a la capa superior N+1. Una capa N+1 solo "ve" los servicios de la capa N. b) Las capas de un componente se comunican entre si usando interfaces (que no pertenecen a la arquitectura). c) Una capa de un componente se comunica con su homóloga de otro componente mediante un protocolo. d) En cada capa existen entidades (generalmente procesos) que realizan las funciones de esa capa. Janun predeterminada Tipos de arquitecturas Redes centralizadas La topología en estrella reduce la posibilidad de fallo de red conectando todos los nodos a un nodo central. Cuando se aplica a una red basada en bus, este concentrador central reenvía todas las transmisiones recibidas de cualquier nodo periférico a todos los nodos periféricos de la red, algunas veces incluso al nodo que lo envió. Todos los nodos periféricos se pueden comunicar con los demás transmitiendo o recibiendo del nodo central solamente. Un fallo en la línea de conexión de cualquier nodo con el nodo central provocaría el aislamiento de ese nodo respecto a los demás, pero el resto de sistemas permanecería intacto. El tipo de concentrador hub se utiliza en esta topología. Si el nodo central es pasivo, el nodo origen debe ser capaz de tolerar un eco de su transmisión. Una red en estrella activa tiene un nodo central activo que normalmente tiene los medios para prevenir problemas relacionados con el eco. Una topología en árbol (también conocida como topología jerárquica) puede ser vista como una colección de redes en estrella ordenadas en una jerarquía. Éste árbol tiene nodos periféricos individuales (por ejemplo hojas) que requieren transmitir a y recibir de otro nodo solamente y no necesitan actuar como repetidores o regeneradores. Al contrario que en las redes en estrella, la función del nodo central se puede distribuir. Como en las redes en estrella convencionales, los nodos individuales pueden quedar aislados de la red por un fallo puntual en la ruta de conexión del nodo. Si falla un enlace que conecta con un nodo hoja, ese nodo hoja queda aislado; si falla un enlace con un nodo que no sea hoja, la sección entera queda aislada del resto. Para aliviar la cantidad de tráfico de red que se necesita para retransmitir todo a todos los nodos, se desarrollaron nodos centrales más avanzados que permiten mantener un listado de las identidades de los diferentes sistemas conectados a la red. Éstos switches de red “aprenderían” cómo es la estructura de la red transmitiendo paquetes de datos a todos los nodos y luego observando de dónde vienen los paquetes respuesta. Lic. Hugo Santander Jhong 35 Introducción a la computación Descentralización En una topología en malla, hay al menos dos nodos con dos o más caminos entre ellos. Un tipo especial de malla en la que se limite el número de saltos entre dos nodos, es un hipercubo. El número de caminos arbitrarios en las redes en malla las hace más difíciles de diseñar e implementar, pero su naturaleza descentralizada las hace muy útiles. Una red totalmente conectada o completa, es una topología de red en la que hay un enlace directo entre cada pareja de nodos. En una red totalmente conexa con n nodos, hay enlaces directos. Las redes diseñadas con esta topología, normalmente son caras de instalar, pero son muy fiables gracias a los múltiples caminos por los que los datos pueden viajar. Se ve principalmente en aplicaciones militares. Híbridas Las redes híbridas usan una combinación de dos o más topologías distintas de tal manera que la red resultante no tiene forma estándar. Por ejemplo, una red en árbol conectada a una red en árbol sigue siendo una red en árbol, pero dos redes en estrella conectadas entre sí (lo que se conoce como estrella extendida) muestran una topología de red híbrida. Una topología híbrida, siempre se produce cuando se conectan dos topologías de red básicas. Dos ejemplos comunes son: Red de estrella en anillo, consta de dos o más topologías en estrella conectadas mediante una unidad de acceso multiestación (MAU) como hub centralizado. Una red de estrella en bus, consta de dos o más topologías en estrella conectadas mediante un bus troncal (el bus troncal funciona como la espina dorsal de la red). Mientras que las redes en rejilla han encontrado su sitio en aplicaciones de computación de alto rendimiento, algunos sistemas han utilizado algoritmos genéticos para diseñar redes personalizadas que tienen el menor número posible de saltos entre nodos distintos. Algunas de las estructuras de redes resultantes son casi incomprensibles, aunque funcionan bastante bien. Red en bus Topología de red en la que todas las estaciones están conectadas a un único canal de comunicaciones por medio de unidades interfaz y derivadores. Las estaciones utilizan este canal para comunicarse con el resto. Es la más sencilla por el momento. Red en topología de bus La topología de bus tiene todos sus nodos conectados directamente a un enlace y no tiene ninguna otra conexión entre nodos. Físicamente cada host está conectado a un cable común, por lo que se pueden comunicar directamente, aunque la ruptura del cable hace que los hosts queden desconectados. La topología de bus permite que todos los dispositivos de la red puedan ver todas las señales de todos los demás dispositivos, lo que puede ser ventajoso si desea que todos los dispositivos obtengan esta información. Sin embargo, puede representar una desventaja, ya que es común que se produzcan problemas de tráfico y colisiones, que se pueden paliar segmentando la red en varias partes. Es la topología más común en pequeñas LAN, con hub o switch final en uno de los extremos. También representa una desventaja ya que si el cable se rompe, ninguno de los servidores siguientes tendrá acceso a la red Red en estrella Una red en estrella es una red en la cual las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de este. Todas las estaciones están conectadas por separado a un centro de comunicaciones, concentrador o nodo central, pero no están conectadas entre sí. Esta red crea una mayor facilidad de supervisión y control de información ya que para pasar los mensajes deben pasar por el hub o concentrador, el cual gestiona la redistribución de la información a los demás nodos. La fiabilidad de este tipo de red es que el malfuncionamiento de un ordenador no afecta en nada a la red entera, puesto que Lic. Hugo Santander Jhong 36 Introducción a la computación cada ordenador se conecta independientemente del hub, el costo del cableado puede llegar a ser muy alto. Su punto fuerte consta en el hub, ya que es el que sostiene la red en uno, y es el elemento que parte. Cabe destacar que cuando se utiliza un hub o concentrador como punto central en una topología de estrella, se dice que la red funciona con una topología de bus lógico, ya que el hub enviará la información a través de todos sus puertos haciendo que todos los hosts conectados reciban la información (incluso cuando no está destinada a ellos). Actualmente se han sustituido los hubs o concentradores, por switches o conmutadores. Creando así una topología en estrella tanto física como lógica debido a las propiedades de segmentación y acceso al medio que nos ofrecen estos dispositivos capa 2. En su mayoría, las LAN actuales funcionan en topologías de estrella o de estrella extendida. Red en anillo Topología de red en la que las estaciones se conectan formando un anillo. Cada estación está conectada a la siguiente y la última está conectada a la primera. Cada estación tiene un receptor y un transmisor que hace la función de repetidor, pasando la señal a la siguiente estación del anillo. En este tipo de red la comunicación se da por el paso de un token o testigo, que se puede conceptualizar como un cartero que pasa recogiendo y entregando paquetes de información, de esta manera se evitan eventuales pérdidas de información debidas a colisiones. Cabe mencionar que si algún nodo de la red se cae (término informático para decir que esta en mal funcionamiento o no funciona para nada) la comunicación en todo el anillo se pierde. En un anillo doble, dos anillos permiten que los datos se envíen en ambas direcciones. Esta configuración crea redundancia (tolerancia a fallos), lo que significa que si uno de los anillos falla, los datos pueden transmitirse por el otro. Red en árbol Topología de red en la que los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central. En cambio, tiene un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos. Es una variación de la red en bus, la falla de un nodo no implica interrupción en las comunicaciones. Se comparte el mismo canal de comunicaciones. El enlace troncal es un cable con varias capas de ramificaciones, y el flujo de información es jerárquico. Conectado en el otro extremo al enlace troncal generalmente se encuentra un host servidor. La topología en árbol puede verse como una combinación de varias topologías en estrella. Tanto la de árbol como la de estrella son similares a la de bus cuando el nodo de interconexión trabaja en modo difusión, pues la información se propaga hacia todas las estaciones, solo que en esta topología las ramificaciones se extienden a partir de un punto raíz (estrella), a tantas ramificaciones como sean posibles, según las características del árbol. Los problemas asociados a las topologías anteriores radican en que los datos son recibidos por todas las estaciones sin importar para quien vayan dirigidos. Es entonces necesario dotar a la red de un mecanismo que permita identificar al destinatario de los mensajes, para que estos puedan recogerlos a su arribo. Además, debido a la presencia de un medio de transmisión compartido entre muchas estaciones, pueden producirse interferencia entre las señales cuando dos o más estaciones transmiten al mismo tiempo. La solución al primero de estos problemas aparece con la introducción de un identificador de estación destino. Cada estación de la LAN está unívocamente identificada. Para darle solución al segundo problema (superposición de señales provenientes de varias estaciones), hay que mantener una cooperación entre todas las estaciones, y para eso se utiliza cierta información de control en las tramas que controla quien transmite en cada momento (control de acceso Lic. Hugo Santander Jhong 37 Introducción a la computación al medio) se pierde por completo la información si no la utilizas 38 Topología en malla La topología en malla es una topología de red en la que cada nodo está conectado a uno o más de los otros nodos. De esta manera es posible llevar los mensajes de un nodo a otro por diferentes caminos. Si la red de malla está completamente conectada no puede existir absolutamente ninguna interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones con todos los demás servidores. Funcionamiento El establecimiento de una red de malla es una manera de encaminar datos, voz e instrucciones entre los nodos. Las redes de malla se diferencian de otras redes en que las piezas de la red (nodo) están conectadas unas con otras por uno u otro camino, mediante cables separados. Esta configuración ofrece caminos redundantes por toda la red, de modo que si falla un cable, otro se hará cargo del tráfico. Esta topología, a diferencia de otras (como topología en árbol y topología en estrella), no requiere de un servidor o nodo central, con lo que se reduce el mantenimiento (un error en un nodo, sea importante o no, no implica la caída de toda la red). Las redes de malla son autoregenerables: la red puede funcionar incluso cuando un nodo desaparece o la conexión falla, ya que el resto de nodos evitan el paso por ese punto. Consecuentemente, se forma una red muy confiable, es una opción aplicable a las redes sin hilos (Wireless), a las redes con cable (Wired), y a la interacción del software. Una red con topología en malla ofrece una redundancia y fiabilidad superiores. En una topología en malla, cada equipo está conectado a todos los demás equipos. Aunque la facilidad de solución de problemas y el aumento de la fiabilidad son ventajas muy interesantes, estas redes resultan caras de instalar, ya que utilizan mucho cableado. Por ello cobran mayor importancia el uso de Wireless, ya que no hay necesidad de cableado(a pesar de los inconvenientes del (Wireless). En muchas ocasiones, la topología en malla se utiliza junto con otras topologías para formar una topología híbrida. Una red de malla extiende con eficacia una red compartiendo el acceso a una infraestructura de red con mayor coste. Comparación de la topología en malla Ventajas Fiabilidad 1 Seguridad 5 Estabilidad 10 Menor costo de mantenimiento 2 Autoregenerable 1 Alguna aplicación práctica Un proyecto del MIT que desarrolla "one hundred dollar laptops" para las escuelas desvalidas en países en desarrollo planea utilizar establecimiento de una red de malla para crear una infraestructura robusta y barata para los estudiantes que recibirán los ordenadores portátiles. Las conexiones instantáneas hechas por las computadoras portátiles reducirían la necesidad de una infraestructura externa tal como Internet para alcanzar todas las áreas, porque un nodo conectado podría compartir la conexión con los nodos próximos. Lic. Hugo Santander Jhong Introducción a la computación Dirección IP Una dirección IP es un número que identifica de manera lógica y jerárquica a una interfaz de un dispositivo (habitualmente una computadora) dentro de una red que utilice el protocolo IP (Internet Protocol), que corresponde al nivel de red o nivel 3 del modelo de referencia OSI. Dicho número no se ha de confundir con la dirección MAC que es un número hexadecimal fijo que es asignado a la tarjeta o dispositivo de red por el fabricante, mientras que la dirección IP se puede cambiar. Es habitual que un usuario que se conecta desde su hogar a Internet utilice una dirección IP. Esta dirección puede cambiar al reconectar; y a esta forma de asignación de dirección IP se denomina una dirección IP dinámica (normalmente se abrevia como IP dinámica). Los sitios de Internet que por su naturaleza necesitan estar permanentemente conectados, generalmente tienen una dirección IP fija (se aplica la misma reducción por IP fija o IP estática), es decir, no cambia con el tiempo. Los servidores de correo, DNS, FTP públicos, y servidores de páginas web necesariamente deben contar con una dirección IP fija o estática, ya que de esta forma se permite su localización en la red. A través de Internet, los ordenadores se conectan entre sí mediante sus respectivas direcciones IP. Sin embargo, a los seres humanos nos es más cómodo utilizar otra notación más fácil de recordar y utilizar, como los nombres de dominio; la traducción entre unos y otros se resuelve mediante los servidores de nombres de dominio DNS. Existe un protocolo para asignar direcciones IP dinámicas llamado DHCP (Dynamic Host Configuration Protocol). Direcciones IPv4 En su versión 4, una dirección IP se representa mediante un número binario de 32 bits (IPv4). Las direcciones IP se pueden expresar como números de notación decimal: se dividen los 32 bits de la dirección en cuatro octetos. El valor decimal de cada octeto puede ser entre 0 y 255 (el número binario de 8 bits más alto es 11111111 y esos bits, de derecha a izquierda, tienen valores decimales de 1, 2, 4, 8, 16, 32, 64 y 128, lo que suma 255 en total). En la expresión de direcciones IPv4 en decimal se separa cada octeto por un carácter ".". Cada uno de estos octetos puede estar comprendido entre 0 y 255, salvo algunas excepciones. Los ceros iniciales, si los hubiera, se pueden obviar. Ejemplo de representación de dirección IPv4: 164.12.123.65 Hay tres clases de direcciones IP que una organización puede recibir de parte de la Internet Corporation for Assigned Names and Numbers (ICANN): clase A, clase B y clase C. En la actualidad, ICANN reserva las direcciones de clase A para los gobiernos de todo el mundo (aunque en el pasado se le hayan otorgado a empresas de gran envergadura como, por ejemplo, Hewlett Packard) y las direcciones de clase B para las medianas empresas. Se otorgan direcciones de clase C para todos los demás solicitantes. Cada clase de red permite una cantidad fija de equipos (hosts). En una red de clase A, se asigna el primer octeto para identificar la red, reservando los tres últimos octetos (24 bits) para que sean asignados a los hosts, de modo que la cantidad máxima de hosts es 224 (menos dos: las direcciones reservadas de broadcast [tres últimos octetos a 255] y de red [tres últimos octetos a 0]), es decir, 16 777 214 hosts. En una red de clase B, se asignan los dos primeros octetos para identificar la red, reservando los dos octetos finales (16 bits) para que sean asignados a los hosts, de modo que la cantidad máxima de hosts es 216 (menos dos), o 65 534 hosts. En una red de clase C, se asignan los tres primeros octetos para identificar la red, reservando el octeto final (8 bits) para que sea asignado a los hosts, de modo que la cantidad máxima de hosts es 28 (menos dos), o 254 hosts. Clase Dirección IP (R=Red - H=Host) Rango Red Broadcast A 0RRRRRRR.HHHHHHHH.HHHHHHHH.HHHHHHHH 16.777.214 255.0.0.0 x.255.255.255 N°de Redes N°de Host 1.0.0.0 - 127.255.255.255 Mascara de 126 Lic. Hugo Santander Jhong 39 Introducción a la computación B 10RRRRRR.RRRRRRRR.HHHHHHHH.HHHHHHHH 128.0.0.0 - 191.255.255.255 16.382 65.534 255.255.0.0 x.x.255.255 C 110RRRRR.RRRRRRRR.RRRRRRRR.HHHHHHHH 192.0.0.0 - 223.255.255.255 2.097.150 254 255.255.255.0 x.x.x.255 D 1110[ Dirección de multicast ] 224.0.0.0 - 239.255.255.255 E 1111[Reservado para uso futuro ] 240.0.0.0 - 255.255.255.255 La dirección 0.0.0.0 es utilizada por las máquinas cuando están arrancando o no se les ha asignado dirección. La dirección que tiene su parte de host a cero sirve para definir la red en la que se ubica. Se denomina dirección de red. La dirección que tiene su parte de host a unos sirve para comunicar con todos los hosts de la red en la que se ubica. Se denomina dirección de broadcast. Las direcciones 127.x.x.x se reservan para pruebas de retroalimentación. Se denomina dirección de bucle local o loopback. Hay ciertas direcciones en cada clase de dirección IP que no están asignadas y que se denominan direcciones privadas. Las direcciones privadas pueden ser utilizadas por los hosts que usan traducción de dirección de red (NAT) para conectarse a una red pública o por los hosts que no se conectan a Internet. En una misma red no pueden existir dos direcciones iguales, pero sí se pueden repetir en dos redes privadas que no tengan conexión entre sí o que se sea a través de NAT. Las direcciones privadas son: Clase A: Clase B: Clase C: 10.0.0.0 a 10.255.255.255 172.16.0.0 a 172.31.255.255 192.168.0.0 a 192.168.255.255 (8 bits red, 24 bits hosts) (16 bits red, 16 bits hosts) (24 bits red, 8 bits hosts) A partir de 1993, ante la previsible futura escasez de direcciones IPv4 debido al crecimiento exponencial de hosts en Internet, se empezó a introducir el sistema CIDR, que pretende en líneas generales establecer una distribución de direcciones más fina y granulada, calculando las direcciones necesarias y "desperdiciando" las mínimas posibles, para rodear el problema que las distribución por clases había estado gestando. Este sistema es, de hecho, el empleado actualmente para la delegación de direcciones. Muchas aplicaciones requieren conectividad dentro de una sola red, y no necesitan conectividad externa. En las redes de gran tamaño a menudo se usa TCP/IP. Por ejemplo, los bancos pueden utilizar TCP/IP para conectar los cajeros automáticos que no se conectan a la red pública, de manera que las direcciones privadas son ideales para ellas. Las direcciones privadas también se pueden utilizar en una red en la que no hay suficientes direcciones públicas disponibles. Las direcciones privadas se pueden utilizar junto con un servidor de traducción de direcciones de red (NAT) para suministrar conectividad a todos los hosts de una red que tiene relativamente pocas direcciones públicas disponibles. Según lo acordado, cualquier tráfico que posea una dirección destino dentro de uno de los intervalos de direcciones privadas no se enrutará a través de Internet. IP dinámica Una dirección IP dinámica es una IP la cual es asignada mediante un servidor DHCP (Dynamic Host Configuration Protocol) al usuario. La IP que se obtiene tiene una duración máxima determinada. El servidor DHCP provee parámetros de configuración específicos para cada cliente que desee participar en la red IP. Entre estos parámetros se encuentra la dirección IP del cliente. DHCP apareció como protocolo estándar en octubre de 1993. El estándar RFC 2131 especifica la última definición de DHCP (marzo de 1997). DHCP sustituye al protocolo, que es más antiguo. Debido a la compatibilidad retroactiva de DHCP, muy pocas redes continúan usando BOOTP puro. Las IPs dinámicas son las que actualmente ofrecen la mayoría de operadores. Éstas suelen cambiar cada vez que el usuario reconecta por cualquier causa. Ventajas Reduce los costos de operación a los proveedores de servicios internet (ISP). Lic. Hugo Santander Jhong 40 Introducción a la computación Desventajas 41 Obliga a depender de servicios que redirigen un host a una IP. Es ilocalizable; en unas horas pueden haber varios cambios de IP. Asignación de direcciones IP Dependiendo de la implementación concreta, el servidor DHCP tiene tres métodos para asignar las direcciones IP: manualmente, cuando el servidor tiene a su disposición una tabla que empareja direcciones MAC con direcciones IP, creada manualmente por el administrador de la red. Sólo clientes con una dirección MAC válida recibirán una dirección IP del servidor. automáticamente, donde el servidor DHCP asigna permanentemente una dirección IP libre, tomada de un rango prefijado por el administrador, a cualquier cliente que solicite una. dinámicamente, el único método que permite la reutilización de direcciones IP. El administrador de la red asigna un rango de direcciones IP para el DHCP y cada ordenador cliente de la LAN tiene su software de comunicación TCP/IP configurado para solicitar una dirección IP del servidor DHCP cuando su tarjeta de interfaz de red se inicie. El proceso es transparente para el usuario y tiene un periodo de validez limitado. IP fija Una dirección IP fija es una IP la cual es asignada por el usuario, o bien dada por el proveedor ISP en la primera conexión. Las IPs fijas actualmente en el mercado de acceso a Internet tienen un coste adicional mensual. Estas IPs son asignadas por el usuario después de haber recibido la información del proveedor o bien asignadas por el proveedor en el momento de la primera conexión. Esto permite al usuario montar servidores web, correo, FTP, etc. y dirigir un nombre de dominio a esta IP sin tener que mantener actualizado el servidor DNS cada vez que cambie la IP como ocurre con las IPs dinámicas. Ventajas Permite tener servicios dirigidos directamente a la IP. Desventajas Son más vulnerables al ataque, puesto que el usuario no puede conseguir otra IP. Es más caro para los ISPs puesto que esa IP puede no estar usándose las 24 horas del día. Direcciones IPv6 La función de la dirección IPv6 es exactamente la misma a su predecesor IPv4, pero dentro del protocolo IPv6. Está compuesta por 8 segmentos de 2 bytes cada uno, que suman un total de 128 bits, el equivalente a unos 3.4x1038 hosts direccionables. La ventaja con respecto a la dirección IPv4 es obvia en cuanto a su capacidad de direccionamiento. Su representación suele ser hexadecimal y para la separación de cada par de octetos se emplea el símbolo ":". Un bloque abarca desde 0000 hasta FFFF. Algunas reglas acerca de la representación de direcciones IPv6 son: Los ceros iniciales, como en IPv4, se pueden obviar. Ejemplo: 2001:0123:0004:00ab:0cde:3403:0001:0063 -> 2001:123:4:ab:cde:3403:1:63 Los bloques contiguos de ceros se pueden comprimir empleando "::". Esta operación sólo se puede hacer una vez. Ejemplo: 2001:0:0:0:0:0:0:4 -> 2001::4. Ejemplo no válido: 2001:0:0:0:2:0:0:1 -> 2001::2::1 (debería ser 2001::2:0:0:1 ó 2001:0:0:0:2::1). Lic. Hugo Santander Jhong Introducción a la computación Familia de protocolos de Internet La familia de protocolos de Internet es un conjunto de protocolos de red que implementa la pila de protocolos en la que se basa Internet y que permiten la transmisión de datos entre redes de computadoras. En ocasiones se la denomina conjunto de protocolos TCP/IP, en referencia a los dos protocolos más importantes que la componen: Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP), que fueron los dos primeros en definirse, y que son los más utilizados de la familia. Existen tantos protocolos en este conjunto que llegan a ser más de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las páginas web, además de otros como el ARP (Address Resolution Protocol) para la resolución de direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos, entre otros. El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local (LAN) y área extensa (WAN). TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el departamento de defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa del departamento de defensa. La familia de protocolos de internet puede describirse por analogía con el modelo OSI, que describe los niveles o capas de la pila de protocolos, aunque en la práctica no corresponde exactamente con el modelo en Internet. En una pila de protocolos, cada nivel soluciona una serie de problemas relacionados con la transmisión de datos, y proporciona un servicio bien definido a los niveles más altos. Los niveles superiores son los más cercanos al usuario y tratan con datos más abstractos, dejando a los niveles más bajos la labor de traducir los datos de forma que sean físicamente manipulables. El modelo de Internet fue diseñado como la solución a un problema práctico de ingeniería. El modelo OSI, en cambio, fue propuesto como una aproximación teórica y también como una primera fase en la evolución de las redes de ordenadores. Por lo tanto, el modelo OSI es más fácil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los mismos principios, pero son más fáciles de entender en el modelo OSI. Niveles en la pila TCP/IP Hay algunas discusiones sobre como encaja el modelo TCP/IP dentro del modelo OSI. Como TCP/IP y modelo OSI no están delimitados con precisión no hay una respuesta que sea la correcta. El modelo OSI no está lo suficientemente dotado en los niveles inferiores como para detallar la auténtica estratificación en niveles: necesitaría tener una capa extra (el nivel de Interred) entre los niveles de transporte y red. Protocolos específicos de un tipo concreto de red, que se sitúan por encima del marco de hardware básico, pertenecen al nivel de red, pero sin serlo. Ejemplos de estos protocolos son el ARP (Protocolo de resolución de direcciones) y el STP (Spanning Tree Protocol). De todas formas, estos son protocolos locales, y trabajan por debajo de las capas de Interred. Cierto es que situar ambos grupos (sin mencionar los protocolos que forman parte del nivel de Interred pero se sitúan por encima de los protocolos de Interred, como ICMP) todos en la misma capa puede producir confusión, pero el modelo OSI no llega a ese nivel de complejidad para ser más útil como modelo de referencia. Lic. Hugo Santander Jhong 42 Introducción a la computación El siguiente diagrama intenta mostrar la pila TCP/IP y otros protocolos relacionados con el modelo OSI original: 7 Aplicación ej. HTTP, DNS, SMTP, SNMP, FTP, Telnet, SSH y SCP, NFS, RTSP, Feed, Webcal 6 Presentación ej. XDR, ASN.1, SMB, AFP 5 Sesión ej. TLS, SSH, ISO 8327 / CCITT X.225, RPC, NetBIOS 4 Transporte ej. TCP, UDP, RTP, SCTP, SPX 3 Red ej. IP, ICMP, IGMP, X.25, CLNP, ARP, RARP, BGP, OSPF, RIP, IGRP, EIGRP, IPX, DDP 2 Enlace de datos ej. Ethernet, Token Ring, PPP, HDLC, Frame Relay, RDSI, ATM, IEEE 802.11, FDDI 1 Físico ej. cable, radio, fibra óptica Normalmente, los tres niveles superiores del modelo OSI (Aplicación, Presentación y Sesión) son considerados simplemente como el nivel de aplicación en el conjunto TCP/IP. Como TCP/IP no tiene un nivel de sesión unificado sobre el que los niveles superiores se sostengan, estas funciones son típicamente desempeñadas (o ignoradas) por las aplicaciones de usuario. La diferencia más notable entre los modelos de TCP/IP y OSI es el nivel de Aplicación, en TCP/IP se integran algunos niveles del modelo OSI en su nivel de Aplicación. Una interpretación simplificada de la pila se muestra debajo: 5 Aplicación ej. HTTP, FTP, DNS (protocolos de enrutamiento como BGP y RIP, que por varias razones funcionen sobre TCP y UDP respectivamente, son considerados parte del nivel de red) 4 Transporte ej. TCP, UDP, RTP, SCTP (protocolos de enrutamiento como OSPF, que funcionen sobre IP, son considerados parte del nivel de red) 3 Interred 2 Enlace ej. Ethernet, Token Ring, etc. 1 Físico ej. medio físico, y técnicas de codificación, T1, E1 Para TCP/IP este es el Protocolo de Internet (IP) (protocolos requeridos como ICMP e IGMP funcionan sobre IP, pero todavía se pueden considerar parte del nivel de red; ARP no funciona sobre IP El nivel Físico El nivel físico describe las características físicas de la comunicación, como las convenciones sobre la naturaleza del medio usado para la comunicación (como las comunicaciones por cable, fibra óptica o radio), y todo lo relativo a los detalles como los conectores, código de canales y modulación, potencias de señal, longitudes de onda, sincronización y temporización y distancias máximas. La familia de protocolos de Internet no cubre el nivel físico de ninguna red; véanse los artículos de tecnologías específicas de red para los detalles del nivel físico de cada tecnología particular. El nivel de Enlace de datos El nivel de enlace de datos especifica como son transportados los paquetes sobre el nivel físico, incluido los delimitadores (patrones de bits concretos que marcan el comienzo y el fin de cada trama). Ethernet, por ejemplo, incluye campos en la cabecera de la trama que especifican que máquina o máquinas de la red son las destinatarias de la trama. Ejemplos de protocolos de nivel de enlace de datos son Ethernet, Wireless Ethernet, SLIP, Token Ring y ATM. PPP es un poco más complejo y originalmente fue diseñado como un protocolo separado que funcionaba sobre otro nivel de enlace, HDLC/SDLC. Este nivel es a veces subdividido en Control de enlace lógico (Logical Link Control) y Control de acceso al medio (Media Access Control). Lic. Hugo Santander Jhong 43 Introducción a la computación 44 El nivel de Interred Como fue definido originalmente, el nivel de red soluciona el problema de conseguir transportar paquetes a través de una red sencilla. Ejemplos de protocolos son X.25 y Host/IMP Protocol de ARPANET. Con la llegada del concepto de Interred, nuevas funcionalidades fueron añadidas a este nivel, basadas en el intercambio de datos entre una red origen y una red destino. Generalmente esto incluye un enrutamiento de paquetes a través de una red de redes, conocidada como Internet. En la familia de protocolos de Internet, IP realiza las tareas básicas para conseguir transportar datos desde un origen a un destino. IP puede pasar los datos a una serie de protocolos superiores; cada uno de esos protocolos es identificado con un único "Número de protocolo IP". ICMP y IGMP son los protocolos 1 y 2, respectivamente. Algunos de los protocolos por encima de IP como ICMP (usado para transmitir información de diagnóstico sobre transmisiones IP) e IGMP (usado para dirigir tráfico multicast) van en niveles superiores a IP pero realizan funciones del nivel de red e ilustran una incompatibilidad entre los modelos de Internet y OSI. Todos los protocolos de enrutamiento, como BGP, OSPF, y RIP son realmente también parte del nivel de red, aunque ellos parecen pertenecer a niveles más altos en la pila. El nivel de Transporte Los protocolos del nivel de transporte pueden solucionar problemas como la fiabilidad ("¿alcanzan los datos su destino?") y la seguridad de que los datos llegan en el orden correcto. En el conjunto de protocolos TCP/IP, los protocolos de transporte también determinan a que aplicación van destinados los datos. Los protocolos de enrutamiento dinámico que técnicamente encajan en el conjunto de protocolos TCP/IP (ya que funcionan sobre IP) son generalmente considerados parte del nivel de red; un ejemplo es OSPF (protocolo IP número 89). TCP (protocolo IP número 6) es un mecanismo de transporte fiable y orientado a conexión, que proporciona un flujo fiable de bytes, que asegura que los datos llegan completos, sin daños y en orden. TCP realiza continuamente medidas sobre el estado de la red para evitar sobrecargarla con demasiado tráfico. Además, TCP trata de enviar todos los datos correctamente en la secuencia especificada. Esta es una de las principales diferencias con UDP, y puede convertirse en una desventaja en flujos en tiempo real (muy sensibles a la variación del retardo) o aplicaciones de enrutamiento con porcentajes altos de pérdida en el nivel de interred. Más reciente es SCTP, también un mecanismo fiable y orientado a conexión. Está relacionado con la orientación a byte, y proporciona múltiples sub-flujos multiplexados sobre la misma conexión. También proporciona soporte de multihoming, donde una conexión puede ser representada por múltiples direcciones IP (representando múltiples interfaces físicas), así si hay una falla la conexión no se interrumpe. Fue desarrollado inicialmente para aplicaciones telefónicas (para transportar SS7 sobre IP), pero también fue usado para otras aplicaciones. UDP (protocolo IP número 17) es un protocolo de datagramas sin conexión. Es un protocolo no fiable (best effort al igual que IP) - no porque sea particularmente malo, sino porque no verifica que los paquetes lleguen a su destino, y no da garantías de que lleguen en orden. Si una aplicación requiere estas características, debe llevarlas a cabo por sí misma o usar TCP. UDP es usado normalmente para aplicaciones de streaming (audio, video, etc) donde la llegada a tiempo de los paquetes es más importante que la fiabilidad, o para aplicaciones simples de tipo petición/respuesta como el servicio DNS, donde la sobrecarga de las cabeceras que aportan la fiabilidad es desproporcionada para el tamaño de los paquetes. DCCP está actualmente bajo desarrollo por el IETF. Proporciona semántica de control para flujos TCP, mientras de cara al usuario se da un servicio de datagramas UDP.. TCP y UDP son usados para dar servicio a una serie de aplicaciones de alto nivel. Las aplicaciones con una dirección de red dada son distinguibles entre sí por su número de puerto TCP o UDP. Por convención, los puertos bien conocidos (well-known ports) son asociados con aplicaciones específicas. RTP es un protocolo de datagramas que ha sido diseñado para datos en tiempo real como el streaming de audio y video que se monta sobre UDP. Lic. Hugo Santander Jhong Introducción a la computación El nivel de Aplicación El nivel de aplicación es el nivel que los programas más comunes utilizan para comunicarse a través de una red con otros programas. Los procesos que acontecen en este nivel son aplicaciones específicas que pasan los datos al nivel de aplicación en el formato que internamente use el programa y es codificado de acuerdo con un protocolo estándar. Algunos programas específicos se considera que se ejecutan en este nivel. Proporcionan servicios que directamente trabajan con las aplicaciones de usuario. Estos programas y sus correspondientes protocolos incluyen a HTTP (HyperText Transfer Protocol), FTP (Transferencia de archivos), SMTP (correo electrónico), SSH (login remoto seguro), DNS (Resolución de nombres de dominio) y a muchos otros. Una vez que los datos de la aplicación han sido codificados en un protocolo estándar del nivel de aplicación son pasados hacia abajo al siguiente nivel de la pila de protocolos TCP/IP. En el nivel de transporte, las aplicaciones normalmente hacen uso de TCP y UDP, y son habitualmente asociados a un número de puerto bien conocido (well-known port). Los puertos fueron asignados originalmente por la IANA. Ventajas e inconvenientes [editar] El conjunto TCP/IP está diseñado para enrutar y tiene un grado muy elevado de fiabilidad, es adecuado para redes grandes y medianas, así como en redes empresariales. Se utiliza a nivel mundial para conectarse a Internet y a los servidores web. Es compatible con las herramientas estándar para analizar el funcionamiento de la red. Un inconveniente de TCP/IP es que es más difícil de configurar y de mantener que NetBEUI o IPX/SPX; además es algo más lento en redes con un volumen de tráfico medio bajo. Sin embargo, puede ser más rápido en redes con un volumen de tráfico grande donde haya que enrutar un gran número de tramas. El conjunto TCP/IP se utiliza tanto en redes empresariales como por ejemplo en campus universitarios o en complejos empresariales, en donde utilizan muchos enrutadores y conexiones a mainframe o a ordenadores UNIX, como así también en redes pequeñas o domésticas, y hasta en teléfonos móviles y en domótica. INTERNET 'Internet' es un método de interconexión de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red (lógica) única. De ahí que Internet se conozca comúnmente con el nombre de "red de redes", pero es importante destacar que Internet no es un nuevo tipo de red física, sino un método de interconexión. Aparece por primera vez en 1969, cuando ARPAnet establece su primera conexión entre tres universidades en California y una en Utah. También se usa el término Internet como sustantivo común y por tanto en minúsculas para designar a cualquier red de redes que use las mismas tecnologías que Internet, independientemente de su extensión o de que sea pública o privada. Cuando se dice red de redes se hace referencia a que es una red formada por la interconexión de otras redes menores. Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web (WWW). Ésta es parte de Internet, siendo la World Wide Web uno de los muchos servicios ofertados en la red Internet. La Web es un sistema de información mucho más reciente, desarrollado inicialmente por Tim Berners Lee en 1989. El WWW utiliza Internet como medio de transmisión. Algunos de los servicios disponibles en Internet aparte de la Web son el acceso remoto a otras máquinas (SSH y telnet), transferencia de archivos (FTP), correo electrónico (SMTP), boletines electrónicos (news o grupos de noticias), conversaciones en línea (IRC y chats), mensajería instantánea, transmisión de archivos (P2P, P2M, Descarga Directa), etc. El género de la palabra Internet es ambiguo según el Diccionario de la Real Academia Española. Sin embargo, al ser "Internet" un nombre propio, la Real Academia Española recomienda no usar artículo alguno. En caso de usar artículo, se prefieren las formas femeninas, pues Internet es una red y el género de la palabra es femenino. A pesar de esto, es común escuchar hablar de "el Internet" o "la Internet", utilizando el artículo por calco del inglés the Internet. Historia 1969, DARPA comienza a planificar la creación de una red que conecte computadores en caso de una eventual guerra atómica que incomunique a los humanos sobre la tierra, con fines principalmente de defensa. Lic. Hugo Santander Jhong 45 Introducción a la computación 1972, se realizó la Primera demostración pública de ARPANET, una nueva Red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP. 1983, el 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS. 1986, la NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet. 1989, con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones. En el CERN de Ginebra, un grupo de Físicos encabezado por Tim Berners-Lee, crearon el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web. 2006, el 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones. En julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida. En los EE.UU. se estaba buscando una forma de mantener las comunicaciones vitales del país en el posible caso de una Guerra Nuclear. Este hecho marcó profundamente su evolución, ya que aún ahora los rasgos fundamentales del proyecto se hallan presentes en lo que hoy conocemos como Internet. Internet y sociedad Internet tiene un impacto profundo en el trabajo, el ocio y el conocimiento. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/OpenSource (SEDA) por ejemplo GNU, Linux, Mozilla y OpenOffice.org. Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre. Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos, en este aspecto se ha abierto una brecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas tecnologías es muy limitada para las personas. Desde una perspectiva cultural del conocimiento, internet ha sido una ventaja y una responsabilidad. Para la gente que está interesada en otras culturas proporciona una cantidad significativa de información y de una interactividad que sería inasequible de otra manera. Ocio La pornografía y la industria de los videojuegos representan buena parte del ocio en la WWW y proporcionan a menudo una fuente significativa del rédito de publicidad para otros sitios de la red. Lic. Hugo Santander Jhong 46 Introducción a la computación Muchos gobiernos han procurado sin éxito poner restricciones en el uso de ambas industrias en Internet. Un área principal del ocio en el Internet es el sistema Multijugador. Muchos utilizan el Internet para descargar música, películas y otros trabajos. Hay fuentes pagadas y gratuitas para todo esto, usando los servidores centralizados y distribuidos, las tecnologías de P2P. Otros utilizan la red para tener acceso a las noticias y el estado del tiempo. La mensajería instantánea o chat y el E-mail son algunos de los servicios de uso más extendido. Internet y su evolución Antes Internet nos servía para un objetivo claro. Navegábamos en Internet para algo muy concreto. Ahora quizás también pero sin duda alguna hoy nos podemos perder por el inmenso abanico de posibilidades que nos brinda la Red. Hoy en día, la sensación que nos produce Internet es un ruido interferencias un explosivo cúmulo de ideas distintas de personas diferentes de pensamientos distintos de tantas y tantas posibilidades que para una mente exceda in extremis. El crecimiento o más bien la incorporación de tantas personas a la Red hace que las calles de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente conectado entre sí entre todos sus miembros. El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones entre personas pero unas relaciones virtuales. Así ahora sabemos que nos relacionamos más virtualmente y menos personalmente sabiendo este hecho y relacionándolo con la felicidad originada por las relaciones personales podemos concluir que cuando una persona tenga una necesidad de conocimiento popular conocimiento no escrito en libros recurrirá a la fuente más fiable más acorde a su necesidad y más accesible que le sea posible. Como ahora esta fuente es posible en Internet dicha persona preferirá prescindir del obligado protocolo que hay que cumplir a la hora de acercarse a alguien personalmente para obtener dicha información y por ello por elegir no establecer una relación personal sino virtual sólo por ese motivo disminuirán las relaciones personales con respecto al pasado más inmediato. Este hecho lejos de ser perjudicial para la especie humana, para la supervivencia que es para lo que estamos hechos lejos de obstruir, implica la existencia de un medio capaz de albergar soluciones para problemas que antes eran mucho más difíciles de resolver. Como toda gran revolución Internet augura una nueva era de diferentes métodos de resolución de problemas creados a partir de soluciones anteriores. Internet produce la sensación que todos hemos sentido alguna vez produce la esperanza que necesitamos cuando queremos conseguir algo. Produce un despertar de intenciones que jamás antes la tecnología había logrado en la población mundial. Genera una sensación de cercanía de empatía de comprensión, y a la vez de confusión de discusión de lucha y de guerras que no queda otra que afirmar que Internet es Humana Internet es como la vida misma. Trabajo Con la aparición de Internet y de las conexiones de alta velocidad disponibles al público, Internet ha alterado de manera significativa la manera de trabajar de millones de personas. Internet ha permitido mayor flexibilidad en términos de horarios y de localización, contrariamente a la jornada laboral tradicional de 9 a 5 en la cual los empleados se desplazan al lugar de trabajo. Un experto contable que se sienta en un país puede revisar los libros de otra compañía en otro país, en un servidor situado en un tercer país que sea mantenido remotamente por los especialistas en un cuarto. Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual expresar sus opiniones sobre sus empleos, jefes y compañeros, creando una cantidad masiva de información y de datos sobre el trabajo que está siendo recogido actualmente por el proyecto de Worklifewizard.org, por el colegio de abogados de Harvard y el programa de Worklife. Internet ha impulsado el fenómeno de la Globalización y junto con la llamada desmaterialización de la economía ha dado lugar al nacimiento de una Nueva Economía caracterizada por la utilización de la red en todos los procesos de incremento de valor de la empresa. Lic. Hugo Santander Jhong 47 Introducción a la computación Publicidad en Internet Internet, se ha convertido en el medio más medible y de más alto crecimiento en la historia. Actualmente existen muchas empresas que obtienen dinero de la publicidad en Internet. Además, existen muchos valores que la publicidad interactiva ofrece tanto para el usuario como para los anunciantes. Censura Una de sus mayores ventajas, o inconvenientes, es la dificultad de su control de forma global. Algunos gobiernos, de naciones tales como Irán, Cuba, Corea del Norte y la República Popular de China, restringen el que personas de sus países puedan ver ciertos contenidos de Internet, políticos y religiosos, considerados contrarios a sus criterios. La censura se hace, a veces, mediante filtros controlados por el gobierno, apoyados en leyes o motivos culturales, castigando la propagación de estos contenidos. Sin embargo, muchos usuarios de Internet pueden burlar estos filtros, pues la mayoría del contenido de Internet está disponible en todo el mundo, sin importar donde se esté, siempre y cuando se tengan la habilidad y los medios técnicos de conectar y editar. Tecnología de Internet Acceso a Internet Internet incluye aproximadamente 5000 redes en todo el mundo y más de 100 protocolos distintos basados en TCP/IP, que se configura como el protocolo de la red. Los servicios disponibles en la red mundial de PC, han avanzado mucho gracias a las nuevas tecnologías de transmisión de alta velocidad, como DSL y Wireless, se ha logrado unir a las personas con videoconferencia, ver imágenes por satélite (ver tu casa desde el cielo), observar el mundo por webcams, hacer llamadas telefónicas gratuitas, o disfrutar de un juego multijugador en 3D, un buen libro PDF, o álbumes y películas para descargar. El método de acceso a internet vigente hace algunos años, la telefonía básica, ha venido siendo sustituida gradualmente por conexiones más veloces y estables, entre ellas el ADSL, Cable Módems, o el RDSI. También han aparecido formas de acceso a través de la red eléctrica, e incluso por satélite (generalmente, sólo para descarga, aunque existe la posibilidad de doble vía, utilizando el protocolo DVB-RS). Internet también está disponible en muchos lugares públicos tales como bibliotecas, hoteles o cibercafés. Una nueva forma de acceder sin necesidad de un puesto fijo son las redes inalámbricas, hoy presentes en aeropuertos, universidades o poblaciones enteras. Nombres de dominio La Corporación de Internet para los Nombres y los Números Asignados (ICANN) es la autoridad que coordina la asignación de identificadores únicos en Internet, incluyendo nombres de dominio, direcciones de Protocolos de Internet, números del puerto del protocolo y de parámetros. Un nombre global unificado (es decir, un sistema de nombres exclusivos para sostener cada dominio) es esencial para que Internet funcione. El ICANN tiene su sede en California, supervisado por una Junta Directiva Internacional con comunidades técnicas, comerciales, académicas y ONG. El gobierno de los Estados Unidos continúa teniendo un papel privilegiado en cambios aprobados en el Domain Name System. Como Internet es una red distribuida que abarca muchas redes voluntariamente interconectadas, Internet, como tal, no tiene ningún cuerpo que lo gobierne. Servidor Una aplicación informática o programa que realiza algunas tareas en beneficio de otras aplicaciones llamadas clientes. Algunos servicios habituales son los servicios de archivos, que permiten a los usuarios almacenar y acceder a los archivos de un ordenador y los servicios de aplicaciones, que realizan tareas en beneficio directo del usuario final. Este es el significado original del término. Es posible que un ordenador cumpla simultáneamente las funciones de cliente y de servidor. El ordenador en el que se ejecuta un programa que realiza alguna tarea en beneficio de otras aplicación llamada clientes, tanto si se trata de un ordenador central (mainframe), un miniordenador, un ordenador personal, un PDA o un sistema integrado; sin embargo, hay ordenadores Lic. Hugo Santander Jhong 48 Introducción a la computación destinados únicamente a proveer los servicios de estos programas: estos son los servidores por antonomasia. Un servidor no es necesariamente una máquina de última generación grande y monstruosa, no es necesariamente un superordenador; un servidor puede ser desde una computadora vieja, hasta una máquina sumamente potente (ej.: servidores web, bases de datos grandes, etc. Procesadores especiales y hasta varios gigas de memoria). Todo esto depende del uso que se le dé al servidor. Si usted lo desea, puede convertir al equipo desde el cual usted está leyendo esto en un servidor instalando un programa que trabaje por la red y a la que los usuarios de su red ingresen a través de un programa de servidor web como Apache. Un servidor también puede ser un proceso que entrega información o sirve a otro proceso, el modelo cliente/servidor no necesariamente implica tener dos ordenadores, ya que un proceso cliente puede solicitar algo como una impresión a un proceso servidor en un mismo ordenador Alojamiento web El alojamiento web (en inglés web hosting) es el servicio que provee a los usuarios de Internet un sistema para poder almacenar información, imágenes, vídeo, o cualquier contenido accesible vía Web. Los Web Host son compañías que proporcionan espacio de un servidor a sus clientes. Tipos de Alojamiento Web El alojamiento web se divide en seis tipos: gratuitos, compartidos, revendedores, servidores virtuales, servidores dedicados y de colocación. Alojamiento gratuito: El alojamiento gratuito es extremadamente limitado cuando se lo compara con el alojamiento de pago. Estos servicios generalmente agregan publicidad en los sitios y tienen un espacio y tráfico limitado. Alojamiento compartido (shared hosting): En este tipo de servicio se alojan clientes de varios sitios en un mismo servidor, gracias a la configuración del programa servidor web. Resulta una alternativa muy buena para pequeños y medianos clientes, es un servicio económico y tiene buen rendimiento. Alojamiento de Imágenes: Este tipo de hospedaje se ofrece para guardar tus imágenes en internet, la mayoría de estos servicios son gratuitos y las páginas se valen de la publicidad colocadas en su página al subir la imagen. Alojamiento revendedor (reseller): Este servicio de alojamiento está diseñado para grandes usuarios o personas que venden el servicio de Hosting a otras personas. Estos paquetes cuentan con gran cantidad de espacio y de dominios disponibles para cada cuenta. Servidores virtuales (VPS, Virtual Private Server): mediante el uso de una máquina virtual, la empresa ofrece el control de un ordenador aparentemente no compartido. Así se pueden administrar varios dominios de forma fácil y económica, además de elegir los programas que se ejecutan en el servidor. Por ello, es el tipo de producto recomendado para empresas de diseño y programación web. Servidores dedicados: El término servidor dedicado se refiere a una forma avanzada de alojamiento web en la cual el cliente alquila o compra un ordenador completo, y por tanto tiene el control completo y la responsabilidad de administrarlo. El cuidado físico de la máquina y de la conectividad a Internet es tarea de la empresa de alojamiento, que suele tenerlo en un centro de datos. Colocación (o housing): Este servicio consiste básicamente en vender o alquilar un espacio físico de un centro de datos para que el cliente coloque ahí su propio ordenador. La empresa le da la corriente y la conexión a Internet, pero el ordenador servidor lo elige completamente el usuario (hasta el hardware). Formas de obtener Por lo general, se distingue entre servicios pagados y servicios gratuitos. Servicios Pagados Este tipo de obtención, por lo general viene dado por el contrato de un proveedor de internet, el cual junto con dar conexión, entre la posibilidad de almacenamiento mediante disco virtual o espacio web o combinación de ambos. Lic. Hugo Santander Jhong 49 Introducción a la computación Otro medio de obtención es contratando algún servicio de una empresa no dependiente de la conexión a internet, las cuales ofrecen según las capacidades de sus servidores o de su espacio. Casi siempre a la par, entregan servicios añadidos, como la ejecución de tareas automáticas o cuentas de correo electrónico gratuitas. Normalmente las transacciones son electrónicas, por tarjeta de crédito o por sistemas de pagos como PayPal. Servicios Gratuitos Este tipo de servicio viene dado por la base de ser gratuito, y sin costo alguno al suscriptor. Sin embargo, quienes usan este servicio, por lo general son páginas de bajos recursos de mantención o aquellas que los dueños no poseen suficiente dinero para ser mantenida. Como medio de financiamiento, el servidor coloca avisos de publicidad de Adsense u otras empresas, haciendo que la página se llene de publicidad en algún punto. Otra limitación de estas ofertas es que tiene un espacio limitado y no se puede usar como almacén de datos, ni pueden alojar páginas subversivas o de contenido adulto o no permitido. De todas maneras, existe una amplia oferta de alojamientos gratuitos con características muy diferentes y que pueden satisfacer las necesidades de programadores que desean un lugar donde hacer pruebas o que mantienen una web con un número no muy elevado de visitas. Servidores y Servicios Un alojamiento web se puede diferenciar de otro por el tipo de sistema operativo, uso de bases de datos y motor de generación de páginas webs exista en él. La combinación más conocida y extendida es la del tipo LAMP (Linux, Apache, MySQL y PHP), aunque se está comenzando a usar una combinación con Java. Algunos de los servicios más comunes que se pueden entregar son lo de FTP, manejo por página web y múltiples clientes en las bases de datos. Si su web va a estar alojada en un sistema operativo Linux, este sistema es sensible a mayúsculas y minúsculas, por ejemplo "archivo.php" no es lo mismo que "ARCHIVO.php". Es aconsejable no usar caracteres tales como ! " · $ % & / ( ) = * @ : ' para prevenir errores, no se pueden utilizar eñes (ñ) ni acentos en las carpetas, así mismo se aconseja el uso de minúsculas para nombrar ficheros y directorios. Dominios Algunos planes de alojamiento (pero no los gratuitos) incluyen un nombre de dominio para que sea más fácil acceder a la página. Si no viene incluido, es el usuario quien tiene que registrar un dominio mediante un registrador o bien usar un subdominio de la misma compañía. Dominio de Internet Un dominio de Internet es un nombre base que agrupa a un conjunto de equipos o dispositivos y que permite proporcionar nombres de equipo más fácilmente recordados en lugar de la IP numérica. Permiten a cualquier servicio moverse a otro lugar diferente en la topología de Internet, que tendrá una dirección IP diferente. Dominios de nivel superior Cada nombre de dominio termina en un Dominio de nivel superior (TLD por Top Level Domain), que es siempre o bien uno de una pequeña lista de nombres genéricos (tres o más caracteres), o un código territorial de dos caracteres basado en la ISO-3166 (hay pequeñas excepciones y los nuevos código se integran caso por caso). Para las extensiones de los Dominios de nivel superior geográfico (ccTLD) véase la Lista de dominios de nivel superior geográfico Dominio de nivel superior geográfico Un Dominio de nivel superior geográfico o Dominio de nivel superior de código de país (en inglés ccTLD, country code Top-Level Domain) es un dominio de Internet usado y reservado para un país o territorio dependiente. Existen unos 243 ccTLDs (véase la lista del IANA), tienen una longitud de dos letras, y la mayoría corresponden al estándar de códigos de países ISO 3166-1 (las diferencias se explican más adelante). Cada país designa gestores para su ccTLD y establece las reglas para conceder dominios. Algunos países Lic. Hugo Santander Jhong 50 Introducción a la computación permiten que cualquier persona o empresa del mundo adquiera un dominio dentro de sus ccTLDs, por ejemplo Austria (.at) y España (.es). Otros países y territorios dependientes sólo permiten a sus residentes adquirir un dominio de su ccTLD, por ejemplo Australia (.au), Andorra (.ad) y Canadá (.ca). Códigos ISO 3166-1 no utilizados como ccTLDs Los códigos EH y KP, aunque teóricamente disponibles como ccTLDs para Sahara Occidental y Corea del Norte respectivamente, nunca han sido asignados ni existen en el DNS. Igualmente, el nuevo código CS (Serbia y Montenegro) no está aún asignado como ccTLD (.cs estaba previamente asignado a Checoslovaquia). TL (Timor Oriental tras la independencia) está siendo introducido para reemplazar TP. Todos los demás códigos ISO 3166-1 actuales han sido asignado y existen en el DNS. Sin embargo, algunos de ellos en realidad no se usan. En particular, los ccTLDs de los territorios noruegos de Isla Bouvet (.bv) y Svalbard (.sj) existen en el DNS, pero no se ha asignado ningún subdominio, y Norid (el administrador de ccTLDs noruego) tiene actualmente la política de no asignarlos. Sólo un dominio (dra.hmg.gb, para la Defence Evaluation and Research Agency) está aún registrado en .gb (Reino Unido, aunque las letras en realidad representan a Gran Bretaña, una parte del mismo) y no se aceptan nuevos registros para él. Los dominios de Inglaterra, Escocia, Gales e Irlanda del Norte usan .uk (véase más abajo). ccTLDs que no están en ISO 3166-1 Actualmente se usan nueve ccTLDs a pesar de no ser códigos de dos letras ISO 3166-1: .uk (Reino Unido, United Kingdom) El código ISO 3166-1 para el Reino Unido es GB, sin embargo JANET ya había seleccionado uk como un identificador de nivel superior para un esquema de nombres preexistente, y así fue incorporados a los ccTLDs. .gb fue asignado con la intención de realizar una transición, pero ésta nunca se hizo y el uso de .uk se ha afianzado. .su (código ISO 3166-1 obsoleto para la Unión Soviética): Los gestores de .su declararon en 2001 que comenzaban a aceptar nuevos registros para este dominio, pero no está claro si esto es compatible con las políticas del ICANN. .ac (Isla Ascensión), .gg (Guernesey), .im (Isla de Man) y .je (Isla de Jersey) Estos códigos surgieron de la decisión de 1996 del IANA de permitir el uso de códigos reservados en la lista de reserva ISO 3166-1 alpha-2 para uso de la Unión Postal Universal. La decisión se revocó más tarde y sólo estos cuatro ccTLDs habían sido asignados hasta ese momento. .eu (Unión Europea) El 25 de septiembre de 2000 la ICANN decidió permitir el uso de cualquier código de dos letras de la lista de reserva de la ISO 3166-1 reservado para todos los fines. Actualmente sólo la UE cumple este criterio. Tras una decisión del Consejo de Ministros de Telecomunicaciones de la UE en marzo de 2002, el progreso ha sido lento, pero un registro (llamado EURid) ha sido elegido por la Comisión Europea) y se han establecido criterios para la reserva: ICANN aprobó el .eu como ccTLD y abrió los registros el 7 de diciembre de 2005 para los poseedores de derechos prioritarios. El 7 de abril de 2006 se abrió el registro al público general. .tp (anterior código ISO 3166-1 para Timor Oriental) Se retirará en favor del .tl durante 2005. .yu (anterior código ISO 3166-1 para Serbia y Montenegro, cuando aún era conocido como Yugoslavia). Usos no convencionales de ccTLDs Las laxas restricciones de registro para ciertos ccTLDs ha originado nombres de dominio como pagina.de, I.am (‘yo soy’ en inglés) y go.to (‘ir a’ en inglés). Otras variaciones en el uso de ccTLDs se han denominado domain hacks, usándose juntos el dominio de segundo nivel y el ccTLD para formar una palabra o título. Esto ha originado dominios como blo.gs de las Islas Georgias del Sur y Sandwich del Sur (.gs), del.icio.us de los Estados Unidos de América (.us) y cr.yp.to de Tonga (.to). (Con este fin también se han usado TLDs no nacionales, como inter.net que usa el TLD genérico .net, probablemente el primero de cuantos se han hecho.) Lic. Hugo Santander Jhong 51 Introducción a la computación ccTLDs con cambio de significado El caso más famoso es el de .tv que originalmente pertenecía a Tuvalu y fue vendido a VeriSign por US$45 millones.[1] y actualmente se utiliza para canales de televisión. El dominio .ws perteneciente a Samoa Occidental (West Samoa) se comercializa como web site. La Federación Micronesia vende su dominio para radios FM. Las Islas Cocos también vendieron su dominio, .cc, a Verisign. Se sugiere que los compradores le pueden dar cualquier significado, como por ejemplo, cámara de comercio, circuito cerrado, centro de conferencias, centro comunitario o country club. El dominio de Yibuti o Djibuti es .dj lo que ha sido utilizado en algunos casos para páginas de disc jockeys. El dominio de Turkmenistán, .tm, se usa conjuntamente para sitios web de dicho país y como abreviatura de trade mark, marca registrada. ccTLDs históricos Hay dos ccTLDs que han sido eliminados tras ser retirados los correspondientes códigos de 2 letras de la ISO 3166-1, concretamente .cs (para Checoslovaquia) y .zr (para Zaire). Puede haber un retraso importante entre la retirada de la ISO 3166-1 y el borrado del DNS: por ejemplo, ZR dejó de ser un código ISO 3166-1 en 1997, pero el ccTLD .zr no fue borrado hasta 2001. Otros ccTLDs correspondientes a códigos ISO 3166-1 obsoletos no han sido borrados aún, y en algunos casos puede que nunca se borren debido a la cantidad de problemas que causaría por su gran uso. En concreto, el ccTLD .su de la Unión Soviética sigue en uso más de una década después de que el código SU fuese retirado de la ISO 3166-1. El primer país de Latinoamerica en obtener un dominio en internet fue Nicaragua con su .ni en 1988. Ethernet Ethernet es el nombre de una tecnología de redes de computadoras de área local (LANs) basada en tramas de datos. El nombre viene del concepto físico de ether. Ethernet define las características de cableado y señalización de nivel Conectores BNC (Coaxial) y físico y los formatos de trama del nivel de enlace RJ45 de una tarjeta de Red de datos del modelo OSI. Ethernet se refiere a las redes de área local y dispositivos bajo el estándar IEEE 802.3 que define el protocolo CSMA/CD, aunque actualmente se llama Ethernet a todas las redes cableadas que usen el formato de trama descrito más abajo, aunque no tenga CSMA/CD como método de acceso al medio. Historia Ethernet es la capa física más popular de la tecnología LAN usada actualmente y fue desarrollada principalmente por las empresas XEROX, Intel y Digital Equipment Company (DIX). Otros tipos de LAN incluyen Token Ring 802.5, Fast Ethernet, FDDI, ATM y LocalTalk. Ethernet es popular porque permite un buen equilibrio entre velocidad, costo y facilidad de instalación. Estos puntos fuertes, combinados con la amplia aceptación en el mercado y la habilidad de soportar virtualmente todos los protocolos de red populares, hacen a Ethernet la tecnología Tarjeta de Red ISA de 10 Mbps ideal para la red de la mayoría de usuarios de la informática actual. El estándar original IEEE 802.3 se basó en la especificación Ethernet 1.0 y era muy similar. El documento preliminar se aprobó en 1983 y se publicó oficialmente en 1985 (ANSI/IEEE Std. 802.3-1985). Desde entonces se han publicado un gran número de suplementos para aprovechar los avances tecnológicos y para poder usar distintos medios de transmisión, velocidades de transferencia más altas y controles adicionales de acceso a la red. Lic. Hugo Santander Jhong 52 Introducción a la computación 53 Tecnología y velocidad de Ethernet Hace ya mucho tiempo que Ethernet consiguió situarse como el principal protocolo del nivel de enlace. Ethernet 10Base2 consiguió, ya en la década de los 90s, una gran aceptación en el sector. Hoy por hoy, 10Base2 se considera como una "tecnología de legado" respecto a 100BaseT. Hoy los fabricantes ya desarrollaron adaptadores capaces de trabajar tanto con la tecnología 10baseT como la 100BaseT y esto ayuda a una mejor adaptación y transición. Las tecnologías Ethernet que existen se diferencian en estos conceptos: Velocidad de transmisión - Velocidad a la que transmite la tecnología. Tipo de cable - Tecnología del nivel físico que usa la tecnología. Longitud máxima - Distancia máxima que puede haber entre dos nodos adyacentes (sin estaciones repetidoras). Tipología - Determina la forma de actuar de los puntos de enlace centrales. Éstos pueden ser Conectores T (hoy sólo usados con las tecnologías más antiguas), hubs (con la tipología de estrella de difusión) o switches (con la tipología de estrella conmutada). A continuación se especifican los anteriores conceptos en las tecnologías más importantes: Tecnologías Ethernet Tecnología Velocidad de transmisión Tipo de cable Distancia máxima Topología 10Base2 10 Mbps Coaxial 185 m Conector T 10BaseT 10 Mbps Par Trenzado 100 m Hub o Switch 10BaseF 10 Mbps Fibra óptica 2000 m Hub o Switch 100BaseT4 100Mbps Par Trenzado (categoría 3UTP) 100 m Half Duplex(hub) y Full Duplex(switch) 100BaseTX 100Mbps Par Trenzado (categoría 5UTP) 100 m Half Duplex(hub) y Full Duplex(switch) 100BaseFX 100Mbps Fibra óptica 2000 m No permite el uso de hubs 1000BaseT 1000Mbps 4 pares trenzado (categoría 5UTP) 100 m Full Duplex (switch) 1000BaseSX 1000Mbps Fibra óptica (multimodo) 550 m Full Duplex (switch) 1000BaseLX 1000Mbps Fibra óptica (monomodo) 5000 m Full Duplex (switch) Hardware comúnmente usado en una red Ethernet Los elementos de una red Ethernet son: los nodos de red y el medio de interconexión. Los nodos de red pueden clasificarse en dos grandes grupos: Equipo Terminal de Datos (DTE) y Equipo de Comunicación de Datos (DCE). Los DTE son dispositivos de red que generan o que son el destino de los Lic. Hugo Santander Jhong Introducción a la computación datos: como las PCs, las estaciones de trabajo, los servidores de archivos, los servidores de impresión; todos son parte del grupo de las estaciones finales. Los DCE son los dispositivos de red intermediarios que reciben y retransmiten las tramas dentro de la red; pueden ser: ruteadores, conmutadores (switch), concentradores (hub), repetidores o interfaces de comunicación, ejemplo: un módem o una tarjeta de interface. NIC, o Tarjeta de Interfaz de Red | Adaptador Permite que una computadora acceda a una red local. Cada tarjeta tiene una única dirección MAC que la identifica en la red. Una computadora conectada a una red se denomina nodo. Repetidor o repeater Aumenta el alcance de una conexión física, recibiendo las señales y retransmitiéndolas, para evitar su degradación, a través del medio de transmisión, lográndose un alcance mayor. Usualmente se usa para unir dos áreas locales de igual tecnología y sólo tiene dos puertos. Opera en la capa física del modelo OSI. Concentrador o hub Funciona como un repetidor pero permite la interconexión de múltiples nodos. Su funcionamiento es relativamente simple pues recibe una trama de ethernet, por uno de sus puertos, y la repite por todos sus puertos restantes sin ejecutar ningún proceso sobre las mismas. Opera en la capa física del modelo OSI. Puente o bridge Interconecta segmentos de red haciendo el cambio de frames (tramas) entre las redes de acuerdo con una tabla de direcciones que le dice en qué segmento está ubicada una dirección MAC dada. Conmutador o Switch Funciona como el bridge, pero permite la interconexión de múltiples segmentos de red, funciona en velocidades más rápidas y es más sofisticado. Los switches pueden tener otras funcionalidades, como redes virtuales, y permiten su configuración a través de la propia red. Funciona básicamente en la capa física y sirve como enlace de datos del modelo OSI. Por esto son capaces de procesar información de las tramas; su funcionalidad más importante es en las tablas de dirección. Por ej.: una computadora conectada al puerto Conexiones en un switch Ethernet 1 del conmutador envía una trama a otra computadora conectada al puerto 2; el switch recibe la trama y la transmite a todos sus puertos, excepto aquel por donde la recibió; la computadora 2 recibirá el mensaje y eventualmente lo responderá, generando tráfico en el sentido contrario; ahora el switch conocerá las direcciones MAC de las computadoras en el puerto 1 y 2; cuando reciba otra trama con dirección de destino de alguna de ellas, sólo transmitirá la trama a dicho puerto disminuyendo así el tráfico de la red y contribuyendo al buen funcionamiento de la misma. Presente y futuro de Ethernet Ethernet se planteó en un principio como un protocolo destinado a cubrir las necesidades de las redes LAN. A partir de 2001 Ethernet alcanzó los 10 Gbps lo que dio mucha más popularidad a la tecnología. Dentro del sector se planteaba a ATM como la total encargada de los niveles superiores de la red, pero el estándar 802.3ae (Ethernet Gigabit 10) se ha situado en una buena posición para extenderse al nivel WAN. Lic. Hugo Santander Jhong 54 Introducción a la computación HTML Historia del estándar En 1989 existían dos técnicas que permitían vincular documentos electrónicos, por un lado los hipervínculos (links) y por otro lado un poderoso lenguaje de etiquetas denominado SGML. Por entonces un usuario conocedor de ambas opciones, Tim Berners-Lee físico nuclear del Centro Europeo para la Investigación Nuclear da a conocer a la prensa que estaba trabajando en un sistema que permitirá acceder a ficheros en línea, funcionando sobre redes de computadoras o máquinas electrónicas basadas en el protocolo TCP/IP. Principios de 1990, Tim Berners-Lee define por fin el HTML como un subconjunto del conocido SGML y crea algo más valioso aun, el World Wide Web. En 1991, Tim Berners-Lee crea el primer navegador de HTML que funcionaría en modo texto y para UNIX. Los trabajos para crear un sucesor del HTML, denominado HTML +, comenzaron a finales de 1993.HTML+ se diseñó originalmente para ser un superconjunto del HTML que permitiera evolucionar gradualmente desde el formato HTML anterior. A la primera especificación formal de HTML+ se le dio, por lo tanto, el número de versión 2 para distinguirla de las propuestas no oficiales previas. Los trabajos sobre HTML+ continuaron, pero nunca se convirtió en un estándar, a pesar de ser la base formalmente más parecida al aspecto compositivo de las especificaciones actuales. El borrador del estándar HTML 3.0 fue propuesto por el recién formado W3C en marzo de 1995. Con él se introdujeron muchas nuevas capacidades, tales como facilidades para crear tablas, hacer que el texto fluyese alrededor de las figuras y mostrar elementos matemáticos complejos. Aunque se diseñó para ser compatible con HTML 2.0, era demasiado complejo para ser implementado con la tecnología de la época y, cuando el borrador del estándar expiró en septiembre de 1995, se abandonó debido a la carencia de apoyos de los fabricantes de navegadores web. El HTML 3.1 nunca llegó a ser propuesto oficialmente, y el estándar siguiente fue el HTML 3.2, que abandonaba la mayoría de las nuevas características del HTML 3.0 y, a cambio, adoptaba muchos elementos desarrollados inicialmente por los navegadores web Netscape y Mosaic. La posibilidad de trabajar con fórmulas matemáticas que se había propuesto en el HTML 3.0 pasó a quedar integrada en un estándar distinto llamado MathML. El HTML 4.0 también adoptó muchos elementos específicos desarrollados inicialmente para un navegador web concreto, pero al mismo tiempo comenzó a limpiar el HTML señalando algunos de ellos como 'desaprobados'. Lic. Hugo Santander Jhong 55