Introducción Según el desarrollo de la comunicación en el mundo es importante reconocer como se ha desarrollado y cuales son sus avances técnicos, novedosos y sobre todo de rapidez y eficacia, sea esta una de las principales cosas que se deben tomar en cuanta al haber encontrado formas nuevas de comunicación en tiempos cortos y sobre todo en ahorro de nivel económico, por lo que el desarrollo histórico del Internet es en la actualidad es una red global de equipos informáticos que se comunican mediante un lenguaje común. Al conectarse a este sitio Web a lo que se llama conexión. Y es similar al sistema de teléfonos internacional: donde nadie posee ni controla todo el conjunto, pero está conectado de forma que funcione como una gran red. Hoy en la actualidad, hay entre treinta y cuarenta millones de personas que tienen acceso a Internet. El World Wide Web (el Web o WWW) proporciona una interfaz gráfica por la que es fácil desplazarse para buscar documentos en Internet. Estos documentos, así como los vínculos entre ellos, componen una red de información. Para lo que nos servirán y ayudarán a establecer una mejor opción en la comunicación y determinar los campos de acción y así poder establecerlos llevando a cabo nuestra propia satisfacción en la investigación. Por eso en el presente ensayo podemos determinar algunos de los medios y elementos que son necesarios para poder incrementar medios de información en las investigaciones y así entender, contactar y llevar a cabo una buena investigación. El Internet es un recurso sofisticado, por su estructura y por su manejo, pero a su ves es el recurso utilizado por las empresas para mantener una mejor comunicación con sus clientes y en el mismo mercado; en las escuelas también es el medio en el que se les proporciona a los estudiantes información de investigación en temas específicos y sobre todo de comunicación con otros estudiantes mediante el uso del E−Mail. Origen del Internet El Internet nació mas o menos 20 años, como una red del "US Derpartament of Defense", llamada el ARPAnet. El ARPAnet fue una red experimental diseñada para investigaciones militares y en particular para investigaciones sobre como construir redes que pudieran resistir daños parciales y continúen funcionando. En el modelo ARPAnet, la comunicación ocurre siempre entre un computador origen y otro destino. Se asume que la red como tal es una red inestable, de tal forma que cualquier porción de la red podría desaparecer en el momento más inesperado debido a causas externas. Las computadoras interconectadas son las que tendrían la responsabilidad de asegurar la comunicación que se hubiera establecido. Estas concepciones pueden resultar raras, pero la historia ha demostrado que muchas de estas estuvieron correctas. Aunque la Organización para la estandarización Internacional estuvo dedicando varios años al diseño de un standard para redes de computadoras, la gente no pudo esperar. Los responsables del desarrollo del Internet, respondiendo a las presiones del mercado, empezaron a colocar su software en cada tipo de computador existente. Casi 10 años después, las redes LAN y las estaciones de trabajo hicieron su aparición. Muchas de estas estaciones de trabajo el Berkeley Unix, que incorporaban por defecto los módulos para interconexión IP. Esto creó una nueva demanda; más que interconectar un simple grupo de computadores, las organizaciones querían interconectar al ARPAnet todas sus redes LAN. Esto permitiría a todas las computadoras de las LANS acceder a las facilidades de la red ARPAnet. A finales de los 80 la NSF creó cinco centros equipados con supercomputadoras. Hasta ese momento, las computadoras más rápidas en el mundo estaban disponibles solo 1 para que estos recursos estuvieran al alcance de cualquier investigador académico. Solo cinco centros de cómputos fueron creados debido a sus altos costos de mantenimientos, sin embargo el mantenerlos interconectados creaba un problema de comunicación. Es así como el NSF decide construir su propia red, basada e tecnología IP del ARPAnet. Esta red interconectó los cinco centros de la NFS con las líneas telefónicas de 56 Kbps. Se decide crear adicionalmente redes regionales donde las instituciones interconectadas se unirán a algunos de los cinco centros de cómputos de la NSF en un solo punto. Con esta configuración, cualquier computador podría eventualmente comunicarse con cualquier otro redireccionado la conversación a través de los computadores vecinos interconectados. Las supercomputadoras distribuidas en cinco centros de la NSF permitieron a los sitios interconectados, compartir una gran cantidad de información no relacionada al centro precisamente. El tráfico de la red se incremento, sobrecargando los computadores que los interconectaban. En 1987, un contrato para administrar i renovar la red fue realizado con la empresa Merit Network Ink; que implemento la red educacional de Michigan conjuntamente con IBM y MCI. La antigua red fue remplazada con líneas telefónicas más veloces y con computadoras más rápidas para controlarla. Este crecimiento y renovación de la NSFnet continua hasta nuestros días. En la actualidad, el Internet no solo está conformado por redes interconectadas usando el protocolo IP, sino recientemente redes basadas en protocolos diferentes al IP han desarrollado módulos que las integran con las redes IP tradicionales. Leonard Kleinrock en el MIT publicó el primer documento sobre teoría de conmutación de conjunto de bits en julio 1961 y el primer de libro en el tema en 1964. Kleinrock convenció a Roberts de la viabilidad teórica de comunicaciones usando los paquetes más bien que los circuitos, que era un paso de progresión importante a lo largo del camino hacia establecimiento de una red del ordenador. El otro paso de progresión dominante era hacer que los ordenadores hablan junto. Explorar esto, en 1965 que trabajaba con Thomas Merrill, Roberts conectó el ordenador TX−2 en masa. al Q−32 en California con una línea telefónica de marcado manual de la velocidad baja que crea la red de ordenadores de la primera ancho−área (al menos pequeña) construida siempre. El resultado de este experimento era la realización que los ordenadores compartidos el tiempo podrían trabajar bien junta, programas que se ejecutaban y los datos el extraer como necesario en la máquina remota, pero que era totalmente inadecuado el sistema de teléfono con conmutador de circuito para el trabajo. La convicción de Kleinrock de la necesidad de la conmutación de conjunto de bits fue confirmada. En último 1966 Roberts fue a DARPA a desarrollar el concepto de la red de ordenadores y a juntar rápidamente su plan para el " ARPANET ", publicándolo en 1967. En la conferencia donde él presentó el papel, había también un documento sobre un concepto de la red del paquete del Reino Unido de Donald Davies y Roger Scantlebury de NPL. Scantlebury dijo a Roberts sobre el trabajo de NPL tan bien como el de Paul Baran y otros en el RAND. El grupo del RAND había escrito gf en los militares en 1964. Sucedió que el trabajo en MIT (1961−1967), en el RAND (1962−1965), y en NPL (1964−1967) tenía todo procedió en paralelo sin cualesquiera de los investigadores que sabían sobre el otro trabajo. La palabra " paquete " fue adoptada del trabajo en NPL y la velocidad de línea propuesta que se utilizará en el diseño de ARPANET fue aumentada a partir de 2,4 kbps a 50 kbps. 5 En agosto de 1968, después de Roberts y del DARPA financió a comunidad había refinado la estructura total y las especificaciones para el ARPANET, un RFQ release/versión por DARPA para el desarrollo de uno de los componentes dominantes, los interruptores de paquete llamados los procesadores de Interface Message (IMP's). El RFQ fue ganado en diciembre de 1968 por un grupo dirigido por Frank Heart en el perno Beranek y Newman (BBN). Mientras que el equipo del BBN trabajó en el IMP's con Bob Kahn que desempeñaba un papel importante en el diseño arquitectónico total de ARPANET, la topología y la economía de la red fueron diseñadas y optimizadas por Roberts que trabajaba con la carta franca de Howard y su equipo en la corporación del análisis de red, y el sistema de la medida de la red fue preparado por el equipo de Kleinrock en UCLA. 2 Debido al desarrollo temprano de Kleinrock de la teoría de conmutación de conjunto de bits y de su foco en análisis, diseño y la medida, su centro de la medida de la red en UCLA fue seleccionado para ser el primer nodo en el ARPANET. Todo el esto vino junto en septiembre de 1969 en que el BBN instaló el primer IMP en UCLA y el primer ordenador huesped fue conectado. El proyecto de Doug Engelbart sobre el " aumento de la intelecto humana " (que NLS incluido, un sistema temprano del hypertext) en el instituto de investigación de Stanford (SRI) proporcionó a un segundo nodo. SRI utilizó el Network Information Center, conducido por Elizabeth (Jake) Feinler y las funciones el incluir tales como vectores el mantener del nombre de ordenador principal a asociar de direccionamiento así como un directorio del RFC's. Un mes más adelante, cuando SRI fue conectado con el ARPANET, el primer mensaje del ordenador principal−a−ordenador principal fue enviado del laboratorio de Kleinrock a SRI. que dos más nodos fueron agregados en Santa UC Barbara y universidad de Utah. Estos dos nodos pasados incorporaron proyectos de la visualización de la aplicación, con la cañada Culler y Burton frito en los métodos el investigar del UCSB para la visualización de funciones matemáticas usando visualizaciones del almacenaje para ocuparse del problema de restaure concluído la red, y la personalización de Roberto e Ivan Sutherland en los métodos el investigar de Utah de representaciones TRIDIMENSIONALES concluído la red. Así, antes de fin de 1969, cuatro ordenadores huesped fueron conectados juntos en el ARPANET inicial, y el florecimiento Internet estaba de la tierra. Incluso en este primero tiempo, debe ser observado que la investigación del establecimiento de una red incorporó el trabajo sobre la red subyacente y el trabajo sobre cómo utilizar la red. Esta tradición continúa a este día. Los ordenadores fueron agregados rápidamente al ARPANET durante los años siguientes, y el trabajo procedió en terminar el protocolo funcionalmente completo de Host−to−Host y el otro software lógica de red. En diciembre de 1970 el grupo de funcionamiento de la red (NWG) que trabajaba bajo S. Crocker acabó el protocolo inicial de ARPANET Host−to−Host, llamado el protocolo del control de la red (NCP). Pues el ARPANET localiza terminado poniendo NCP en ejecución durante el período 1971−1972, los utilizadores de la red finalmente podrían comenzar a desarrollar aplicaciones. En octubre 1972 de Kahn ordenado una demostración grande, muy acertada del ARPANET en la conferencia internacional de la comunicación del ordenador (ICCC). Ésta era la primera demostración pública de esta nueva tecnología de red al público. Era también en 1972 que la aplicación " caliente " inicial, correo electrónico, fue introducida. En el rayo de marcha Tomlinson en el BBN escribió el mensaje básico del email envía y leyó el software lógica, motivado por la necesidad de los reveladores de ARPANET de un mecanismo fácil de la coordinación. En julio, Roberts amplió su utilitario escribiendo al primer email programa utilitario a la lista, selectivamente leyó, clasifía, lo remite, y responde a los mensajes. Allí del email sacado como la aplicación de la red más grande por concluído una década. Éste era un harbinger de la clase de actividad que vemos en el World Wide Web hoy, a saber, el crecimiento enorme de todas las clases de tráfico de la " gente−a−gente ". Cómo funciona Internet Internet es un conjunto de redes locales conectadas entre sí a través de un ordenador especial por cada red, conocido como gateway. Las interconexiones entre gateways se efectúan a través de diversas vías de comunicación, entre las que figuran líneas telefónicas, fibras ópticas y enlaces por radio. Pueden añadirse redes adicionales conectando nuevas puertas. La información que debe enviarse a una máquina remota se etiqueta con la dirección computerizada de dicha máquina. Los distintos tipos de servicio proporcionados por Internet utilizan diferentes formatos de dirección (Dirección de Internet). Uno de los formatos se conoce como decimal con puntos, por ejemplo 123.45.67.89. Otro formato describe el nombre del ordenador de destino y otras informaciones para el encaminamiento, por ejemplo 'mayor.dia.fi.upm.es'. Las redes situadas fuera de Estados Unidos utilizan sufijos que indican el país, por ejemplo (.es) para España o (.ar) para Argentina. Dentro de Estados Unidos, el sufijo anterior especifica el tipo de organización a que pertenece la red informática en cuestión, que por ejemplo puede ser una institución educativa (.edu), un centro militar (.mil), una oficina del Gobierno (.gov) o una organización sin ánimo de 3 lucro (.org). Una vez direccionada, la información sale de su red de origen a través de la puerta. De allí es encaminada de puerta en puerta hasta que llega a la red local que contiene la máquina de destino. Internet no tiene un control central, es decir, ningún ordenador individual que dirija el flujo de información. Esto diferencia a Internet y a los sistemas de redes semejantes de otros tipos de servicios informáticos de red como CompuServe, America Online o Microsoft Network. Conexión con Internet Para acceder a los recursos de Internet lo primero que necesitas es conectar el ordenador a la red. Esto se puede hacer mediante conexiones temporales o permanentes. Un proveedor de servicios te dará acceso a Internet. La localización donde el proveedor tiene el equipamiento para conectar al cliente es el punto de acceso. A continuación encontrarás los métodos más comunes y efectivos para conectarte. Acceso Dial−Up El coste de acceso a Internet vía módem es relativamente bajo. Funciona con una línea telefónica analógica standard y ofrece una velocidad de conexión de hasta 33.6 Kbps. Las conexiones por módem están pensadas para las conexiones temporales a Internet. Si eliges este tipo de conexión, necesitas un módem y una línea telefónica. Tipos de conexión con Internet Los tipos de conexiones que se describen es posible que en otros países los servicios de Internet que se proporcionan a través de los proveedores de servicios de Internet varíen considerablemente. Puede que observe otras diferencias, dependiendo de la naturaleza del hardware, el contenido que haga disponible desde su sitio y otras variables. Los servidores con poca carga de trabajo pueden usar conexiones Frame Relay o RSDI (ISDN). Los servidores con tráfico medio pueden usar una línea T1 o una fracción de línea T1. Las grandes organizaciones que prevén gran tráfico en Internet pueden necesitar varias líneas T1 completas o fraccionadas, o incluso líneas T3 para poder dar servicio a miles de usuarios. RDSI Red Digital de Servicios Integrados Una línea RDSI es muy parecida a una línea telefónica standard, excepto que es totalmente digital y ofrece una velocidad de conexión mucho más alta, hasta de 128 Kbps. Las líneas RDSI están pensadas para ser usadas por pequeñas empresas y personas que necesitan usar Internet en su vida profesional. Si eliges una conexión por RDSI, lo primero que hace falta es una línea telefónica RDSI y un adaptador RDSI. También se puede comprar un paquete integrado que incluya línea RDSI, hardware, software y soporte técnico. Si ya tienes una red local (LAN) en tu oficina y quieres dar acceso a Internet a varios ordenadores, también se puede usar una configuración multipunto. Este tipo de solución es más económico que la solución "tradicional" con router y cortafuegos. Conexión permanente 4 Frame Relay Este tipo de conexión permite un enlace de comunicación permanente dedicado entre dos localizaciones. El ordenador conecta directamente con la red (frame network) que actúa como un nodo donde también está conectado el proveedor que establece la conexión a Internet. En este caso, el nodo es compartido por todos los clientes que usan la red. Por este motivo la conexión puede ser más lenta que si se usa otro tipo de conexión permanente como una línea dedicada. La velocidad de una conexión Frame Relay varia de 56 Kbps a T1 (1,5 Mbps). La conexión es más cara cuanto más rápida sea. Una línea Frame Relay es muy recomendable. En particular, para sitios con un nivel de tráfico medio y correo electrónico de mucho tráfico. Línea dedicada Una línea dedicada opera de manera similar a la tecnología Frame Relay con la gran diferencia de que la conexión es punto a punto. Es decir, no existe un nodo que actúe de intermediario, sino que es una línea sólo para el tráfico del usuario. El resultado es una conexión más rápida, menos fallos y mayor seguridad. La velocidad de las líneas dedicadas varía de 56 Kbps a T3 (4,5 Mbps). Si se puede pagar, una línea dedicada es desde luego la mejor elección para una conexión permanente a Internet. Correo Electrónico (e−mail) El usuario de Internet puede enviar y recibir mensajes de cualquier otro usuario de la red. Es más, puede enviar mensajes a otros sistemas de correo que estén conectados a Internet. Sin embargo el Correo Electrónico no sólo significa mensajes personales, sino cualquier cosa que se pueda almacenar en un archivo se puede enviar, como por ejemplo un programa fuente o una foto escaneada. Conexión Remota Se puede efectuar una conexión, mediante telnet, a cualquier ordenador dentro de Internet, con lo que pasaríamos a utilizar ese equipo como si estuviéramos delante de él. Como es lógico para efectuar este proceso la mayoría de las veces se requiere disponer de una cuenta y una palabra de acceso (password). Servicio Finger La mayoría de los ordenadores en Internet tienen una utilidad que permite buscar información sobre un usuario en particular. Este servicio es conocido como finger. FTP Este servicio permite copiar archivos de un ordenador a otro. El servicio FTP Anónimo es un servicio público por el cual una organización pone a disposición de todo el mundo una serie de archivos. Para acceder es habitual el uso del identificador de usuario anonymous, sin necesidad de clave. Mediante este procedimiento se pueden obtener muchos programas, ya sean de dominio público o soportados por el usuario. Servidores Archie El papel de estos servidores es ayudar a localizar donde se encuentra la información que se necesita. Supongamos que buscamos un programa dado, entonces se puede utilizar un servidor Archie para que nos indique los servidores de FTP que almacenan ese archivo. 5 Internet Relay Chat La utilidad IRC permite establecer conexiones entre ordenadores, a través de Internet, para intercambiar mensajes de forma interactiva. Se puede tomar parte en conversaciones públicas con un gran número de personas. Normalmente se organizan sobre distintos temas o ideas. Alternativamente se puede utilizar IRC para una conversación privada. Gopher Gopher proporciona una serie de menús desde los que se puede acceder a cualquier tipo de información textual, incluyendo la que proporcionan otros recursos de Internet. Hay muchos sistemas Gopher, cada uno tiene la información que las personas que lo administran localmente han decidido compartir. La mayoría de los sistemas Gopher están conectados entre sí. Verónica Verónica es una herramienta que permite mantener la pista de muchos menús de Gopher alrededor del mundo. Se puede utilizar Verónica para realizar una búsqueda y localizar todas las opciones de menú que tienen ciertas palabras clave. El resultado es un menú con todo lo que se ha encontrado. Servidores Wais Proporcionan otra forma de búsqueda de información que se encuentra dispersa en la red. A Wais se le dice en que base de datos ha de hacer la búsqueda, buscando cada palabra en cada artículo de las bases de datos indicadas. Desde esta lista es posible decirle a Wais que muestre cualquiera de los artículos elegidos. Que ventajas ofrece Internet? Son muchas las ventajas que Internet nos ofrece, podríamos llenar páginas enteras de bondades, pero trataremos de citar las principales. Acceso Global: Uno ingresa a la red a través de una llamada telefónica o una línea alquilada directa a Internet y el acceso a la información no posee un costo de comunicación extra para la información este donde este esta, que puede ser localmente o en otro país. Acercamiento con los clientes: Mediante Internet y el correo electrónico, se tiene llegada a personas e información dentro y fuera de las empresas que para realizarlo por medio de otras tecnologías en algunos casos se tornaría imposible (Ej. Gtes de empresas, foros de discusión etc.). Relaciones mediante hiperlinks: Con el solo click de un botón paso de un servidor de información a otro en forma transparente y gráfica. Bajo Costo: El costo es relativamente bajo, ya que se abona el costo de una llamada local y el de un ISP que puede oscilar entre $30 a $45 mensuales en promedio, dependiendo del tipo de servicio (10 horas de navegación o tarifa plana). ¿Qué es TCP/IP ? Como se ha visto, Internet está construida sobre una colección de redes que cubren el mundo. Estas redes conectan diferentes tipos de ordenadores, y de alguna forma ha de existir algún protocolo que las una, que es conocido como TCP/IP. 6 Para garantizar que un conjunto de ordenadores pueden trabajar juntos, los programadores hacen sus programas según protocolos estándares. Un protocolo es una serie de reglas que describen técnicamente, cómo deben hacerse determinadas tareas. Por ejemplo, un protocolo ha de describir el formato que ha de tener un mensaje. Todos los programas de correo de Internet lo seguirán cuando preparen un mensaje para su envío a la red. TCP/IP es el nombre común de una colección de más de 100 protocolos que nos permiten conectar ordenadores y redes. El nombre viene de dos protocolos importantes, TCP (Transmission Control Protocol) e IP (Internet Protocol). Dentro de Internet la información se transmite en pequeños trozo de información, denominados paquetes. Por ejemplo si enviamos un mensaje extenso de correo electrónico, TCP divide este mensaje en paquetes, cada uno marcado con un número de secuencia y con la dirección del destinatario, además de incluir información de control de errores. Estos paquetes se envían a la red, donde el trabajo de IP es transportarlos hasta el equipo remoto, en el otro extremo TCP recibe los paquetes y comprueba si hay errores, una recibidos todos, basándose en los números de secuencia reconstruye el mensaje original. El partir los datos en paquetes tiene beneficios importantes. Primero, permite utilizar en Internet las mismas líneas de comunicación a varios usuarios simultáneamente. Otra ventaja es que cuando algo va mal, sólo tiene que retransmitirse un paquete, en lugar del mensaje completo. Esto incrementa la velocidad. En resumen se puede decir que Internet depende de miles de redes y millones de ordenadores, y que TCP/IP es el pegamento que mantiene todo unido. Otros tipos de conexiones Cable Modem El "Cable Modem" es un dispositivo que permite el acceso a alta velocidad a Internet y a Intranets, asimismo, brinda servicios de transporte de datos, empleando para ello la red de televisión por cable (CATV). La mayoría de los Cable Modems son dispositivos externos que se conectan por un lado a la red de televisión por cable, mientras que por el otro se conectan a la PC del usuario. Cualquier persona que navega por Internet utilizando los medios convencionales puede constatar las velocidades de transmisión relativamente bajas para el manejo de páginas Web el alto contenido multimedia y VRML (fotografías, gráficos, vídeos digitalizados, etc.). La tecnología de los Cable Modems permite acceder a Internet rápidamente en cualquier momento, lo que implica navegar instantáneamente, eliminándose la frustración diaria de un típico navegante en Internet. Ventajas : − Alta velocidad de acceso y navegación (puede llegar a los MegaBytes por segundo). − Rápido tiempo de conexión. − Libera el empleo de las líneas telefónicas (toda la comunicación se realiza por la red CATV). − La tecnología de Cable Modems ofrece una amplia gama de velocidades compartidas por los usuarios dependiendo de la tecnología empleada, la arquitectura de red y tráfico. En la dirección de bajada (desde Internet al usuario) pueden alcanzar velocidades de hasta 40mbps, mientras que en la dirección opuesta (desde 7 el usuario a Internet) las velocidades pueden llegar a los 10Mbps. Por otro lado, la velocidad real que las computadoras personales pueden manejar actualmente dependen de dos cuellos de botella, uno de ellos es el acceso a la red, la cual es a través de una tarjeta Ethernet 10BaseT, y el otro lo determina el procesador y el bus interno de la PC utilizada, lo cual limita a las PCs a una velocidad típica tope de acceso de 1.5Mbs a 3Mbps, si tomamos como ejemplo un acceso RDSI de 128 Kbps, se estará logrando velocidades reales 12 veces mayores. El hecho de utilizar la palabra "modem" para describir a este dispositivo de comunicaciones "Cable Modem", puede generar cierta confusión pues puede asociarse a la típica imagen de un modem de línea telefonía. Este es un modem en el sentido real del término pues modula y demodula señales, aunque posee funcionalidades más complejas tales como ser un dispositivo sintonizador, un codificador/decodificador, un bridge, un ruteador, una tarjeta de red, un agente SNMP y también un concentrador de red. World Wide Web El Proyecto World Wide Web nació en respuesta a la necesidad que la comunidad científica internacional tenía de nuevos sistemas de distribución de la información. Este fue uno de los objetivos que se planteó Tim Berners−Lee (ingeniero británico) cuando en 1989 presentó a sus superiores del CERN la propuesta original para el proyecto World Wide Web. El CERN es el Laboratorio Europeo de Física de Partículas que, sito en Ginebra, es financiado por 19 países de la UE. El WWW (como también se le llama) se pensó como un medio de distribución de la información entre equipos investigadores geográficamente dispersos, en concreto, para la comunidad de físicos de altas energías vinculados al CERN. Se pretendía que los recursos disponibles en formato electrónico, que residían en distintas computadoras conectadas a la red, y que fuesen accesibles para cada investigador desde su propia terminal de forma clara y simple, sin necesidad de aprender varios programas distintos. Además debería posibilitarse el salto entre elementos de información conexos. Todos los recursos existentes deberían integrarse en una red hipertextual gestionada por computadoras. Las primeras versiones de WWW (para uso interno del CERN) estuvieron listas en 1991. Ese año también, el sistema se abrió ya a Internet y, desde entonces, para acceder al World Wide Web no se requiere más que un terminal conectado a Internet. La máxima facilidad de uso y el máximo rendimiento se alcanzan con una pantalla gráfica (modelos Next o Macintosh, un X−Terminal o un PC con tarjeta gráfica). Así, el sistema nos ofrece hipertextos (imágenes y textos vinculados). Las palabras que van subrayadas y las imágenes recuadradas son links que nos conducen a otros nodos. Para hacerlo, basta situar el puntero del ratón encima de ellos y pulsar el botón. Recordamos que el servidor de información de llegada puede ser otro hipertexto o también un servidor no hipertextual integrado en la red: un servidor Gopher, un grupo de news, una búsqueda en una base de datos Wais, etc. El éxito del World Wide Web (algo así como "telaraña mundial") ha sido espectacular, pasando en el año 93 de 50 a 500 servidores de información. En el 94 ya se contabilizaban por miles y en la actualidad se calcula que existen más de 5 millones de páginas Web. En España había, en 1994, trece servidores WWW; el primero fue el del Departamento de Educación de la Universidad Jaume I. Existen Web's de todos los tipos, de universidades, empresas, organizaciones... Desde hace casi un año, el líder en investigación y desarrollo del núcleo del Web es el MIT (Massachusetts Institute of Technology) de Boston, EEUU. La Unión Europea decidió, a través del Convenio WWW (en el que también participa el instituto francés INRIA), el traspaso de toda la información disponible en el CERN al MIT, justificando el acuerdo por la marcha del inventor del Web, Tim Berners−Lee al citado instituto norteamericano. 8 En resumen, el Internet pasó del caos inicial al Wais, creado por un grupo de empresas en 1989. Más tarde apareció el Gopher (Universidad de Minessota, 1991) que constaba de ventanas simples y utilizaba FTP y Wais. Finalmente, a finales de 1990 el WWW fue inventado en el CERN. Arquitectura del world wide web El WWW responde a un modelo "cliente − servidor". Se trata de un paradigma de división del trabajo informático en el que las tareas se reparten entre un número de clientes que efectúan peticiones de servicios de acuerdo con un protocolo, y un número de servidores que responden a estas peticiones. En el Web los clientes demandan hipertextos a los servidores. Para desarrollar un sistema de este tipo ha sido necesario: a)Un nuevo protocolo que permite saltos hipertextuales, es decir, de un nodo origen a otro de destino, que puede ser texto, imágenes, sonido, animaciones, vídeo, etc. Este protocolo se denomina HTTP (Hyper Text Transfer Protocol) y es el lenguaje que hablan los servidores. b)Inventar un nuevo lenguaje para representar hipertextos que incluyera información sobre la estructura y formato de representación y, especialmente, indicara el origen y destinos de los saltos de hipertexto. Este lenguaje es el HTML (Hyper Text Markup Languaje). c)Idear una forma de codificar las instrucciones para los salto hipertextuales de un objeto a otro de la Internet (algo vital dado el caos anterior). d)Desarrollar aplicaciones cliente para todo tipo de plataformas y resolver el problema de cómo se accede a la información que está almacenada, y que ésta sea disponible a través de los diversos protocolos (FTP, HTTP, WAIS...) y que representen a su vez información multiformato (texto, imágenes, animaciones, etc.). Con este fin aparecen varios clientes, entre los que destacan MOSAIC del NCSA (Universidad de Chicago) y NETSCAPE Navigator de Netscape Communications Corporation. HTTP El HTTP es el protocolo de alto nivel del World Wide Web que rige el intercambio de mensajes entre clientes y servidores del Web. Se trata de un protocolo genérico orientado a objetos que no mantiene la conexión entre transacciones. Se diseñó especialmente para entender las exigencias de un sistema Hipermedia distribuido como es el World Wide Web. Sus principales características son: Ligereza: reduce la comunicación entre clientes y servidores a intercambios discretos, de modo que no sobrecarga la red y permite saltos hipertextuales rápidos. Generalidad: puede utilizarse para transferir cualquier tipo de datos (según el estándar MIME sobre el tráfico multimedia que incluye también los que se desarrollen en el futuro) Extensibilidad: contempla distintos tipos de transacciones entre clientes y servidores y el futuro desarrollo de otros nuevos. Según Berners−Lee (1993) el esquema básico de cualquier transacción HTTP entre un cliente y un servidor es el siguiente: Conexión: El cliente establece una conexión con el servidor a través del puerto 80 (puerto estándar), u otro especificado. * Petición: El cliente envía una petición al servidor. *Respuesta: El servidor envía al cliente la respuesta (es decir, el objeto demandado o un código de error). * Cierre: Ambas partes cierran la conexión. La eficiencia del HTTP posibilita la transmisión de objetos multimedia y la realización de saltos hipertextuales con gran rapidez. La Figura 3 muestra una página Web con su correspondiente dirección HTTP. 9 URL Los URL (Uniform Resource Locator) son "localizadores" de direcciones dentro de la red, que relacionan un servicio con un servidor. Constituyen la herramienta esencial del Web, ya que permiten la localización y conexión con cualquier servidor y recurso del Internet. Impacto social Aunque la interacción informática todavía está en su infancia, ha cambiado espectacularmente el mundo en que vivimos, eliminando las barreras del tiempo y la distancia y permitiendo a la gente compartir información y trabajar en colaboración. El avance hacia la 'superautopista de la información' continuará a un ritmo cada vez más rápido. El contenido disponible crecerá rápidamente, lo que hará más fácil encontrar cualquier información en Internet. Las nuevas aplicaciones permitirán realizar transacciones económicas de forma segura y proporcionarán nuevas oportunidades para el comercio. Las nuevas tecnologías aumentarán la velocidad de transferencia de información, lo que hará posible la transferencia directa de 'ocio a la carta'. Es posible que las actuales transmisiones de televisión generales se vean sustituidas por transmisiones específicas en las que cada hogar reciba una señal especialmente diseñada para los gustos de sus miembros, para que puedan ver lo que quieran en el momento que quieran. El crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a la censura. El aumento de las páginas de Web que contenían textos y gráficos en los que se denigraba a una minoría, se fomentaba el racismo o se exponía material pornográfico llevó a pedir que los suministradores de Internet cumplieran voluntariamente unos determinados criterios. En 1996 se aprobó en Estados Unidos la Ley para la Decencia en las Comunicaciones, que convirtió en delito el que un suministrador de servicios transmitiera material indecente a través de Internet. La decisión provocó inmediatamente una reacción indignada de usuarios, expertos del sector y grupos en favor de las libertades civiles, que se oponían a ese tipo de censuras. La ley fue impugnada y posteriormente suspendida en junio de 1996 por un comité de jueces federales. El comité describió Internet como una conversación planetaria continua que merecía la máxima protección frente a la injerencia gubernamental. Probablemente, la decisión del comité será recurrida ante el Tribunal Supremo de Estados Unidos. La censura en Internet plantea muchas cuestiones. La mayoría de los servicios de la red no pueden vigilar y controlar constantemente lo que dice la gente en Internet a través de sus servidores. A la hora de tratar con información procedente de otros países surgen problemas legales; incluso aunque fuera posible un control supranacional, habría que determinar unos criterios mundiales de comportamiento y ética. Comercialización de la tecnología Comercialización del Internet implicada no solamente el desarrollo de los servicios de red competitivos, privados, pero también del desarrollo de los productos comerciales que ponen la tecnología en ejecución Internet. En los años 80 tempranos, las docenas de vendedores incorporaban el TCP/IP en sus productos porque consideraron a compradores para ese acercamiento al establecimiento de una red. Desafortunadamente faltaron la información verdadera sobre cómo la tecnología fue supuesta para trabajar y cómo los clientes planearon en usar este acercamiento al establecimiento de una red. Mucho sierra él como agregación del fastidio que tuvo que ser pegada encendido a sus propias soluciones propietarias del establecimiento de una red: SNA, DECNet, Netware, NetBios. El DoD había asignado el uso por mandato del TCP/IP en muchas de sus compras pero dio poco ayuda a los vendedores con respecto cómo construir productos útiles del TCP/IP. En 1985, reconociendo esta carencia de la disponibilidad de la información y del entrenamiento apropiado, Dan Lynch en la cooperación con el IAB dispuesto para sostener un taller de tres días para que TODOS LOS vendedores vengan aprende sobre cómo el TCP/IP trabajó y lo que todavía no podría hacer bien. Los altavoces vinieron sobre todo de la comunidad de investigación de DARPA que se había convertido estos 10 protocolos y les había utilizado en trabajo cotidiano. Cerca de 250 personal del vendedor vino escuchar 50 inventores y experimentadores. Los resultados eran sorpresas en ambas caras: sorprendieron encontrar que fueran los inventores así que abierto sobre las cosas de la manera trabajó (y qué todavía no lo hicieron trabajo) y los inventores estuvieron satisfechos para escuchar los nuevos problemas que no habían considerado, pero eran descubiertos a los vendedores por los vendedores en el campo. Así una discusión de dos maneras fue formada que tiene duró por concluído una década. Después de dos años de las conferencias, guías, reuniones del diseño y talleres, un acontecimiento especial fue ordenado que invitó a esos vendedores que productos ejecutaron el receptor de papel del TCP/IP bastante para venir juntos en un sitio por tres días de mostrar de cómo está bien trabajaron todo juntos y también se ejecutaron concluído el Internet. En septiembre de 1988 la primera demostración comercial de Interop fue llevada. 50 compañías hechas cortar a 5.000 ingenieros de organizaciones potenciales del cliente vinieron considerar si toda trabajó como fue prometido. . Por qué? Porque los vendedores trabajaron extremadamente difícilmente para asegurarse de que cada uno los productos interoperated con todos los otros productos − incluso con los de sus competidores. La demostración comercial de Interop ha crecido inmenso desde entonces y se sostiene hoy en 7 localizaciones alrededor del mundo cada año a una audiencia concluído de 250.000 personas que vengan aprender qué productos trabajan con uno a de una manera inconsútil, aprenden sobre los últimos productos, y discuten la última tecnología. En paralelo a los esfuerzos de la comercialización que fueron destacados por las actividades de Interop, los vendedores comenzaron a assistir a las reuniones del IETF que fueron celebradas 3 o 4 veces al año de discutir las nuevas ideas para las extensiones de la habitación del protocolo del TCP/IP. Comenzando con algunos cientos asistentes sobre todo de la academia y pagados por el gobierno, estas reuniones ahora exceden a menudo a mil asistentes, sobre todo de la comunidad del vendedor y pagado por los asistentes ellos mismos. Este grupo self−selected desarrolla la habitación del TCP/IP de una manera mutuamente cooperativa. La razón es así que útil es que está abarcada de todos los tenedores de apuestas: investigadores, utilizadores del extremo y vendedores. La dirección de la red proporciona a un ejemplo de la interacción entre la investigación y las comunidades comerciales. En el principio del Internet, el énfasis estaba en definir y poner los protocolos en ejecución que alcanzaron el interoperation. Mientras que la red creció más grande, llegó a estar claro que alguna vez los procedimientos hoc del anuncio usados para manejar la red no escalarían. La configuración manual de vectores fue substituida por algoritmos automatizados distribuidos, y herramientas mejores fueron ideadas para aislar incidentes. En 1987 llegó a estar claro que un protocolo era necesario que permitiría los elementos de la red, tales como las rebajadoras, para ser manejado remotamente de una manera uniforme. Varios protocolos para este propósito fueron propuestos, incluyendo el Simple Network Management Protocol o el SNMP (diseñado, pues su nombre sugeriría, para la simplicidad, y derivado de una oferta anterior llamada SGMP), los DOBLADILLOS (un diseño más complejo de la comunidad de investigación) y CMIP (de la comunidad de la OSI). Una serie de reunión condujo a las decisiones que los DOBLADILLOS serían retirados como candidato a la estandardización, para ayudar a resolver el conflicto, pero que iría el trabajo sobre el SNMP y CMIP adelante, con la idea que el SNMP podría ser una solución y un CMIP más a corto plazo un acercamiento de más largo plazo. El mercado podría elegir el que encontró más conveniente. El SNMP ahora se utiliza casi universal para la gerencia basada red. En los últimos años, hemos visto una nueva fase de la comercialización. Originalmente, los esfuerzos comerciales abarcaron principalmente los vendedores que proporcionaban a los productos básicos del establecimiento de una red, y a abastecedores de servicio que ofrecían la conectividad y los servicios Internet básicos. El Internet ahora casi se ha convertido en un servicio de la " materia ", y mucha de la última atención ha estado en el uso de esta infraestructura de información global para la ayuda de otros servicios comerciales. Esto ha sido acelerada enormemente por la adopción extensa y rápida de browsers y de la tecnología del World Wide Web, no prohibiendo a utilizadores el acceso fácil a la información conectada a través del globo. Los productos están disponibles para facilitar el aprovisionamiento de esa información y muchos de los 11 últimos progresos de la tecnología se han dirigido que proporcionaban a servicios informativos cada vez más sofisticados encima de las comunicaciones de datos Internet básicas. Historia del futuro De octubre el 24 de 1995, el FNC pasó unánimemente una resolución que definía el término Internet. Esta definición fue desarrollada en la consulta con los miembros de las comunidades de las derechas de característica Internet e intelectual. RESOLUCIÓN: El Federal Networking Council (FNC) conviene que el lenguaje siguiente refleja nuestra definición del término " Internet ". " Internet " refiere al sistema de información global que −− (i) es conectado lógicamente junto por un espacio de direccionamiento global único basado en el Internet Protocol (IP) o su extensions/follow−ons subsecuente; (ii) puede utilizar comunicaciones usando la habitación del protocolo del control Protocol/Internet de la transmisión (TCP/IP) o su extensions/follow−ons subsecuente, y/o el otro IP−compatible protocola; y (iii) proporciona, utiliza o las marcas accesibles, público o privado, los servicios del alto nivel acodados en las comunicaciones e infraestructura relacionada descrita adjunto. El Internet ha cambiado mucho en las dos décadas desde que vino en existencia. Fue concebida en la era del reparto del tiempo, pero ha sobrevivido en la era de ordenadores personales, del servidor de cliente y del par−a−par que computaba, y del ordenador de red. Fue diseñada antes de que existiera LANs, pero ha acomodado esa nueva tecnología de red, tan bien como la atmósfera más reciente y los servicios cambiados marco. Fue previsto como utilizar un rango de funciones del fichero que compartía y remote login al recurso que compartía y colaboración, y ha spawn/generado el correo electrónico y más recientemente el World Wide Web. Pero el más importante, comenzó como la creación de una venda pequeña de investigadores dedicados, y ha crecido para ser un éxito comercial con mil millones de dólares de la inversión anual. Uno no debe concluir que el Internet ahora ha acabado cambiar. El Internet, aunque una red en nombre y geografía, es una criatura del ordenador, no de la red tradicional de la industria del teléfono o de la televisión. , él debe de hecho, continuar cambiando y desarrollarse a la velocidad de la industria del ordenador si debe seguir siendo relevante. Ahora está cambiando para proporcionar a los nuevos servicios tales como transporte en tiempo real, para utilizar, por ejemplo, secuencias audio y video. La disponibilidad del establecimiento de una red penetrante (es decir, el Internet) junto con computar y comunicaciones comprables de gran alcance en la forma portable (es decir, ordenadores de computadora portátil, paginadores de dos vías, PDAs, teléfonos portátiles), está haciendo posible un nuevo paradigma de computar y de comunicaciones nómadas. Esta evolución nos traerá nuevas aplicaciones − el teléfono Internet y, fomentan levemente hacia fuera, la televisión Internet. Se está desarrollando para permitir formas más sofisticadas de la recuperación de la tasación y de coste, un requisito quizás doloroso en este mundo comercial. Está cambiando para acomodar otra generación de las tecnologías de red subyacentes con diversos características y requisitos, del acceso residencial de banda ancha a los satélites. Los nuevos modos del acceso y de las nuevas formas de servicio spawn/generarán las nuevas aplicaciones, que alternadamente conducirán la evolución adicional de la red sí mismo. Presionar la pregunta para el futuro del Internet no es cómo la tecnología cambiará, pero cómo el proceso del cambio y de la evolución sí mismo será manejado. Mientras que este papel describe, la configuración del Internet ha sido conducida siempre por un grupo de la base de diseñadores, pero la forma de ese grupo ha cambiado mientras que el número de partidos interesados ha crecido. Con el éxito del Internet ahora ha venido una proliferación de los tenedores de apuestas − tenedores de apuestas con un económico así como una inversión intelectual en la red. Ahora vemos, en los discusiones concluido el control del espacio y de la forma de los direccionamientos del IP de la generación siguiente, una lucha del Domain Name para encontrar la estructura social siguiente que dirigirá el Internet en el futuro. La forma de esa estructura será más dura de encontrar, dado the.large.number.of tenedores de apuestas en cuestión. En el mismo tiempo, la industria lucha para encontrar el análisis razonado económico para la inversión grande necesitada para el crecimiento futuro, 12 por ejemplo para aumentar el acceso residencial a una tecnología más conveniente. Si no son los tropiezos Internet, él porque faltamos para la tecnología, la visión, o la motivación. Será porque no podemos fijar una dirección y marchar colectivamente en el futuro. Conclusiones y sugerencias Ciertamente la comunicación ha tenido sus avances y sobre todo se ha dejado llevar por las diferentes etapas de la tecnología, estamos viviendo en un mundo de hipertensión y de grandes avances, por es que se hace necesaria la comunicación dentro del ámbito escolar y no escolar, como por ejemplo en las empresas, o en los diferentes grupos sociales siempre se ha tenido como parte de la planeación bien estructurada una asimilación concreta de crecimiento en las diferentes etapas del desarrollo de la investigación, por eso que se da un crecimiento en la comunicación y a su ves llevamos con las diferentes etapas un camino de tecnologías que día a día nos dan mayores facilidades de integración entre los diferentes momentos de la vida personal o comunitaria, creo saber que es de suma importancia conseguir objetivos concretos de los cuales nos vamos sirviendo y nos hacemos cada ves más independientes de esos medios de comunicación, saber que en cuestión de segundos tenemos información de cualquier lado del mundo con solo conectarse con una computadora que contenga los requisitos para una buena comunicación. La sugerencia que doy como estudiante es que no solo a la gente que está interesada por aprender un medio sofisticado de comunicación se le den oportunidades de investigar, sino que se hable de la importancia que tiene el avance tecnológico, pues somos hijos del tiempo de la tecnología y así poder comprender los medios utilizados en la comunicación a nivel mundial y sobre todo del trabajo realizado por gente que trata de hacer más fácil la comunicación. Bibliografía −BRENDAN P. Kehoe; INTERNET DEL ARTE AL ZEN; 1ª. Edición; México 1995. −Medios Electrónicos, Online Organic, Inc; http://home.microsoft.com/intl/es/tutorial; 1996 Microsoft Corporation. −MEDIOS ELECTRÓNICOS, ONLINE SERVICES; http://www.uam.es/docencia/; 1996; Madrid. −Medios Electrónicos, TELNET; Servicio de Ayuda; 1996. −Medios Electrónicos, Información de línea en computadora; Hewlett Packard, 1997. 13