ASIGNATURA: LINGÜÍSTICA GENERAL PROFESORA: ELENA GARAYZÁBAL Tema: Lenguas artificiales - Código binario Grupo de trabajo: Bilyana Aleksieva, Alberto Gómez, Carmen Mendoza, Spela Jenko, Sergio Villanueva 9 de Marzo de 2012 INTRODUCCIÓN GENERAL El código binario es un método de representación de textos o procesadores de instrucciones de ordenador utilizando el sistema binario, un sistema numérico que se basa en la alternancia progresiva y sucesiva de dos dígitos o bit como son el "0" y el “1”. Por ello, estaríamos hablando de un código intermedio propio de un sistema que no es lingüístico, sino lógico-matemático. En ese sentido, aunque no es una lengua en sentido estricto, sí es un sistema de comunicación y transmisión de la información a través del desarrollo de códigos matemáticos y principios de lógica formal que permite desarrollar un volumen de significado suficiente para interpretarlo desde cada una de las lenguas y, recientemente, entre las propias lenguas a través de códigos de traducción existentes entre ellas. De hecho, a nivel universal el número 1" posee un significado de abierto o verdadero y el “0” posee un significado de cerrado o de falso. Del mismo modo, podemos afirmar que posee un sentido artificial basado en las elaboraciones teóricas llevadas a cabo por Shannon desde 1930, que ha sido la base de lo que podríamos denominar “mensaje automático de las máquinas”, y que les habilita para realizar acciones programadas por las personas y desarrolla principios interpretables de manera universal. Dicho proceso es asimilado a los mecanismos de actuación de nuestro cerebro, ya que la sistematización que se lleva a cabo depende del método de adaptación propuesto, un punto que tiende a destacar la psicología funcionalista actual. En ese sentido, posee una complejidad muy grande que sin estructurar la comunicación como las lenguas al uso, sí establece una serie de códigos que concretan y corrigen un sistema de transmisión de información con carácter universal (esto es, comprensible en cualquier circunstancia cuando parte de sus propia codificación). Actualmente, se ha llegado a establecer una teoría de la comunicación matemática que constituye una nueva fase de integración de este modelo dentro del paradigma de la comunicación humana universal. 1. ORIGEN E HISTORIA DEL SISTEMA BINARIO Se podría pensar que el origen del sistema binario esta ligado a la invención de la computadora, pero esto no es así ya que el origen del sistema binario data del s III a.C. cuando el matemático hindú Pingala aportó sus tres características esenciales: decimal, cifrado y posicional (auxiliándose de la palabra sunya [vacío] para representar al cero). Esta peculiaridad es debida a que el sistema binario no nació de la informática, sino de los cálculos matemáticos. Existen analogías en China como el antiguo texto I Ching que contiene 8 trigramas y 64 hexagramas (estructura idéntica a 3 bit) y se conocían números de hasta 6 bit. El sistema binario también fue usado en geomancia medieval y se sabe que algunas tribus africanas transmiten sus adivinanzas en binario. El sistema binario fue tratado por varios filósofos como Francis Bacon en 1605, que defendía la idea de expresar las letras en binario, o Leibniz que explicó el funcionamiento de este sistema en su Explication de l'Arithmétique Binaire. En 1854, el matemático británico George Boole publicó un artículo que marcó un antes y un después, detallando un sistema de lógica que terminaría denominándose álgebra de Boole. Dicho sistema desempeñaría un papel fundamental en el desarrollo del sistema binario actual, particularmente en el desarrollo de circuitos electrónicos. El álgebra de Boole inspiró a Claude Shannon en su tesis Un Análisis Simbólico de Circuitos Conmutadores y Relés, considerada la fundadora del diseño práctico del circuito digital. Gracias a esta tesis Shannon consiguió el Premio a ingenieros americanos del Instituto Americano Alfred Nobel en 1940 y pasó quince años en los laboratorios Bell, que le permitió una asociación muy fructífera con muchos matemáticos y científicos de primera línea como Harry Nyquist, Walter Houser Brattain, John Bardeen y William Bradford Shockley, inventores del transistor; George Stirbitz y Warren Weaver, quien le ayudó en muchos de sus trabajos, como en su The Mathematical Theory of Communication, publicado en 1948. Durante este periodo Shannon estudió diversas áreas, siendo la más productiva la que concernía a la teoría de la información. En 1937 George Stibitz incluyó en su computadora Modelo K el sistema binario para realizar cálculos, gracias a esto los Laboratorios Bell (lugar donde trabajaba Stibitz) financiaron un complejo programa de investigación a finales de 1938, poniendo a Stibitz al mando del equipo. En 1940 terminaron el diseño de una “Calculadora de números complejos”. Dicho invento fue presentado ante la Sociedad Americana de Matemáticas. Stirbitz consiguió enviar comandos de manera remota a la Calculadora de Números Complejos a través de la línea telefónica mediante un teletipo. Fue la primera máquina computadora utilizada de manera remota a través de la línea de teléfono. 3. EL BYTE COMO UNIDAD CUANTITATIVA DE REFERENCIA Es la unidad fundamental de medida para la memoria matemática, principalmente de los ordenadores, siendo su unidad el equivalente a un carácter. Se usa como unidad básica de almacenamiento de datos en combinación con los prefijos de cantidad. Un byte son ocho bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La palabra proviene de inglés y equivale a octeto (es decir a ocho bits). El término lo propuso Werner Buchholz en 1957, por el desarrollo de la computadora IBM 7030 Stretch. En un principio, byte se utilizaba para mencionar las instrucciones de 4 bits, que permitían la inclusión de entre uno y dieciséis bits por byte. Después el diseño de producción redujo el byte hasta campos de 3 bits, lo que permitió entre uno y ocho bits en un byte. Un poco más tarde 8 bits se declaró como un estándar a partir de IBM S/360. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente la "B" mayúscula, mientras que en los francófonos es la "o" minúscula (de octet). El término "octeto" se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos). Los ordenadores son construidos sobre todo en números binarios, así que los bytes se cuentan en potencias de dos (que es por lo que alguna gente prefiere llamar los grupos de ocho bits octetos). 3. TIPOS DE CÓDIGOS DE REPRESENTACIÓN 1) Códigos numéricos. Se utilizan cuando no se emplea el código binario natural para tratar la información numérica. Se dividen en: - Códigos BCD: permiten la representación de dígitos decimales a través de 4 bits. Es la conversión más sencilla decimal – binaria. - Códigos BCD autocomplementarios: se obtienen a partir del código BCD natural. 2) Código Gray. También denominado autorreflejado o cíclico. Es no ponderado y sus códigos paradígitos decimales sucesivos difieren en un sólo bit. El código Gray se puede: - Pasar a binario. - Aplicar a sensores ópticos: se emplea para codificar la posición (angular o lineal) mediante discos o cintas codificadas en Gray, dependiendo del caso. 3) Códigos alfanuméricos. El más generalizado en la actualidad es el denominado ASCII (American Standard Code for Information Interchange). Este es un código de 7 bit. (imagen 1) Un tipo de estos códigos es: - Código de siete segmentos: consiste en el arreglo de siete indicadores luminosos (LED’s) u ópacos (cristal líquido). Mediante displays se sucede la representación de información de tipo numérico. (imágenes 2 y 3). 3.1 Códigos de detección y corrección de errores A veces, se pueden producir errores por polvo en las cabezas lectoras de una unidad de disco o por la incorrecta transmisión de datos a distancia. La información que se transmite por modem, es decir, a través de línea telefónica, por lo tanto tambíen pueden recibirse incorrectamente si la línea tiene ruidos. Las perturbaciones en el suministro de energía eléctrica pueden ser fuentes de alteraciones. Así, entre los códigos para detección y corrección de errores podemos citar: 1) Transmisión en paralelo y en serie Existen dos métodos básicos: - Transmisión de datos digitales en paralelo: se utiliza a distancias reducidas. Ocupa una línea física por cada bit de los datos a enviar. (imagen 4) - Transmisión en serie: se emplea a distancias grandes. Las líneas físicas son menos necesarias. (imagen 5). 2) Código de paridad Consiste en añadir un bit de paridad (p) a cada carácter, normalmente en la posición más significativa. Es ampliamente utilizado, ya que se caracteriza por una secillez. (imagen 6) 3) Código de Hamming Se llama así por el nombre de su creador. Richard Hamming lo idea. Este código detecta y corrige los errores. En él se añaden k bits de paridad a un carácter de n bits, formando un nuevo carácter de n + k bits. Los bits se enumeran empezando por 1, no por 0, siendo el bit 1, el de la izquierda, el más significativo. Todo bit cuyo número sea potencia de 2 es un bit de paridad y todos los demás se utilizan para datos. 4. LA TEORÍA DE LA INFORMACIÓN Shannon y Weaver elaboran su fórmula de cinco elementos y lanzan una teoría matemática de la comunicación en 1948, casi al mismo tiempo que Laswell. Más que un modelo de comunicación se trata de una teoría de la información pensada en función de la cibernética, siendo esta el estudio del funcionamiento de las máquinas, especialmente las electrónicas. Cuando Shannon habla de información, se trata de un sentido totalmente diferente del que nosotros le atribuimos generalmente (noticias de prensa, radio y TV). Para él se trata de una unidad cuantificable que no tiene en cuenta el contenido del mensaje. Podemos decir que el modelo de Shannon se aplica entonces a cualquier mensaje, independientemente de su significación. Esta teoría nos permite estudiar la cantidad de información de un mensaje en función de la capacidad del medio. Según el sistema binario esta capacidad se mide (dos posibilidades 0 o 1) en bites asociados a la velocidad de transmisión del mensaje, pudiendo esta velocidad ser disminuida por el ruido. El modelo de Shannon se representa por un esquema compuesto de cinco elementos que son la fuente, el transmisor, el canal, el receptor y el destino. Dentro de este modelo incluimos el ruido, que aporta una cierta perturbación. La fuente es el elemento emisor inicial del proceso de comunicación, que produce un cierto número de palabras o signos que forman el mensaje a transmitir. El segundo elemento de este modelo es el transmisor que es, a su vez, el emisor técnico. Transforma el mensaje emitido en un conjunto de señales o códigos que serán adecuados al canal encargado de transmitirlos. Como tercer modelo tenemos al canal, que es el medio técnico que debe transportar las señales codificadas por el transmisor. La actividad inversa a la del transmisor y la fuente la realizarían el receptor (o receptor técnico) y el destinatario a través de un canal común. El receptor desarrolla la cuarta función, que consiste en decodificar el mensaje transmitido y vehiculizado por el canal, para transcribirlo en un lenguaje que sea comprendido por el verdadero receptor, que es llamado destinatario y constituye el quinto elemento. Como sexto y último elemento tenemos al ruido; es un elemento que parasita en diverso grado la señal durante su transmisión, como la ``nieve´´ en la pantalla de TV. En el plano visual puede ser una mancha sobre la pantalla. Debemos considerar también el ruido no técnico, esto es, aquel que proviene del contexto psicosocial. Todos los elementos procedentes son considerados como ruidos que pueden, entonces, provenir del canal, del emisor, o del receptor, del mensaje, etc.