DEL UNIVERSO AL ÁTOMO REVISTA CIENTÍFICA [Escriba el título del documento] | [Seleccionar fecha] ESTUDIANTES FISICA III INGENIERÍA 08 jjjjjjjjjjjjjjjjjjjjj Página |2 EDITORIAL El estudio de la física es una herramienta básica para generar nuevas tecnologías en pro del desarrollo industrial e intelectual de las sociedades a nivel mundial, combinado con otras ciencias permiten encontrar un amplio margen de posibilidades que permitan solucionar de maneras cada vez más eficaces los problemas a los cuales la humanidad se ve enfrentada día tras día. En el caso particular del estudio de la física moderna, debemos considerar que en principio nos conduce a una teoría del todo, que permita relacionar todos los saberes de tipo clásico con aquellos que perteneces a los fenómenos electromagnéticos y tratar a partir de esta idea de explicar otro tipo de fenómenos que nunca antes habían sido tratados, un caso que puede ejemplificar esto es el estudio relativamente reciente de los átomos como partículas divisibles dejando atrás conceptos que no proporcionaban información acerca de su estructura. Los beneficios que este tipo de estudios pueden traer en cuestiones de innovación son innumerables, puesto que el desarrollo de nuevas tecnologías está estrechamente ligado al conocimiento de unidades cada vez más pequeñas que permitan realizar ciertos procesos a más bajos costos, puesto que por ejemplo a nivel atómico hay una gran cantidad de energía acumulada, tal y como pudo observarse en la catástrofe de Hiroshima, y si esa energía pudiese emplearse por ejemplo para llevar a cabo procesos que requieran un suministro importante de este reservorio y que permita obtener productos útiles a costos muchos menores. Cabe mencionar de igual forma otro tipo de aplicaciones importantes como el creciente interés de desarrollar computadores cuánticos, que permitan manejar mucha más información en unidades cada vez más pequeñas, es el caso de la nanotecnología, que lleva ya algún tiempo como la tecnología de punta a nivel de información. En general el conocimiento de el mundo que comprende la mecánica moderna permite dar nuevas ideas a progresos que cada vez faciliten mas el trabajo de la humanidad. EDITOR: Jaime Villalobos DIRECTORA: Natalia Collazos REVISION: David Alejandro Peña Página |3 INDICE 1. Aplicaciones de la mecánica cuántica. N. Collazos. Págs 2. Agujeros Negros 3. Gran colisionador de Hadrones podrá activar la física moderna. 4. Del arjé al modelo Standard 5. Teoría de la absorción 6. Hipótesis ondular de De Broglie, mecánica cuántica para ver el mundo de lo pequeño. 7. Desarrollo del laser y la fibra óptica Página |4 Aplicaciones de la mecánica cuántica N, Collazos1 1Departamento de ingeniería Química, Universidad Nacional de Colombia, Bogotá, Colombia RESUMEN La Computación Cuántica, aplicación destacada de la mecánica cuántica, ha permitido desarrollar de forma práctica algunas teorías que describen el extraño, complejo e interesante comportamiento de las partículas microscópicas, para ser desarrolladas a nivel tecnológico. Esta importante aplicación ha llevado al desarrollo en las telecomunicaciones e informática, abriendo paso a nuevos dispositivos electrónicos, que facilitan el manejo de la información, así como aquellos que aseguran la confidencialidad del material que se desea transferir. Por otra parte, permite ejecutar innovadores algoritmos diseñados para facilitar trabajos experimentales, científicos, industriales, entre otros. Actualmente, se continúa investigando y trabajando en el avance aplicativo de este campo mecánico cuántico, con el objetivo de llevar a hechos reales las conclusiones de las teorías cuánticas del nuevo siglo. Palabras claves: Computación cuántica, telecomunicaciones, informática, algoritmo. ABSTRACT The Quantum Computation, application distinguished from the quantum mechanics, it has allowed to develop of practical form some theories that they describe the stranger, complex and interesting behavior of the microscopic particles, to be developed to technological level. This important application has led to the development in the telecommunications and computer science, opening passage to new electronic devices, that facilitate the handling of the information, as well as those that assure the confidentiality the material that is desired to transfer. On the other hand, it allows executing innovators designed algorithms to facilitate experimental, scientific, industrial works, among others. Nowadays, it is continued investigating and being employed at the advance applicative of this mechanical quantum field, with the objective to take to real facts the conclusions of the quantum theories of the new century. Keywords: Cuantic computer, telecommunications, computer science, algorithm. La mecánica cuántica, área de mayor importancia en la física moderna, ha permitido estudiar a nivel teórico y, en algunos casos práctico, el comportamiento de las partículas subatómicas y su dinámico en el mundo microscópico. Aunque la mayoría de los experimentos realizados en las últimas décadas son netamente mentales, por ejemplo, el experimento de el Gato de Schrödinger, se han logrado desarrollar bastantes aplicaciones tecnológicas basados en el comportamiento el espacio cuántico; como la Química Cuántica, la criptografía de clave cuántica, el teletansporte cuántico, la óptica de laser cuántica, y la Computación Cuántica, una de las más sobresaliente científica y tecnológicamente. Hacia 1981 surge el concepto de computación cuántica cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación, en lugar de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de un cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1, en cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición: puede ser 0, 1 y puede ser un 0 y un 1 a la vez (dos Página |5 estados ortogonales de una partícula subatómica), lo cual permite que se puedan realizar varias operaciones a la vez, según el número de qubits. Posteriormente en 1982, el Dr. Richard Feynman, físico del California Institute of Technology en California (EE.UU.) realizó una ponencia durante el "First Conference on the Physics of Computation" realizado en el Instituto Tecnológico de Massachusets (EE.UU.), donde expuso una conferencia bajo el título de "Simulating Physics With Computers", en la cual proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y exponía que dada su naturaleza algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico. Tres años mas tarde, David Deutsch, este físico israelí de la Universidad de Oxford, Inglaterra, describió el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico, conocido como principio de Church-Turing ampliado. Así, surgió la idea de que un computador cuántico podría ejecutar diferentes algoritmos cuánticos. I LUSTRACIÓN 1. P RIMER COMPUTADOR CUÁNTICO EN LA HISTORIA Durante la década de los 90, luego de muchos trabajos investigativos respecto al tema, aparecen los primeros algoritmos cuánticos, aplicaciones cuánticas y artilugios capaces de realizar cálculos cuánticos; entonces en 1994 Peter Shor, científico americano de AT&T Bell Laboratories definió el algoritmo que permite calcular los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional, su algoritmo también permitía romper muchos de los sistemas de criptografía utilizados en la época. Con esto se demostró que la computación cuántica se trataba de un campo de investigación con un gran potencial. En 1997, comenzaron los primeros experimentos prácticos implementando la teoría desarrollada en el pasado, uno de éstos, fue un experimento de comunicación utilizando criptografía cuántica a una distancia de 23 kilómetros, por otra parte también fue posible realizar la primera teletransportación cuántica de un fotón. Posteriormente, investigadores del Instituto Tecnológico de Massachussets propagaron el primer Qbit por medio de una solución de aminoácidos, siendo este el primer paso para analizar la información que transporta un Qbit. También, nació la primera máquina de 2-Qbit, presentada en la Universidad de Berkeley, California (EE.UU.). En 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3-Qbit y además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover1. A partir del presente siglo, se fueron consiguiendo sucesivos avances en este campo de aplicación empezando por Isaac Chiang, dirigente de IBM2, quien en el año 2000 creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de búsqueda 1 Lov Grover inventó el algoritmo de búsqueda de datos, se trata de un algoritmo probabilístico con un alto índice de acierto. 2 International Business Machines Página |6 de orden, que forma parte del Algoritmo de Shor, ya mencionado; en este mismo año científicos de Los Álamos National Laboratory (EE.UU.) anunciaron el desarrollo de un computador cuántico de 7Qbit, utilizando un resonador magnético nuclear para aplicar pulsos electromagnéticos y permitiendo emular la codificación en bits de los computadores tradicionales. En los años siguientes hasta el 2006, se fueron presentando por diversos institutos científicos y tecnológicos mejoras en el funcionamiento de las computadoras cuánticas, llegando desarrollar un sistema de 12-Qbits. En el 2007 la compañía canadiense D-Wave presenta su primer computador cuántico de 16 Qbit: I LUSTRACIÓN 2. P RIMER COMPUTADOR CUÁNTICO DE 16Q BIT incluyendo aplicaciones como un sistema gestor de bases de datos y un algoritmo que soluciona Sudokus. Todo ello a través de una interfase gráfica similar a la utilizada en los computadores actuales, tratándose del primer acercamiento de la computación cuántica al mundo comercial y no tan científico. En septiembre del mismo año, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de superconductores, apareciendo el primer bus cuántico dispositivo utilizado como memoria cuántica reteniendo la información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente punto de conexión. Luego de la breve reseña presentada acerca de cómo evoluciono el concepto iniciado por Paul Benioff, se dará una descripción general de lo que significa técnicamente un computador cuántico y la base de su funcionamiento. En la computación cuántica, a diferencia de la computación actual donde cada bit puede estar en un estado discreto y alternativo a la vez, la unidad fundamental de almacenamiento es el qubit (bit cuántico), donde cada qubit puede tener múltiples estados simultáneamente en un instante determinado, disminuyendo el tiempo de ejecución de algunos algoritmos. La computación cuántica está basada en las interacciones del mundo atómico, y tiene elementos como el bit cuántico, las compuertas cuánticas, los estados confusos, la teleportación cuántica, el paralelismo cuántico, y la criptografía cuántica. Un computador cuántico, pretende utilizar un principio básico de la mecánica cuántica por el cual todas las partículas subatómicas tienen una propiedad asociada llamada spin, éste se asocia con el movimiento de rotación de la partícula alrededor de un eje, dicha rotación puede ser realizada en un sentido, o en su opuesto. Por ejemplo si se toma como bit al spin de un protón, se puede usar una dirección como 1 y otra como 0. Estos bits, tomados a partir del spin de las partículas son los que han recibido el nombre de qubits (bits cuánticos). No obstante, en mecánica cuántica el estado de una partícula se determina a través de la asignación de una probabilidad, no Página |7 podemos hablar de un estado 0 ó 1 claramente determinado. Esta es la ventaja que tiene la computación cuántica respecto a la clásica, la lógica de un bit es 0 ó 1, mientras que un qubit entraña el concepto de ambos a la vez. La computación cuántica, aprovecha la superposición cuántica, para lograr el paralelismo cuántico y el paralelismo cuántico masivo. Los elementos básicos de funcionamiento en computación cuántica son: 1. El bit cuántico "qubit": Un qubit (del inglés qubit, de quantum bit) es un estado cuántico en un espacio vectorial complejo bidimensional, es la unidad mínima de información cuántica. Sus dos estados básicos se llaman, convencionalmente, |0> y |1> (se pronuncian: ket cero y ket uno). Un estado qubital puro es una superposición cuántica de esos dos estados. Esto es significativamente distinto al estado de un bit clásico, que puede asumir solamente un valor 0 ó 1. 2. Compuertas cuánticas: Las compuertas lógicas son operaciones unarias sobre qubits. La compuerta puede ser escrita como : Donde θ=ωt. Aquí cuánticas elementales: dos compuertas Donde I es la identidad, X es el análogo al clásico NOT. Estas compuertas forman parte de uno de los más pequeños grupos de la computación cuántica. 3. Entrelazamiento cuántico ó "Entanglement" :la capacidad computacional de procesamiento paralelo de la computación cuántica, es enormemente incrementada por el procesamiento masivamente en paralelo, debido a una interacción que ocurre durante algunas millonésimas de segundo, este fenómeno de la mecánica cuántica es llamado "entanglement". Debido a este suceso, dos partículas subatómicas, permanecen indefectiblemente relacionadas entre si, si han sido generadas en un mismo proceso, las cuales subsistemas que no pueden describirse separadamente. Cuando una de las dos partículas sufre un cambio de estado, la otra lo sufre automáticamente, y eso ocurre de forma instantánea y con independencia de la distancia que las separe en ese momento. Esta característica se desencadena cuando se realiza una medición sobre una de las partículas. 4. Teleportación cuántica: La teleportación cuántica ha sido descrita como la posibilidad de "transmitir qubits sin enviar qubits". En la computación cuántica no es posible clonar, copiar, o enviar qubits de un lugar a otro como se hacen con los bits. Si se envía un qubit ket cero donde 0 es un estado desconocido, el receptor no podrá leer su estado con certidumbre, cualquier intento de medida podría modificar el estado del qubit, por lo tanto se perdería su estado, imposibilitando su recuperación. La teleportación cuántica, resuelve este problema, basándose en el "entanglement" para poder transmitir un qubit sin necesidad de enviarlo. El emisor y el receptor poseen un par de qubits "enredados" (entangled), Página |8 entonces el qubit es transmitido desde el emisor, desaparece del emisor y en el receptor reaparece el qubit . 5. Paralelismo cuántico: La superposición cuántica permite un paralelismo exponencial o paralelismo cuántico en el cálculo, mediante el uso de las compuertas lógicas de qubits. Esto hace que los ordenadores cuánticos sí sean eficaces en el cálculo de periodos, hasta el punto de que se reduce a un tiempo polinómico lo que requeriría un número exponencial de pasos en una máquina clásica. 6. Criptografía cuántica: La criptografía cuántica es una de las primeras aplicaciones de la computación cuántica cercana a una fase de producción masiva, garantizando absoluta confidencialidad de la información transmitida por fibras ópticas, almacenando información en el elemento constituyente de la luz, el fotón. Estos son los principales elementos utilizados en la computación cuántica, y sobre los cuales se continúa trabajando e investigando para lograr mayores avances respecto al tema, con el fin de mejorar las diversos aspectos tecnológicos en el campo de las telecomunicaciones y la informática. REFERENCIAS 1. Computación Gutiérrez Vicario Cuántica. Alejandro http://www.lcc.uma.es/~pastrana/EP/traba jos/50.pdf 2. Computación Cuántica. Jose Polli http://www.monografias.com/trabajos60/c omputacion-cuantica/computacion- Página |9 Agujeros Negros F, Muñoz2 2Departamento de ingeniería Química, Universidad Nacional de Colombia, Bogotá, Colombia RESUMEN: Los agujeros son cuerpos con una masa inmensa, casi infinita, dentro de un volumen casi nulo, y por ello poseen fuerzas gravitacionales tan grandes que ni siquiera la luz, ni ningún tipo de radiación, nada, puede escapar de ellos. Debido a que no permiten la emisión de luz, la única forma de detectarlos, es a través de métodos indirectos, observando los cambios que causan en su entorno. ABSTRACT: The holes are bodies with an immense, almost infinite mass, inside an almost void volume, and for it there possess gravitational forces so big that not even the light, or any type of radiation, nothing, can escape of them. Due to the fact that they do not allow the emission of light, the unique way of detecting them, it is across indirect methods, observing the changes that they cause in its environment. Desde siempre el hombre se a preguntado que hay más allá del mundo que vemos, cual es la verdadera realidad de lo que nos rodea, como explicar aquello con lo que vivimos, como explicarnos a nosotros mismos. Ciertamente, el tratar de contestar todas estas interrogantes es tarea muy dura, y como siempre, cada vez que se logra explicar algo, se producen muchas más interrogantes. Este el caso del universo. Desde que logramos poder interpretar de forma correcta a las estrellas, y todos los cuerpos celestes, el hombre ha quedado intrigado con todo lo que descubre, y más aun, cuando se da cuenta que todo lo que sabía en la tierra, en la inmensidad del espacio ya no se cumple. Uno de los puntos más interesantes es la temática de los agujeros negros, que se definen como cuerpos con una masa casi infinita, que ocupan en un volumen mínimo, casi nulo, y que por ello poseen una fuerza gravitacional enorme. Pero para poder entender bien a que son agujeros negros, es preciso saber cómo es el origen de los mismos. Se conoce que un agujero negro, es aquello que queda después de la muerte de una estrella, más específicamente de gigantes rojas, en este sentido no todas las estrellas cuando mueren pasan a ser agujeros. Para que pueda lograr eso debe cumplir una serie de requisitos. Principalmente las estrellas se forman por acumulación de cantidades enormes de gas, en especial hidrogeno, y por efectos gravitatorios estas partículas colapsan y liberan enormes cantidades de energía, esta energía liberada es la que le da el brillo característico a cada una. Como ejemplo nuestra estrella más cercana, nuestro sol, está en estado de equilibrio, es decir, la acumulación y contracción de los gases ha cesado y tiende a mantenerse estable. Luego de este punto, hay una fase de expansión, por la continua acumulación de gases. En este instante entra un personaje llamado Subrahmanyan Chandrasekhar, quien estudio acerca la formación de estrellas, y descubrió el alcance másico P á g i n a | 10 máximo que una estrella puede alcanzar antes de agotar su combustible interno, en otras palabras, la masa limite que puede soportar una estrella sin colapsar ante su misma fuerza de gravedad. Esta masa según él, es equivalente a 1,5 veces la masa del sol. Este límite es importante pues define el tipo de estrellas. Debajo de este se encuentran las enanas blancas y las estrellas de neutrones. El caso especial era lo que sucedía con las estrellas que estaban por encima de este límite. En particular, cuando una estrella supera ue es un cuerpo que no emite ningún tipo radiación, de ahí su nombre. Este problema de emisión hace casi imposible saber la existencia de un agujero negro, y es por eso que se sabe de ellos gracias a mediciones indirectas, sus efectos sobre el entorno. Una de las formas indirectas de detección y estudio de agujeros negros es el análisis de sistemas binarios, refiriéndose a estos como los sistemas de agujero negro y estrella siendo absorbida. Los agujeros negros como tal no emiten ningún tipo de radiación, pero sin embargo son los causantes de la emisión de rayos x, producto de la estrella que es fagocitada por este. Cuando se conoce el lugar de la emisión, es posible calcular la masa del agujero negro causante de esta. Esto es posible debido a que se trata de un objeto en rotación, lo que permite calcular el radio y la velocidad de su constitución y, de ello, calcular el peso de su parte central. De acuerdo a la masa, se conocen agujeros negros del tipo supermasivo, con una masa equivalente millones de veces a la del sol, los cuales son los que se encuentras en el centro de las galaxias, y son debido a las cuales están giran. Y otros de tipo masa estelar, que son del orden de 3 veces la masa del sol, producto la implosión de las estrellas. Dentro del estudio de los sistemas binarios, recientemente se descubrió un nuevo tipo ese límite másico, los rayos de luz emanados por esta empiezan a ser atraídos hacia ella misma, como en forma de boomerang. Este fenómeno observado desde lejos es como ver a la estrella perder su brillo, y tornarse de forma roja. Cuando se encuentre en un radio crítico, la masa aumenta de forma exponencial, y ni la luz podrá escapar a debido a esta gravedad. Una vez alcanzado este extremo, estaremos hablando de agujeros negros. La característica más importante de un agujero negro, es que debido a su enorme masa, nada puede escapar de él, y es por eso que se dice q de formación de agujeros negros. Cygnus X-1 es el nombre que se le dio a una fuente de rayos X en la constelación Cygnus, descubierta en 1962 por Félix Mirabel, quien publicó sus resultados en Science de abril del 2003, y los cuales describe lo que encontró de particular en este sistema binario. De acuerdo a Mirabel, Cygnus X-1 permanece en posición constante, desde que nació, aproximadamente hace cinco millones de años. Esto lo explica, argumentando que el nacimiento de este agujero negro no fue producto de la explosión de una supernova, la cual, hace que tanto el agujero negro formado y sus estrellas cercanas salgan expulsadas a gran velocidad por el espacio, si no que por el contrario, ese agujero negro en especial, fue producto entre el choque dos estrellas supermasivas, las cuales debido a su inmensa fuerza de gravedad, no permitieron la expulsión de materia ni de luz si no que causaron una implosión totalmente silenciosa. A este tipo de creación de agujero negro se denomino: formación de agujeros negros en la oscuridad. Estos han sido los últimos y más importantes avances sobre los agujeros negros. Solo hasta estas últimas décadas es que se ha venido entendió mejor a estos cuerpos del espacio profundo. Todavía es muy poco lo que se conoce acerca de ellos y del Universo en sí. Apenas se está comprendiendo su formación, todavía hay un gran camino antes de poder saber qué P á g i n a | 11 es lo que en verdad son y como que funcionan. Ellos son uno de los más ellos esta la puerta a otras dimensiones, todo lo que se dice son simples especulaciones, responder estas preguntas, y todas las que de ellas se puedan derivar F IGURA 1. S ISTEMA BINARIO C YGNUS X-1. Referencias: http://www.cosmopediaonline.com/a n_deteccion.html http://html.rincondelvago.com/agujer os-negros_5.html http://www.prodiversitas.bioetica.org/ prensa59.htm http://www.geocities.com/angelto.ge o/bhole/comose.html http://axxon.com.ar/not/126/c126InfoAgujeroNegro1.htm http://es.wikipedia.org/wiki/Agujero_n egro grandes acertijos, saber qué pasa con la materia que absorbe, si es verdad que en hace parte de los desafíos de este nuevo siglo. P á g i n a | 12 Gran Colisionador de Hadrones pondrá a activar la Física Moderna A, Moreno3 3Departamento de ingeniería Química, Universidad Nacional de Colombia, Bogotá, Colombia RESUMEN: El Gran Colisionador de Hadrones o LHC (como generalmente es conocido), permitirá llevar a cabo un importante experimento, cuyo desarrollo inició en 1999 en el Laboratorio Europeo de Física de Partículas, con sede en Ginebra (Suiza), perteneciente a la Organización Europea para la Investigación Nuclear – CERN. Dicho experimento consiste en recrear las condiciones presentes menos de una billonésima de un segundo después del Big Bang, con el fin de ver cómo se crearon las unidades indivisibles que conforman nuestro Universo, para examinar la validez y límites del Modelo Estándar, y de esta forma quizás encontrar la explicación de la naturaleza del cosmos, o en otras palabras llegar a la comprensión total de todo. Palabras clave: LHC, Big Bang, Modelo Estándar, naturaleza del cosmos. ABSTRACT: Large Hadron Colliders or LHC (as is generally known), will conduct an important experiment, whose development began in 1999 at the European Laboratory of Physics of Particles, in Geneva (Switzerland), belonging to the European Organization for Nuclear Research - CERN. This experiment is to recreate the conditions present less than a billionth of a second after the Big Bang, in order to see how they are created units that indivisible make up our universe, to examine the validity and limits of the Standard Model, and in this way perhaps find the explanation of the nature of the cosmos, or in other words reach the full understanding of everything. Keywords: LHC, Big Bang, Standard Model, the nature of cosmos. Desde tiempos remotos la humanidad se ha hecho las mismas preguntas acerca de su existencia y del universo en general, preguntas que numerosos científicos y físicos, entre otros, han intentado responder mediante investigaciones y teorías propuestas. agrupó polvo y gas para formar las estrellas, las cuales se agruparon para formar galaxias, en una de las que se formó el planeta Tierra, 9 mil millones de años después del Big Bang, hecho que es sabido gracias a un descubrimiento realizado hace unos 300 años, el de la velocidad de la luz. Es así como en la actualidad se ha planteado un experimento en especial, experimento que promete aclarar muchas de las dudas existentes, y llevar a la humanidad a una nueva época de entendimiento acerca de todo lo que le rodea. La luz, la que permite adentrarse visualmente al pasado en cualquier momento en que se observe el universo. Por lo tanto, se plantea que cuanto más lejos se vea, más y más cerca se estará del principio de todo lo conocido, es decir, del Big Bang. El inicio El Universo surgió de la nada, no estaba en ningún lugar porque antes de él el tiempo ni el espacio existían, pero de algún modo, de aquella nada surgió el todo. Primero se Antecedentes A partir de lo postulado por Albert Einstein, cerca de 1905, por medio de lo cual muestra que una partícula con masa posee un tipo de energía diferente a las energías cinética P á g i n a | 13 Inicialmente se creía que los neutrones y los protones eran las únicas partículas presentes en el núcleo atómico, sin embargo, por medio de experimentos e investigaciones, los físicos llegaron a comprender que estas, así como otras partículas subatómicas se I LUSTRACIÓN 1: P ARTÍCULAS encuentran S UBATÓMICAS . compuestas por elementos más simples llamados quarks y leptones, los cuales interaccionan entre ellos por el intercambio de bosones [1]. En cuanto a las investigaciones científicas se puede enfatizar la de Lederman junto a Schwartz y Steinberger, la cual se centró en un método de detección de neutrinos que permitió demostrar la doble estructura de los leptones, descubrimiento que permitió, entre 1970 y 1973, elaborar el esquema conocido como Modelo Estándar, para la clasificación de las partículas elementales. El experimento El LHC lo que hará es intentar recrear el momento justo después del Big Bang en un entorno controlado, dentro de unos gigantescos detectores, para investigarlo detenidamente. Este acelerador de partículas, se encuentra en el Laboratorio Europeo de Física de Partículas (CERN), con sede en Ginebra (Suiza), centro fundado en 1954, y que es considerado el mayor del mundo dedicado a la investigación en el campo de la física de partículas. El Colisionador, ubicado a 100 m de profundidad, consiste en un túnel circular de 27 kilómetros, el cual está lleno con 2000 electroimanes superconductores y un acelerador de partículas; los imanes, de niobio y titanio, serán los encargados de acelerar y controlar los haces de partículas. Alrededor del túnel se crearon enormes recintos, en cuyo interior se montaron las cámaras más complejas hasta la fecha para detectar a las partículas. En el centro de la máquina, unas partículas subatómicas llamadas protones, se acelerarán hasta llegar casi a la velocidad de la luz (99% c). Hay un rayo de protones que llega en una dirección y un rayo de protones que gira en sentido opuesto, por lo tanto, los dos haces chocan o colisionan de frente, ocurriendo de esta manera unas 800 millones de colisiones por segundo, y liberando energías muy altas (a escala subatómica). Dichas colisiones se basan en la ecuación de la energía dada por Einstein. De aquel proceso, en el que se fragmentan los protones, un campo magnético generado por el detector, separa los distintos tipos de materia, entre estos pedazos se pueden encontrar las unidades indivisibles que componen nuestro universo (algunas sólo existen durante muy corto tiempo), y en las imágenes que se adquieren se podrá vislumbrar los primeros momentos posteriores al Big Bang [7]. Todos los datos adquiridos serán analizados y recopilados por una red de computación del LHC, de gran capacidad, debido al gran flujo de información será enorme. Todos esos datos se pretende serán enviados a instituciones académicas de Asia, Europa y Norteamérica. Con el experimento se pretende principalmente, examinar la validez y límites del Modelo Estándar. Lo que se espera es que una vez esté en funcionamiento, se detecte la partícula conocida como el bosón de Higgs, la cual es netamente teórica. La observación de ésta llevaría a la confirmación de las predicciones y a la muestra de los enlaces faltantes en el Modelo Estándar, permitiendo explicar cómo las demás partículas elementales ya conocidas o por conocer, adquieren propiedades como su masa. | y potencial, “energía en reposo”, dada por la conocida ecuación E=mc2, se empezó a indagar aún más acerca de las partículas fundamentales del átomo. P á g i n a | 14 Además, la verificación de la existencia de dicho bosón sería un gran paso en la búsqueda que se lleva a cabo hace varios años, una Teoría de la gran unificación, la cual pretende unir cuatro de las fuerzas fundamentales hasta ahora conocidas, descartando la gravedad, siendo ésta la más débil de todas. Todo lo anterior, es por lo cual la Física Moderna ha estado esperando por más de 40 años, ya que todos aquellos cálculos de la física, hasta ahora realizados, necesitan pruebas evidentes, pruebas que confirmen las teorías ya previstas. En general, todos estos nuevos descubrimientos que se lleven a cabo, pueden abrir nuevos campos en la investigación científica, y llevar de esta forma, a una mejor comprensión del Universo y de todas las fuerzas que en él intervienen. Lo que ha ocurrido El día 10 de Septiembre de 2008 se realizó la primera inyección y circulación de un haz de millones de protones en el LHC, pero se planeaba realizar el choque de partículas hasta octubre. Sin embargo, un daño en el I LUSTRACIÓN 2: P ARTÍCULAS F UNDAMENTALES DEL M ODELO E STÁNDAR . equipo, unos pocos días después de la inyección, obligó a parar el experimento I LUSTRACIÓN 3: V ISTA DE UNA SECCIÓN DEL LHC. hasta el verano del 2009. Lo que ocurrió fue debido a una conexión eléctrica defectuosa entre dos de los imanes del acelerador, este hecho llevó a que se diera una fuga de helio en un sector por el cual deben circular partículas. Dicha fuga quebrantó la situación de vacío necesaria para que circulen los haces de protones, los cuales requieren un vacío absoluto [5]. A pesar de todo ello, el Gran Colisionador de Hadrones fue inaugurado el 21 de octubre de 2008, donde los responsables del CERN aseguraron que lo sucedido no cambia en ninguna manera las perspectivas que se abren con el proyecto, el cual ha llevado más de 20 años de planeación. Es así como, según Ferrer (catedrático de física de la Universidad de Valencia y coordinador del proyecto Atlas), se está muy cerca de entrar a “una etapa decisiva y fantástica”, por medio de “la mayor aventura tecnológica emprendida por el ser humano”. En conclusión, es posible decir que el LHC es el proyecto más ambicioso hasta el momento, debido a su magnitud y a lo que se pretende con él. El Colisionador intentará recrear el momento más cercano al Big Bang y así permitirá descubrir nuevas cosas acerca del Universo, su inicio y desarrollo; permitiendo analizar la validez de muchas de las teorías hasta ahora propuestas en el campo de la física. Referencias [1] http://es.wikipedia.org/wiki/Part%C3%ADcul a_elemental | Por otro lado, los más de 2000 físicos que llevan varios años trabajando en este proyecto, confían en que el LHC de respuesta a muchas de las preguntas que se han generado desde siempre, como qué es la masa, cuántas son las partículas del átomo, qué es exactamente la materia oscura, hay tantas dimensiones como propone la teoría de cuerdas. P á g i n a | 15 [2] http://es.wikipedia.org/wiki/Modelo_est%C3 %A1ndar_de_f%C3%ADsica_de_part%C3 %ADculas [5] http://www.elperiodico.com/default.asp?idpu blicacio_PK=46&idioma=CAS&idnoticia_PK =562976&idseccio_PK=1021 [3] http://www.soitu.es/soitu/2008/09/10/actualid ad/1221033864_312935.html [4] http://www.nature.com/nature/journal/v448/n 7151/full/nature06079.html [6] http://specialeyes.blogspot.com/2008/09/lhcworld-may-end-tomorrow.html | [7] “El experimento de los 6000 millones” – Documental P á g i n a | 16 Del Arjé al Modelo Standard F, Anaya4 RESUMEN ABSTRACT La estructura de la materia desde tiempo atrás ha sido un enigma por resolver, los griegos y tal vez otras civilizaciones antiguas buscaron manera de dar respuesta a este interrogante. Las ideas de los griegos se mantuvieron por muchos siglos, durante los cuales en algunos momentos fueron olvidados y en otros resurgieron con fuerza, hasta comienzos del siglo XIX cuando John Dalton enunció su ley retomando la postura atomista de Demócrito. Desde ese entonces, se empezó a desentrañar la estructura interna del átomo que alguna vez se creyó indestructible. Se llegó al conocimiento de los electrones, protones y neutrones, pero se ha llegado más lejos que esto entrando en un universo diminuto en la búsqueda de las partículas que realmente constituyen todo el universo, teorías casi completamente demostradas como el Modelo Standard de la física de partículas y el trabajo arduo de como Organizaciones investigativas como el CERN, buscan la verdad absoluta en las entrañas de la materia. The structure of the matter from time behind has been an enigma to solve, the Greek ones and perhaps other old civilizations looked for way to give answer to this query. The ideas of the Greek stayed for many centuries, during which were forgotten in some moments and in others they resurged with force, until beginnings of the XIX century when John Dalton enunciated his law recapturing the posture atomist of Demócrito. From this then, one started uncovering the internal structure of the atom that at some time one believed indestructibly. It came near to the knowledge of the electrons, protons and neutrons, but it has arrived farther than this almost completely entering in a tiny universe in the search of the particles that they really constitute the whole universe, theories demonstrated as the Standard Model of the particles physics and the arduous work of as investigative Organizations as CERN, they look for the absolute truth in the bowels of the matter. Naturalmente, la explicación de los fenómenos de la naturaleza ha sido una constante búsqueda a lo largo de la historia de la humanidad. En primera instancia fueron las creencias mitológicas las que daban una razón de ser a la existencia misma del hombre y un por qué al mundo que nos rodea. El pensamiento evolucionó y el ser humanó ha encontrado formas más sistemáticas y racionales de entender la realidad en las cuales aparecen causas naturales y leyes necesarias. Un problema común en este proceso ha sido describir un componente primordial del cual están constituido todo lo existente, problema al cual surgieron alguna vez respuestas un tanto filosóficas y desde entonces se ha avanzado mucho. Se ha llegado a conocer que a materia está constituida por átomos, pero más allá de eso se ha profundizado en el conocimiento de partículas aun más pequeñas que constituyen este último entrando en el estudio de las denominadas partículas elementales. En la actualidad se sigue trabajando de manera ardua, organizaciones de investigación como el CERN que investigan en lo que hoy se denomina Física de Partículas buscan | 4 Departamento de ingeniería Química, Universidad Nacional de Colombia, Bogotá, Colombia P á g i n a | 17 muchas respuestas, o verificaciones a respuestas planteadas como propuestas. La pregunta planteada surge al ser formalmente respondida. El conocimiento de la naturaleza encontró un nivel mas organizado con los griegos. Los presocráticos fueron los primeros en preocuparse por la Physis (naturaleza), Tales de Mileto decía que todos los seres y la naturaleza estaban conformados por agua o transformaciones de ella, de manera similar, discípulos de su escuela tenían ideas similares, para Anaxímenes era el aire la materia prima de todo lo existente. De manera más abstracta Anaximandro decía que la materia fundamental de todo era el Apeirón. Otros sabios griegos tenían ideas similares, para Aristóteles todo lo existente era conformado por los cuatro elementos fundamentales aire, fuego, tierra y agua (y uno más, el éter), además consideraba que la materia era continua, es decir que era infinitamente divisible. Demócrito, contemporáneo de Aristóteles, contrario a este último, pensaba que la materia era finitamente divisible, aunque no tenia forma de demostrarlo pensaba que si se dividía muchas veces una porción de materia, llegaría un punto en el que no se podría continuar. A esta porción le llamo a-tomo que en griego significa indivisible. El Arjé es ese principio independiente, fundamento de la existencia que buscaban los presocráticos, el ente fundamental de la materia y de la vida. La postura atomista de Demócrito tuvo largos periodos de olvido y resurgió en otros con fuerza. Fue a comienzos del siglo XIX, que John Dalton retomo de manera clara esta idea, tras los avances realizados en el conocimiento de los elementos y compuestos químicos. Dalton dijo que la materia estaba formada por átomos, unidad fundamental, indivisible e indestructible cuya naturaleza y propiedades son iguales para átomos del mismo elemento y diferentes para átomos de distintos elementos, y estos a su vez se combinan para formar las moléculas en proporciones sencillas y definidas. Por lo anterior en el año de 1803 se consideraba el átomo como la partícula elemental de la cual está constituido todo. Durante el siglo XIX se lograron grandes avances para la física en la explicación de los fenómenos de la electricidad y el magnetismo. Se presumía entonces que debían existir átomos con carga para que se produjeran dichos fenómenos. Fue en el año de 1898 que Thomson tras ciertos experimentos encontró que la masa de la partícula que contenía la carga era mucho más pequeña que la masa de un átomo, por tanto no podría ser este el portador de la carga. En su modelo atómico Thomson propone una masa con carga positiva en la que se encuentran sumergidas partículas negativas distribuidas de tal forma que el átomo en su conjunto es eléctricamente neutro, las partículas negativas fueron llamadas: Electrones. Fue de esta manera que se encontró que el átomo que se creía indivisible, en realidad no lo era, se halló entonces una partícula más pequeña que éste. A Ernest Rutherford se le atribuye el descubrimiento del protón. Cuando se buscaba comprobar experimentalmente el modelo propuesto por Thomson él propuso su famoso experimento, consistía en un haz de rayos α que se disparaba sobre una delgada lámina de vidrio, y detrás de ella había un detector de sulfuro de zinc. Al realizar este experimento se encontró que algunos rayos α se desviaban con ángulos muy grandes que no podía explicar el modelo de Thomson. Cuando propuso su modelo atómico, simplemente habló de los electrones que había introducido Thomson, pero él decía que estos giraban alrededor de un núcleo en el que se concentraba toda P á g i n a | 18 la carga positiva. Años más tarde realizó un experimento similar bombardeando nitrógeno con partículas α, encontrando que contenía núcleos de hidrógeno, fue entonces cuando propuso que el núcleo de hidrógeno, que hoy sabemos es un único protón, debía ser una partícula elemental A este punto encontramos que a comienzos del glorioso sigo XX en el que la física fue revolucionada por grandes genios como Max Planck y Albert Einstein, ya no se consideraba él átomo como la unidad indivisible e indestructible como lo dijo Dalton en su ley, un nuevo mundo empezaba a abrirse a los ojos de los físicos, un mundo subatómico, pues a ese instante se sabía ya que un átomo contiene en su estructura protones en el núcleo y electrones ubicados alrededor de él. Aunque el modelo atómico de Rutherford presentaba deficiencias el electrón que apareció en su modelo sí era realmente una partícula subatómica. Fue Niels Bohr quien corrigió estas deficiencias para el átomo de hidrógeno introduciendo en su modelo la cuantización de la energía propuesta por Max Planck en el año1900. Desde entonces la mirada empezó a centrarse en el átomo, en el año de 1932 James Chadwick, alumno de Ernest Rutherford, publicó sus resultados, interpretándolos como una nueva partícula que por su carácter neutro la denominó neutrón. El descubrimiento del neutrón fue impulsado por un problema encontrado con las mediciones de la masa del átomo. Para el átomo de hidrógeno era fácil que la suma de la masa del electrón mas la del protón era la masa del átomo, sin embargo, para elementos con un número mayor de protones la suma de la masa de electrones y protones quedaba por debajo de la masa real del átomo. En esta época sorprendentemente surgió una avalancha de partículas más elementales que el mismo átomo. Unos años antes del descubrimiento del neutrón, Paul Dirac realizó una teoría del electrón en la que en cierto punto necesito de un electrón de carga positiva al que denominó positrón, y que en 1932 fue confirmado experimentalmente por Anderson. De igual manera Pauli propuso la existencia de una partícula denominada Neutrino que en 1934 fue confirmada por Fermi. Además de éstas se encontraron otras partículas muy inestables con tiempos de vida fugaces. Las partículas elementales las podemos definir entonces como aquellas a las cuales no podemos describir su estructura interna (según los conocimientos de la época) en términos de unidades más pequeñas que la conforman. Hemos visto hasta ahora que este concepto ha sido el mismo a través de la historia solo que los conocimientos han evolucionado y consecuentemente las partículas alguna vez consideradas elementales van quedando atrás tras el hallazgo de unidades más pequeñas que la constituyen. En el año de 1932 se puede decir que culminó una etapa en el conocimiento de las partículas elementales, para la fecha se conocían ya el fotón, el neutrón, el electrón, el protón, el positrón y teóricamente el neutrino. Durante los años venideros se descubren aun mas partículas, los mesones los muones, y algunas otras un poco extrañas y con vidas muy cortas, se descubrieron cosas como el neutrino electrónico y el neutrino muónico. Una cosa quedó clara en el transcurrir de los años, mientras se descubrían más y más partículas que dejaban cada vez más lejos al átomo de su tiempo glorioso como partícula elemental, las partículas descubiertas al momento no eran suficientes para explicar la razón de las fuerza nucleares, tales como el motivo por el cual los protones si están cargados P á g i n a | 19 positivamente y confinados en un núcleo por qué no se repelen cómo explicar esa fuerza que los mantiene juntos. Para explicar este fenómeno se introdujo una nueva fuerza denominada fuerza nuclear fuerte, y para explicar fenómenos asociados con la desintegración de partículas se introdujo el concepto de fuerza nuclear débil. Las dos fuerzas mencionadas hacen parte de las fuerzas fundamentales, como bien se sabe, la primera fuerza que fue descrita de manera satisfactoria fue la gravedad por Newton en 1686, así mismo, tras muchos avances en el campo de la electricidad y el magnetismo, fue James Clerk Maxwell, quien unificó estas dos fuerzas en la teoría electromagnética. Así estas dos fuerzas sumadas a la fuerza nuclear fuerte y la fuerza nuclear débil fueron consideradas las fuerzas fundamentales, sin embargo en el año de 1968 se consiguió la unificación de la electromagnética y la débil dando origen a la fuerza electrodébil por lo que ahora se consideran tres fuerzas fundamentales. Retomando el tema de las partículas elementales, se habían descubierto ya muchas, tantas que se empezó a dudar de su “elementalidad”. Al respecto, surgieron teorías que indicaban la existencia de partículas aun menores que constituían las hasta entonces consideradas partículas elementales. En 1963 el físico GellMann e independientemente Zwieg propusieron una teoría en la que todas las partículas están formadas por tres partículas elementales llamadas Quarks. Esta partículas poseen números cuánticos fraccionarios y carga eléctrica de +2/3,-1/3 y 1/3 respectivamente, a cada uno de estos quark se les asigno el nombre Up, Down y Strange, y generalmente se les denota por la letra inicial de su nombre. Actualmente existe una teoría que intenta explicar toda la materia y las fuerzas existentes en el universo, esta teoría se denomina Modelo Standard, su importancia surge en la capacidad que tiene de explicar cientos de partículas e interacciones entre ellas, incluyendo las que fueron mencionadas antes de los quarks a partir de solo unas pocas partículas e interacciones fundamentales. Este modelo considera dos grandes tipos de partículas, las partículas materiales que son los leptones y los quarks, y las partículas portadoras de fuerza que son aquellas responsables del “transporte” de las fuerzas fundamentales. Los quarks son 6, al igual que los leptones, se definen tres generaciones de materia dada su estabilidad, y en cada generación hay un par de quarks y otro de leptones como lo muestra la gráfica. Estos constituyen las partículas de materia. La primera generación (U, D/Ve, e) es la que constituye la materia del universo, la segunda y tercera generación son muy inestables y sus partículas decaen en las partículas de la primera generación. Las partículas portadoras de fuerza surgen para explicar los fenómenos de las 4 fuerzas fundamentales en un intercambio de partículas entre las mismas partículas, así tenemos las partículas portadoras de fuerza asociadas a cada fuerza fundamental como se muestra en la imagen. P á g i n a | 20 De las partículas que muestra la imagen, la única que no se ha descubierto es el gravitón, esto es debido a que la gravedad es difícil de explicar desde el punto de vista subatómico, pero propone que al igual que para las otras fuerzas, ésta es debida a un intercambio de partículas portadoras de fuerza, y es lo que teóricamente predicen y denominan gravitón. El campo del estudio de las partículas elementales se denomina actualmente física de partículas, y tiene una amplia gama de posibilidades. Organizaciones como el CERN que es la Organización Europea para los Estudios Nucleares, estudia a profundidad este tema con la construcción de aceleradores de partículas para provocar grandes colisiones que permitan observar las partículas elementales, ya que así se obtiene la energía necesaria para producir muchas de las partículas inestables y detectarlas a pesar de su vida efímera. Podemos observar entonces a grandes rasgos la evolución del conocimiento de la estructura de la materia a lo largo de la historia de la humanidad, desde la idea filosófica del Arjé planteada por los presocráticos pasando por las ideas de Aristóteles y la acertada posición de Demócrito, barriendo momentos en los que la partícula fundamental de la materia fue considerada de acuerdo a los conocimientos de la época. En la actualidad es bastante lo que se conoce acerca de dicha estructura pero quedan muchas cosas por conocer y por estudiar y, quién sabe, tal vez se encuentren partículas aun más elementales que las actualmente consideradas elementales. Referencias [1]http://www.geocities.com/maperez324/pre socraticos/sld030.htm [2]http://www.portalplanetasedna.com.ar/ma teria.htm [3]http://www.fisicahoy.com/fisicaHoy/pElem entales/pElementales.html [4]www.solociencia.com/fisica/particulaselementales-particulas-elementales.htm P á g i n a | 21 Teoría de la Absorción A, Rondón5 5 Departamento de ingeniería Química, Universidad Nacional de Colombia, Bogotá, Colombia RESUMEN La luz es uno de los fenómenos más complejos que se ha intentado explicar. La absorción de la luz y los cambios en las longitudes de onda tejen una inmensa red que nos sumerge en el mundo de los colores para poder entender por que los percibimos y además el por que de su variedad. Esta red explica desde cambios energéticos en los átomos hasta funciones en moléculas que se encargan de que el color sea percibido. Estas funciones son simplemente propiedades que están inmersas en cada compuesto y que son una consecuencia de su estructura y formación así como de las características del medio en el que se encuentren y sean trabajadas. Los cambios energéticos a los cuales nos referimos tienen que ver con la formación de enlaces y con las transiciones que experimentan los electrones en las moléculas en el momento de formar enlaces y por lo tanto en el momento de reaccionar. Palabras claves: Teoría del color, Absorción, espectro visible, percepción. ABSTRACT This article is intended to give an explanation to know color theory or the theory of better absorption because this is the phenomenon that allows the color is perceived. To no one else is the fact that all objects before our eyes show different colors but ¿Why is this done? One explanation for this phenomenon is given by the change of wavelengths in the visible spectrum. This concept is one that will be explained later and goes to show why the different colors, plus we will give an account of how some compounds involved in the setting of color and others even without color are able to intensify role of the former. These compounds are common in everyday life and although we are not aware of his presence played a major role that is only visible to us by the perception of colors. Key Words: Color Theory, absorption, visible spectrum, perceptions. La luz es uno de los fenómenos más complejos que se ha intentado explicar. La absorción de la luz y los cambios en las longitudes de onda tejen una inmensa red que nos sumerge en el mundo de los colores para poder entender por qué los percibimos y además el por que de su variedad, esta red explica desde cambios energéticos en los átomos hasta funciones en moléculas que se encargan de que el color sea percibido. todos los rayos luminosos, entonces el El color cuerpo parece negro. El color es una sensación que percibimos La luz blanca puede decirse que es una con los órganos visuales; esta sensación es mezcla de radiaciones de longitudes de producto de los rayos luminosos y depende onda diferente, que al descomponerse de la longitud de onda y de las produce lo que se llama el espectro características del órgano receptor. Para continuo. que se produzca color es indispensable una absorción en el espectro visible teniendo en cuenta dos casos especiales: Si se reflectan todos los rayos luminosos incidentes, el cuerpo parece blanco y si son absorbidos P á g i n a | 22 La parte del espectro ultravioleta va aproximadamente de los 10nm hasta los 360nm, la absorción de esta radiación ultravioleta es la que da lugar a las transiciones entre los electrones de valencia que son los responsables de la formación de los enlaces químicos I LUSTRACIÓN 2. ALGUNAS LONGITUDES DE ONDA PARA DIFERENTES COLORES Colorantes: Sus características esenciales son: *Dan color a otros objetos *Solubles en medio acido En los colorantes encontramos grupos orgánicos que son los responsables de la absorción de la luz estos grupos tienen dos grandes divisiones que son: los cromoforos y los auxocromos. *Poseen una estructura molecular no saturada *Son electrónicamente inestables Cromoforos: El hecho de que un auxocromo intensifique el color se da por el aumento de la longitud de onda del cromoforo. Son los portadores del color, esto quiere decir que son los que absorben la luz debido a que poseen electrones resonando a diferentes frecuencias. Los cromoforos son grupos de átomos enlazados responsables de la absorción electrónica o de la absorción en el ultravioleta o visible. Auxocromos: no poseen color propio pero si intensifican el color, esto quiere decir que refuerzan la labor de los cromoforos y además fijan la molécula del colorante. Se dice que se produce un efecto batocrómico cuando la longitud de onda de absorción de una sustancia se desplaza hacia longitudes de onda más grandes o de menor energía por efecto del solvente o por sustituyentes; P á g i n a | 23 también se conoce como corrimiento hacia el rojo; y se dice que se produce un Efecto hipsocrómico o corrimiento hacia el azul, cuando la longitud de onda de absorción de una sustancia se desplaza hacia longitudes de onda menores o de mayor energía por efecto del solvente o por sustituyentes. Algunos cromoforos importante son: alquenos, alquinos, carbonilos, grupo azo, carboxilos, amidas grupo nitro, nitroso y nitrato que como característica común son insaturados esto quiere decir que presentan dobles y triples enlaces. Y algunos auxocromos importantes son: hidroxilo, amida y halogenuros, que poseen pares de electrones libres Transiciones electrónicas especies moleculares. en las Según las teorías del enlace químico, cuando los electrones en los orbitales atómicos, puros o híbridos, forman enlaces, se origina un orbital molecular enlazante, de baja energía que da estabilidad, y un orbital antienlazante, de mayor energía. Si se forma un enlace sigma ð, se tendrá un orbital enlazante sigma, y también el correspondiente orbital molecular antienlazante sigma, ð*. Para un enlace π, se tendrá el orbital enlazante π, y orbital antienlazante π *. El orbital en el que se encuentra un par de electrones no compartido recibe el nombre de orbital molecular no enlazante. Algunas de las transiciones más importantes en moléculas orgánicas son: transició n Región del espectro σσ* U.V. de vacío Ejemplo CH4 (Vapor)(125 nm) n σ* U.V. lejano π π* U.V. cercano Benceno (203 y 250 nm) σ π* Visible Nitrobencen o(665 nm) Acetona(190 nm) La transición ð a ð * requiere mayor energía, este tipo de transiciones ocurre en el UV al vacío en longitudes de onda < 150 nm. Por esto compuestos orgánicos como los hidrocarburos saturados presentan absorción en el ultravioleta lejano y por tanto son transparentes en el UV cercano. La transición n a ð * requiere menos energía que la transición ð a ð * se presentan entre 150 y 220 nm. Se observan en moléculas como N, O, S, Cl, Br, I, como haluros de alquilo, aminas, éteres, tioles. Las transiciones π a π* implican que el cromoforo debe poseer al menos una insaturación para proveer el orbital molecular π *, moléculas con dobles o triples enlaces frecuentemente presentan absorción entre 160 y 220 nm para cromoforos separados por más de un enlace sencillo. Cuando las moléculas son conjugadas se P á g i n a | 24 encuentran 200 y 360 nm, en el UV cercano Las transiciones π a π* presentan coeficientes de absortividad de mas o menos 1000 y 15000 M-1cm-1. Las transiciones n a π* implican que el cromoforo debe poseer una insaturación con un heteroátomo que contenga un par de electrones no compartido, presentan coeficientes de absortividad bajos, que oscilan entre 10 y 102 M-1cm-1 Entonces la absorción de la luz es producto de las diferentes transiciones electrónicas entre los electrones de valencia, en este fenómeno se hay cambio en las longitudes de onda y esto da como producto la percepción de los diferentes colores, además como requisito para que los compuestos presenten diferentes colores se exige la presencia de dobles y triples enlaces y para que se fije e intensifique el color es requisito indispensable que los compuestos presenten pares de electrones libres. BIBLIOGRAFIA 1. www.virtual.unal.edu.co/cursos/ ciencias 2. www.montes.upm.es/Dptos/Dpt oIngForestal/OperacionesBasic as 3. Identificación de Compuestos Orgánicos por Espectrometría, R. Silverstein, G. Bassler, T. Morrill, J. Wiley, 5 edición, 1991. 4. Métodos de Espectrometría en Química Orgánica, M. Hesse, H. Meier, B. Zeeh, 1997 P á g i n a | 25 Teoría de Cuerdas J, Romero6 6 Departamento de ingeniería Química, Universidad Nacional de Colombia, Bogotá, Colombia RESUMEN En el presente artículo se exponen diversos aportes realizados por la ciencia, a la construcción de la Teoría de cuerdas, para lo cual se hizo una revisión de artículos científicos destacados en las bases de datos puestas a disposición de la comunidad por la Universidad Nacional de Colombia. El presente documento busca compactar aportes, creando un escrito de carácter informativo. La selección de los artículos constituyó un proceso enriquecedor, debido a la gran opinión, crítica y revisión que ha suscitado este tema en el mundo de la ciencia, y a la esperanza de encontrar la tan anhelada teoría unificadora. Claro está que en el presente artículo, no presento posiciones a enfrentar, no hago discusiones objetivas, me dirigiré más hacia la realización de la presentación de algunos de los tantos aportes que se genera a diario con el fin de modelar la teoría de cuerdas. Como fin último de este escrito busco un lenguaje claro y amable hacia aquellos que no tienen un conocimiento significativo de la física moderna, logrando así una mayor divulgación del conocimiento científico a la sociedad, en este caso de la teoría más básica y compleja a la vez del universo. Palabras clave: Teoría de cuerdas, Universo, Física moderna, Ciencia, Unificación. ABSTRACT In the present articulate, I present diverse contributions they are exposed carried out for scientific, to the construction of the String Theory, for that which a revision of scientific articles was made highlighted in the on databases to disposition of the community for the Universidad Nacional of Colombia. The selection of the articles constituted an enriching process, due to the great opinion, it criticizes and revision that has raised this topic in the world of the science, and to the hope of finding the so yearned theory of unification. Clear this that presently articulate, I don't present positions to face, I don't make objective discussions, I will go but toward the realization of a presentation of some of the so many contributions that it is generated to newspaper with the purpose of modeling the String Theory. As end I finish of this writing I look for a clear and kind language toward those that don't have a significant knowledge of the modern physics, achieving this way a bigger popularization from the scientific knowledge to the society, in this case of the theory but basic and complex at the same time of the universe. Key words: String Theory, Universe, Modern Physics, Science, Unification La teoría de cuerdas nace de la necesidad de explicar aspectos cosmológicos, físicos y químicos del universo en su totalidad; cuando me refiero a la totalidad de esta teoría lo que pretendo decir es la unificación bajo una sola ley de las normas del mundo macroscópico y las del mundo microscópico, en resumen del universo cuántico y del universo relativista. Actualmente las mejores explicaciones del universo se dan por separado: hablamos de P á g i n a | 26 Fuerzas de gravedad, electromagnéticas y atómicas fuertes y débiles. harían al universo moverse, y generar diversos comportamiento según la naturaleza de estas. Lo anterior constituye uno de los aspectos que hacen del estudio del universo, uno de los temas más dispendiosos de la física. Teoría por supuesto polémica y desafiante para un mundo acostumbrado a la complejidad. Los científicos creen fervientemente en la existencia en la ley del todo, la cual explicaría cualquier comportamiento de la materia y de la energía en el universo. Sin embargo, llegar a ella constituye uno de los grandes desafíos de la humanidad, dejando hasta intelectos como el de Einstein cortos frente a tal inquietud. El ultimo caso de unificación exitosa en el mundo de las leyes físicas, ocurrió cuando Maxwell formuló sus 4 leyes que relacionaban el mundo eléctrico y el mundo magnético, hecho que simplificaría para siempre la comprensión de aspectos importantes del mundo que nos rodea, pero esto solo constituye un paso hacia la reunión de todos los aspectos, solo un paso. Cuando se acercaba el fin del siglo XX, el mundo seguía buscando teoría del todo, ya para ese entonces la mecánica cuántica ofrecía una explicación bastante coherente con el mundo microscópico, y muchos postulados de la teoría de la relatividad ya habían sido comprobados. Es así como entre la década de los 70 y los 80, ciertos científicos empiezan a postular una teoría que se caracteriza por una bella simpleza y por la descripción y predicción de ciertos problemas vigentes [1]. Esta teoría afirma la existencia de las “partículas” más simples del universo: cuerdas cuya vibración característica, David Gross de la Universidad de California, es uno de los grandes investigadores en la relación de la cosmología con la teoría de cuerdas, él en medio de una importante reunión en 1985, en la cual buscaba diferentes puntos de vista, formulo una serie de preguntas, que de ser resueltas darían un paso en la unificación que para el constituye:”el empuje forzado de la física hacia el futuro” [2]. El gran problema de estas preguntas radica en su sencillez, preguntas como: ¿hay una única Teoría de Cuerdas?, ¿Es esta una teoría unificadora?, ¿Cómo son los fenómenos en un universo regido por las cuerdas? y ¿Qué es una teoría de cuerdas?, cuestiones que o no han podido se resueltas en su totalidad o no tienen una respuesta aceptable. Hay discusiones tan diversas que hacen pensar en la teoría eje de este articulo como un estudio de poco tiempo de vida, una novedad, la verdad es que el análisis de las cuerdas suma ya bastante tiempo, debido a la complejidad y a las inconsistencias presentadas. Entre las grandes inconvenientes está la afirmación de la existencia de 11 dimensiones, una mas que las ya conocidas y descritas, lo que implica una nueva conceptualización. De este problema algunos especuladores han logrado ver una oportunidad: afirman que esta dimensión extra es la que P á g i n a | 27 involucra la fuerza de la gravedad [3], esta fuerza vendría en forma de ciertas partículas fundamentales llamada gravitones, las cuales a su vez serían una unión de pequeñas cuerdas cuya oscilación particular generaría la gravedad. En este aparte ya se ha dado un paso hacia la unificación, sin embargo, esta afirmación implicaría la existencia de partículas denominadas taquiones las cuales experimentarían velocidades superiores a la de la luz [4]. Lo anterior es prueba de la gran disyuntiva de la teoría del Todo: la gravedad es la fuerza que no se acomoda a un moldeamiento cuántico. Las demás fuerzas bajo un contexto microscópico, pueden unificarse, sin presentar disfuncionalidades. La gravedad es el gran dilema, los taquiones más que partículas son expresiones, su rompimiento con la relatividad y las normas de las dimensiones, obliga a pensar en la equivocación de la teoría de cuerdas. Sin embargo, muchos afirman que una teoría tan espectacular como esta, no podría ser perfectamente comprensible. Pero la teoría de cuerdas también ha dado explicación a ciertos objetos de existencia inexplicable, un ejemplo claro son los agujeros negros de 5 dimensiones, cuya modelación incluía ciertos rompimientos a las leyes tradicionales, (deformación en el espacio tiempo de las leyes del universo)[5], y bastantes irregularidades en cuanto a la conjunción de sus dimensiones. La teoría de Cuerdas propuesta, afirma la existencia combinada de dimensiones que incluirán la relacionada con la gravedad, allí las cuerdas estarían cerradas formando oscilaciones cuya naturaleza cambiaría rápidamente [6]. Otro de las cualidades de la presente teoría es la predicción y descripción bastante fidedigna del comportamiento de los bosones y de los gluones, partículas íntimamente relacionadas con las fuerzas débiles y fuertes del átomo. Según la teoría estas partículas deben existir bajo un régimen de 9 dimensiones [7], la característica principal de las cuerdas es su cerramiento, base de la cohesión de la masa, por lo tanto las fuerzas débiles, fuertes se acomodan también a esta teoría. Bajos estos parámetros la teoría de cuerdas constituye uno de los grandes desafíos de la física hacia el futuro, la resolución de la unificación ofrecería una visión totalizante del universo, sin embargo, la teoría de cuerdas involucra tal complejidad, que es bastante complicado resolver cuestiones propias de su naturaleza, porque a pesar de intentar ser una ley del todo, la teoría en si misma contradice leyes relativistas, lo que implicará seguramente un estudio muy prolongado de tal teoría. Claro esta que la teoría de cuerdas, pese a su notoria popularidad, es solo un escalón hacia la realidad, falta aun mucho por estudiar, analizar y criticar, porque en si misma la ley aunque explica fenómenos de difícil conceptualización, desafía las leyes que pretende unificar. Pese a todo hay quienes la defienden con gran intensidad, apoyándose en la idea de una supuesta simplicidad y de su particular explicación de los hechos físicos, pero mas allá de apoyarla se debe aceptar que pese a los años de estudio la teoría es muy prematura P á g i n a | 28 para ser aceptada. En resumidas cuentas el avance de la ciencia ofrecerá la certeza acerca de la teoría del todo , la ciencia responderá sobre la veracidad de estas afirmaciones, pero solo preguntándonos y proponiendo podremos llegar a la verdad. REFERENCIAS [1]La teoría unificadora: cuerdas”(2008), en línea, disponible en http://taxyon.blogspot.com/2007/01/lateora-unificada-cuerdas.html, Recuperado: 21 de noviembre 2008. [2] GROSS,David.(2004,Febrero). ”Where Do We Stand in Fundamental (String) Theory”. Physica Scripta. Vol. T117, 102–105, 2005. Kavli Institute for Theoretical Physics, University of California, Santa Barbara, California, Pag 3. Recuperado: 29 de Noviembre de 2008. [3] SEIBERG,Nathan.(2005,Marzo). ”Observations on the moduli space of two dimensional string theory”, Institute of physics, Pag 9. Recuperado: 09 de Noviembre de 2008. [4]“La teoría de Cuerdas”(2008),en línea, disponible en: http://www.cienciapopular.com/n/Cienci a/La_Teoria_de_Cuerdas/La_Teoria_d e_Cuerdas.php, Recuperado: 21 de noviembre 2008. [5] MEI,Janwey.(2008,Agosto). Nuclear Physics B 806 (2009) 436–455.“New black holes in five dimensions”, Texas A&M University, Pag 9.Recuperado: 22 de Noviembre de 2008. [6] BOELS,Rudgers.( 2008,Noviembre):” MHV, CSW and BCFW: Field theory structures in string theory amplitudes. Pag 7.Niels Bohr International Academy. Recuperado: 29 de noviembre de 2008. [7] LUST,Dieter.(2008,Septiembre). ”The LHC string Hunter’s companion”. Nuclear Physics B 808 (2009) 1–52. Department of Physics, Northeastern University. Pag 6.recuperado:29 de Noviembre de 2008 P á g i n a | 29 Hipótesis ondular de De Broglie, mecánica cuántica para ver y entender el mundo de lo pequeño D, Peña7 7 Departamento de ingeniería Química, Universidad Nacional de Colombia, Bogotá, Colombia RESUMEN Se hace una revisión de la teoría ondulatoria de la materia de De Broglie y su relación con el desarrollo de la microscopía electrónica e investigación de la estructura cristalina superficial, entre otras aplicaciones. ABSTRACT Waves of matter theory of De Broglie is reviewed with its relation with the development or Transmision Electron Microscopy, crystal surface structure research and other stuff. Hacia principios del siglo XX, cuando la mecánica cuántica era apenas una serie de hipótesis y teorías incipientes, el estudio completo del comportamiento físico de la materia y la radiación electromagnética en diversos fenómenos era el centro de atención de los físicos más brillantes del mundo. Uno de ellos, el efecto fotoeléctrico, descubierto y descrito por Heinrich Herzt en 1887 y abordado inteligentemente por el alemán Albert Einstein, se destacaría entre todos los demás, porque su explicación retomaría algunos conceptos viejos, provenientes del propio Newton y otros recién en tela de discusión para dar paso a una concepción totalmente nueva del sistema físico que transporta la energía electromagnética. De esta manera es como, hacia el año 1905, Einstein, quien se interesó en el estudio de esta emisión instantánea de electrones de un metal al recibir radiación electromagnética de frecuencia adecuada, reflexionó sobre tres aspectos concernientes: los resultados experimentales obtenidos, la recientemente postulada hipótesis de Max Planck y la descartada idea de Newton de que la luz podrían ser partículas. Al unir sus reflexiones de relatividad especial y lograría una explicación sorprendentemente sencilla, pero merecedora de un Nobel: la luz tiene un comportamiento ondular pero también se comporta como partícula en ciertos fenómenos, la emisión de fotoelectrones no es más entonces, que una colisión entre una “partícula de luz” que denominó fotón y un electrón del material , en la que el fotón cede toda su energía al mismo y si ésta es igual a una cantidad mínima necesaria, entonces el electrón es emitido (ver figura 2). P á g i n a | 30 Figura 1. Efecto fotoeléctrico: fotones en amarillo, electrones en azul y fotoelectrones en rojo. Así pues, un sistema que tradicionalmente se podía describir como onda, presentaba características de partícula y debía ser descrito entonces como una suma de ambos comportamientos simultáneos y que adopta uno de dos para ciertos experimentos. Lo anterior, en una especie de búsqueda de simetría en la naturaleza, llevó a pensar entre otros científicos al francés Louis de Broglie que quizás lo que tradicionalmente se había descrito como partícula por la física clásica de la época podría tener también dicha dualidad y comportarse como onda simultáneamente. Hipótesis De Louis De Broglie Planteada como tesis doctoral en 1924, la hipótesis de De Broglie plantea que la materia también presenta simultáneamente, al igual que la radiación electromagnética, un comportamiento dual: vibratorio, propio de una onda, y uno estático, propio de las partículas, a pesar de ser una sóla identidad física (ver figura 2). demás dos: en el modelo atómico de Böhr, advirtió que las orbitas estables para el electrón estaban caracterizadas por números enteros, una característica típica para describir una onda; y una analogía antes observada por Jacobi y Hamilton entre la descripción de las diversas trayectorias de las partículas y los rayos de propagación de ondas. Los anteriores hechos junto al de la cuantización de la energía propuesta por Planck y generalizada a la radiación electromagnética por Einstein, y algunos conceptos de relatividad especial, permitieron el desarrollo de su tesis que haciendo algunas simplificaciones, se puede condensar de la siguiente manera: Bases del modelo atómico de Böhr Si se supone que el electrón gira alrededor del núcleo en una circunferencia perfecta, se tiene que su energía potencial es por la segunda ley de Newton: 𝐹 = 𝑚𝑎 = 𝑚𝑣 2 𝑟 (1) Si 𝑚 es masa, 𝑣 velocidad tangencial del electrón y 𝑟 la distancia al núcleo atómico Como esta debe ser igual a la fuerza de atracción del núcleo al electrón se tiene (2) por la ley de Coulomb: 𝑒2 𝐹𝑒 = − 4𝜋 𝜖 2 (2) 2 (3) 0𝑟 Igualadas: 𝑚𝑣 2 𝑟 𝑒2 = 4𝜋 𝜖 0𝑟 Figura 2. Dibujo representativo de la dualidad onda partícula de la luz y la materia, y su comportamiento definido ante una observación u otra. Por lo que se puede calcular la energía cinética del electrón: De los hechos téoricos en los que el francés De Broglie se pudo haber inspirado para el desarrollo de su hipótesis, se pueden destacar sobre los Teniendo en cuenta que la energía potencial V del electrón respecto al núcleo es , puede escribir que la energía total E es: 𝑇= 𝑚𝑣 2 2 1 𝑒2 = 2 ∙ 4𝜋 𝜖 0𝑟 (4) P á g i n a | 31 𝑉=− 𝑒2 4𝜋 𝜖0 𝑟 2 𝐸 =𝑇+𝑉 = (5) −1 𝑒2 ∙ 2 4𝜋 𝜖0 𝑟 (6) 𝐸 = ℎ𝑓 (7) 1 1 𝐸 = 𝑅 (𝑛2 − 𝑚2 )(8) Que sustituyendo en la ecuación (7) da origen a (8) donde R es la constante de Rydberg, ℎ la constante de Planck, 𝑓 la frecuencia de onda de radiación electromagnética y 𝑛 y 𝑚 números enteros que representan los niveles en los que el electrón puede estar en éste modelo. De (7) y (8) se puede concluir entonces que: 𝐸 ∝ 1 𝑛2 (9) y 𝑟 ∝ 𝑛2(10) Que implican que la energía y la posición permitida del electrón están cuantizados (factores de números enteros). De (3), (8) y (10) es posible ver que la cantidad de movimiento angular cumple que: 𝐿 = 𝑚𝑣𝑟 ∝ √𝑟 ∝ 𝑛 (11) Experimentalmente entonces que: se determinó ℎ 𝑚𝑣𝑟 = 𝑛 2𝜋 = 𝑛ℎ̅ (12) Con lo que se evidenció que la cantidad de movimiento, una cantidad tan propia de partículas, estaba cuantizada. Bases de la cuantización de la radiación electromagnética de Planck-Einstein Del estudio de Planck y Einstein se encontró para un fotón (7), que también permite expresar: 𝑝 = 𝑚𝑐 = ℎ λ = ℎ̅𝑘 , 𝑘 = 2𝜋/λ (13a) 𝐸 = ℎ𝑓 = ℎ̅𝜔 (13b) De Broglie observó entonces que al lado izquierdo de las ecuaciones 13a y 13b había propiedades típicas de partículas y al lado derecho propiedades típicas de ondas en el caso de la luz, e inició entonces su desarrollo para demostrar lo mismo en partículas de materia: Empezó por generalizar la ecuación 13b a un electrón de masa mo, en reposo y empleando la relación encontrada por Einstein (14), obtuvo: 𝐸 = 𝑚𝑐 2 (14) 𝐸 = 𝑚𝑜 𝑐 2 = ℎ𝑓𝑜 (15) Donde 𝑓𝑜 es una frecuencia que se debía asociar entonces a algo “periódico” en el comportamiento de un electrón, y en la cual se observa como la materia y la energía son dos formas de un mismo ente. Aplicando la teoría de relatividad especial, se obtiene que en movimiento se deba cumplir: ℎ𝑓 = 𝑚𝑐 2 (16) Donde 𝑚 = 𝑚𝑜 2 √1−𝑣2 y 𝑓 la frecuencia de una 𝑐 onda que De Broglie imaginó acompañaba el movimiento del electrón propagándose con velocidad 𝑣𝑝 = 𝑐2 𝑣 . De lo anterior se observa que la velocidad de propagación de dicha onda, muy superior al límite teórico de c impuesto por Einstein en su relatividad especial, debía corresponder a una onda no de energía sino de materia. Del estudio de mecánica de propagación de ondas, De Broglie encontró dos principios cuya conexión permite obtener el Lagrangiano L de un electrón relativista, moviéndose en un campo eléctrico, el cual es una función matemática empleada en física para describir de la manera más elemental el comportamiento en el tiempo, las leyes de conservación, entre otras propiedades, de un sistema físico. Los principios antes mencionados así como el Lagrangiano ya descrito son: P á g i n a | 32 Principio de Fermat para una onda 𝜑 = ℎ̅(𝜔𝑡 − 𝑘𝑟) 𝐵 𝛿 ∫𝐴 𝑑𝜑 = 0(17) Principio de Hamilton para el movimiento de una partícula: que es posible medir con un amperímetro la intensidad de corriente generada solo por aquellos electrones que han perdido poca o ninguna energía en la interacción con el metal. 𝐵 𝛿𝑆 ∫𝐴 𝐿𝑑𝑡 = 0(18) Lagrangiano de un electrón relativista, moviéndose bajo efectos de un campo electromagnético de vector potencial A y escalar V. 𝑣2 𝐿 = 𝑚𝑜 𝑐 2 √1 − 𝑐 2 + 𝑒𝑣𝐴 − 𝑒𝑉(19) Un desarrollo, de ambos principios y aplicando conceptos fuera del alcance de este artículo, se llega a: Figura 3. Montaje al vacío Experimento Davisson-Germer. 𝐸 = ℎ̅𝜔 𝑦 𝑝 = ℎ̅𝑘 (20) Aplicando la definición de 𝑘 : ℎ 𝑝 = λ (21) De donde se tienen finalmente las ecuaciones análogas a las desarrolladas por Einstein para el fotón, en el caso de una partícula de materia, siendo la más conocida de todas (21). Comprobación Experimental hallazgos de De Broglie de los De entre los diferentes experimentos que comprobaron la validez del desarrollo teórico de De Broglie, el más contundente es el experimento de Davisson-Germer, realizado en 1925, en el que en un vacío, un haz de electrones de baja energía, incide sobre un monocristal de níquel donde es dispersado (ver figura 3). Los electrones provienen un filamento de tunsgteno calentado para se acelerados por un potencial V. Luego de ser dispersados por el cristal, los electrones que deben superar un potencial retardador Vr , menor a V , y cuya magnitud es tal del Al graficar los resultados obtenidos, se encontró que cuando el potencial era de 54 V (o múltiplo entero)se encontraba un pico en la corriente medida en el amperímetro, y a voltajes mayores a éste volvía y caía, por lo que la única explicación a tan extraño comportamiento, era que al aplicar exactamente esa diferencia de potencial, los electrones ganan una cantidad de movimiento tal que las ondas de electrón entran en una interferencia constructiva máxima y sus amplitudes se suman, comprobándose de este modo el comportamiento ondular de la materia Aplicación del comportamiento ondular de la materia establecido por De Broglie Una de las aplicaciones más importantes de la teoría de De Broglie, fue el desarrollo del Microscopio de Transmisión Electrónica, inventado hacia 1931 por los rusos Ernst Ruska y Max Knoll (ver figura 4). P á g i n a | 33 Figura 4. Esquema simplificado de un electroscopio de transmisión electrónica La idea es que al reconocerse el comportamiento ondular de las partículas, tales como el electrón, es posible usar haces de electrones en lugar de luz, en el diseño de microscopios, debido a que en general, para los voltajes empleados en la práctica, se puede calcular que la longitud de onda del electrón, resulta ser siempre mucho menor a la longitud de onda típica de la radiación en el espectro visible, por lo que se alcanza una mayor resolución en las imágenes obtenidas de las muestras. Por ejemplo el Microscopio electrónico de Transmisión, consiste en una fuente de alto voltaje para crear y acelerar un haz de electrones, en lo que se conoce como cañón de electrones, generalmente diseñado a partir de un alambre de tunsgteno como cátodo y un ánodo con un potencial respecto al cátodo de 100 KeV. Dicho haz de electrones se focaliza mediante lentes, que en realidad consisten en campos magnéticos adecuadamente dispuestos con el fin de llevarlo a la muestra, donde los electrones interactúan con los átomos de la misma y algunos son dispersados tal y como en el experimento de Davisson-Germer, otros pasan a través sin cambio alguno y otros pierden cierta energía en colisiones. De esta manera, el haz de electrones, una vez ha pasado el sito de la muestra, es amplificado empleando nuevamente un campo magnético que hace las veces de lente objetivo en el microscopio óptico, y ya que dicho haz contiene información sobre la superficie de la muestra, se dispone una pantalla recubierta de una sustancia resplandeciente al contacto con los electrones, tal como el sulfuro de zinc, constituyéndose así la imagen debido a la diferente intensidad con la que colisionan los electrones (consecuencia de la interacción con la muestra). Por otro lado, el haz de electrones puede ser conducido mediante fibra óptica para hacerlo incidir en una superficie fosforada de alta definición, en un sistema de cámara de carga acoplada, el cual interpreta esta información para, electrónicamente convertirla en información que se puede desplegada en un monitor, la imagen por supuesto, es siempre en una escala de grisese, aunque es posible agregar coloración ficticia, mediante el uso de software. Aunque esta técnica, presenta muchos inconvenientes tales como la necesidad de muestras muy finas para que el haz de electrones la atraviese correctamente y aberraciones ópticas como las aberraciones esférica y cromáticas, recientemente se ha diseñado software y procedimientos para optimizar la calidad del trabajo, por lo que se han conseguido imágenes de átomos de carbono en un diamante, separados por tan sólo 0,89 angstroms o átomos de silicio en un aumento de cincuenta millones de veces su tamaño normal. P á g i n a | 34 Para concluir, la teoría ondular de De Broglie, se debe resaltar como un desarrollo producto de la simetría en el comportamiento de la naturaleza de la materia y la energía, que ha permitido la investigación en la estructura superficial de la materia a través de diversas aplicaciones, así como la observación mediante microscopía electrónica REFERENCIAS Figura 5. Micrografía de resolución atómica de nanocristales multi-acoplados en una película de silicio. Otra de las implicaciones del comportamiento ondular, es la difracción de electrones para la investigacion de la estructura superficial cristalina. La difracción es la propiedad mediante la cual una onda diverge de la trayectoria que debería llevar por geometría óptica. Así entonces, la cristalografía con electrones, debido a la limitada penetración de los electrones ( pues interactúan rápidamente) permite un estudiode la estructrura superficial cristalina más adecuado el típico estudio con rayos x, con lo que por ejemplo, se ha podido observar que a pesar de que en la superficie de muchos metales limpios se exhiben las terminaciones ordenadas cuadriculadas ideales, se presentan también pequeñas desviaciones de dicho comportamiento en las primeras capas atómicas. [2] De igual manera la Difracción electrónica de alta energía, es ampliamente usada en el estudio de capas finas de monocristales, policristales y materiales amorfos; así como también en el estudio de la estructura molecular de fases gaseosas. [[1] N.Hamdam, M.Falhe, H.Aktaa. Deduction of the De Broglie’s relation 𝜆 = ℎ/𝑝 from classical electrodynamics. LatinAmerican Journal of physics. Volume 2, Number 3. September 2008 [2] L.Marton, M.Van Hove. Electron Diffraction. Encyclopedia of Physics. Eds. R.G. Lerner and G.L. Trigg, Wiley-VCH (Weinheim) 2005, p. 616-621. [3] M.Garcia, J.Ewert De-Geus. Introducción a la física moderna 3º Ed. Universidad Nacional de Colombia. Unibiblos. 2008. Pags 127-132. [4] http://www.astrocosmo.cl/anexos/hl_%20broglie.htm [Consultada: 03-12-08] [5] http://hyperphysics.phyastr.gsu.edu/Hbase/quantum/davger2.html [Consultada: 04-12-08] [6]http://en.wikipedia.org/wiki/Transmission _electron_microscope[Consultada: 04-1208] Figura 4: Tomada de http://en.wikipedia.org/wiki/Image:Electron _Microscope.png. [ Fecha :04-12-08] Figura 5: Tomada de: National Center of Electron microscopy. http://ncem.lbl.gov/images/gallery/polysi.jp g [ Fecha :04-12-08] AUTOR: David Alejandro Peña Navarro, Estudiante Ingeniería Química. Código: 244173 P á g i n a | 35 Desarrollo del Láser y la fibra óptica L, Fonseca8 8 Departamento de ingeniería Química, Universidad Nacional de Colombia, Bogotá, Colombia RESUMEN El presente artículo intenta resumir el mecanismo de funcionamiento del láser, su estructura y su posterior uso mediante la fibra óptica, proporcionando además una breve reseña histórica en donde se señalan que eventos fueron indispensables para el desarrollo de esta tecnología, como la teoría de Einstein y el modelo atómico de Bohr, y la importancia que ha llegado a tener estos adelantos para la vida de hoy. ABSTRACT: Después de la segunda guerra mundial se realizaron varios esfuerzos para desarrollar el campo de las comunicaciones, pero solo hasta finales de la década de los 80 surgió la idea de aprovechar la luz como medio de comunicación, basado en la idea de una señal portadora (onda electromagnética con una frecuencia especifica) la cual entre mayor frecuencia tenga, mayor será la cantidad de información que se pueda transportar. Dando como resultado la invención del láser en 1960 por la aplicación de la teoría de Albert Einstein acerca del efecto fotoeléctrico, y el posterior desarrollo de la fibra óptica como medio para la transmisión de estas señales a grandes distancias. Todo comenzó a partir de 1900 cuando Max Plank planteo su hipótesis de que los átomos excitados emiten energía en paquetes discretos llamados cuantos, luego en 1905 Albert Einsten planteo que la luz estaba compuesta por pequeños paquetes de energía llamados fotones, y que entre mayor sea la frecuencia de la esto dio pie al desarrollo de su teoría del efecto fotoeléctrico, la cual se resume en la idea de que los electrones pueden absorber la energía de los fotones que son irradiados sobre estos y liberarse de la materia que los contiene. En 1913 surgió un modelo de átomo propuesto por Niels Bohr, según el cual los electrones se ordenan en órbitas alrededor del núcleo de acuerdo a su nivel de energía, para poder pasar a un nivel de energía más excitado el electrón debía absorber energía, y para poder pasar a una órbita mas baja el electrón debía emitir energía. Se estableció el concepto de que cuando un electrón se encuentra excitado tiende a volver de forma LÁSERES luz, mayor es el nivel energético del fotón, F IG . 1: E JEMPLO LUCES DE The present article tries to summarize how laser works, it structure and it application by optical fiber, besides it contains a small historical review where it's indicate what events were indispensable for this technology development, as the Einstein's theory of the photoelectric effect and the Bohr's atomic model, and the importance of these advances for the today's life. P á g i n a | 36 Esta teoría fue aplicada en 1951 por el director del Laboratorio de Radiación de la Universidad de Columbia, el señor Charles Townes (Fig.1) en compañía de Herbert Zeiger, ellos enviaban un haz de amoniaco a través de un campo eléctrico que desviaba las moléculas de menor energía y enviaba las moléculas de mayor energía a otro campo eléctrico; la exposición al segundo campo provocaba que todas las moléculas de amoniaco de mayor energía pasaran a su estado fundamental, emitiendo fotones de microondas con la misma dirección y frecuencia. A este dispositivo lo llamó MASER (microwave aplification by stimulated emisión of radiation) pero durante el adelanto de sus estudios se dio cuenta de 3http://www7.nationalacademies.org/spa nishbeyonddiscovery/tec_00752003.html#TopOfPage- -03/12/084 http://es.wikipedia.org/wiki/L%C3%A1se 03/12/08 - El primer láser fue creado por Theodore Maiman en 1960 y fue hecho de rubí sintético, impulsando el estudio de esta tecnología; los primeros láseres solían ser muy grandes, frágiles, y propensos a recalentarse. Los trabajos que se realizaron posteriormente acerca de transistores y semiconductores permitieron obtener mejores diseños. Funcionamiento del Charles Hard Townes (izquierda) y Arthur Schawlow4 láser: F IG . 2: L OS PADRES DEL LÁSER Tomando como base el modelo de Bohr y la teoría de Einstein se comprobó que cuando los electrones se irradian con una cantidad de energía igual a la diferencia entre los estados de menor a mayor energía, aumenta la intensidad de la luz que esta pasando, pues se obliga a los electrones a soltar los fotones que tienen y además estos se emiten en la misma dirección en que están pasando los fotones de la luz. Este proceso se conoce como emisión estimulada 3 y es el fundamento teórico del láser, pero tiene la condición de que todos los átomos del material entren en estado excitado lo cual normalmente se logra a partir de su exposición a la luz. que también podía funcionar para longitudes de onda mas cortas como infrarrojos o luz visible, por lo cual cambio el nombre de su dispositivo a LASER, adoptando la “l” como la sigla de luz. Junto con su cuñado Arthur Schalow publicaron en 1958 un artículo llamado “Maseres infrarrojos y Ópticos” y en 1960 patentaron su invento. F IG . 3: C OMPONENTES PRINCIPALES DEL LASER espontánea a su estado de mínima energía (estado fundamental), emitiendo fotones correspondientes a la energía en exceso. P á g i n a | 37 Para producir el rayo de luz láser, se necesita una fuente de energía, como la electricidad, para que excite los átomos de las sustancias que se están usando como medio, un rayo de luz, ajustado a la frecuencia de transmisión entre los dos niveles, se envía a través del conjunto de átomos, lo que provoca que aquellos que se encuentran en un nivel de energía más alto cedan su energía al rayo de luz. DE FIBRA ÓPTICA F IG . 4: I NTERIOR DE CABLE 1. Medio activo para formación del láser 2. Energía bombeada para el láser 3. Espejo reflectante al 100% 4. Espejo reflectante al 99% 5. Emisión del rayo láser5 Se usan espejos dentro de un tubo para aumentar la luz producida por los átomos. Estos envían la luz hacia adelante y hacia atrás a través del medio. Una vez la luz es lo suficientemente brillante, se pasa a través de un espejo y se produce el rayo láser (Fig.3). La luz procedente de un láser se diferencia de la luz normal en cuatro aspectos diferentes: 5 La luz láser es intensa, son capaces de producir una elevada intensidad en un rayo de un milímetro de diámetro. Los haces láser son estrechos y no se dispersan como los demás haces de luz, tiene direccionalidad. La luz láser es coherente. Esto significa que todas las ondas luminosas procedentes de un láser se acoplan ordenadamente entre sí. Los láseres producen luz de un solo color, su luz es http://es.wikipedia.org/wiki/L%C3%A1se -03/12/08 monocromática. Algunos producen luz infrarroja o ultravioleta. Los láseres atrajeron inmediatamente el interés por su gran potencial en las comunicaciones, medicina y otros campos. Surgió entonces el obstáculo de cómo poder transmitir estas señales luminosas a grandes distancias, el cual fue superado con la aparición y el desarrollo de las fibras ópticas. Fibras ópticas: Es un filamento de vidrio o plástico del espesor de un pelo (entre 10 y 300 micrones) capaz de llevar mensajes en forma de haces de luz a lo largo de su longitud usando la reflexión total interna, hecho en el cual la luz se refleja en el interior de la fibra sin pérdidas.6 Estos filamentos ya se usaban anteriormente pero al atravesar la luz distancias cortas perdía casi el 99% de su intensidad, comprobándose mas tarde que estas pérdidas se debían a impurezas del cristal. El desarrollo de vidrios muy puros con transparencia mayores que el vidrio ordinario impulso el desarrollo de estas fibras, llegando en 1970 a construirse el primer lote de fibras ópticas con la transparencia suficiente como para lograr la reflexión de la luz sin pérdidas, realizado por los científicos Donald Keck, Robert Maurer y Peter Schultz.7 El 22 de abril de 1977, General Telephone and Electronics envió la primera transmisión telefónica a través de fibra óptica, en el estado de California. Y el primer enlace transoceánico con fibra 6http://www.monografias.com/trabajos13 /fibropt/fibropt.shtml#CONCEPT 03/12/08 7http://www7.nationalacademies.org/spa nishbeyonddiscovery/tec_00752005.html#TopOfPage – 02/12/08- búsqueda de mayores aplicaciones de esta tecnología. Los dos constituyentes esenciales de las fibras ópticas son el núcleo y el revestimiento, el núcleo es la parte más interna de la fibra y es en el cual se propagan las ondas ópticas generalmente esta hecho de sílice, cuarzo fundido o plástico; el revestimiento es la parte que rodea y protege al núcleo, hecha generalmente de los mismos materiales que el núcleo pero con aditivos que confinan las ondas ópticas en el núcleo. El conjunto de núcleo y revestimiento está a su vez rodeado por un forro o funda de plástico u otros materiales que lo resguardan contra la humedad, el aplastamiento, los roedores, y otros factores del entorno. (Fig.4) Aplicaciones y avances más recientes: En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa. Una vez que es transmitida la señal luminosa por las minúsculas fibras, en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor, cuya misión consiste en transformar la señal luminosa en energía electromagnética, similar a la señal original. La Fibra Óptica tiene como ventajas, la alta velocidad al navegar por Internet, así como su inmunidad al ruido e interferencia y sus reducidas dimensiones. Sin embargo tiene desventajas como su elevado costo, la fragilidad de sus fibras y la dificultad para reparar cables de fibras rotos. Actualmente se han modernizado mucho las características de la Fibra Óptica, en cuanto a coberturas más resistentes, mayor protección contra la humedad y un empaquetado de alta densidad, lo cual es muy importante pues impulsa a la La fibra óptica ha ofrecido muchas ventajas para los adelantos tecnológicos actuales como la mejora del servicio de Internet, el cual antes era demasiado lento pues utilizaban las líneas telefónicas como medio para transferir información, su aplicación en las redes de comunicaciones, proporcionando conexiones transcontinentales y transoceánicas, aprovechando una ventaja de estas consistente en la gran distancia que puede recorrer una señal (100 Km. aprox.) antes de necesitar un repetidor para aumentar su intensidad, el desarrollo de fibras para poder transmitir rayos láser de alta potencia utilizados para cortar materiales, la transmisión de luz a lugares de difícil acceso, ampliación de la telefonía para la implantación de servicios de banda ancha tales como videoconferencias o videotelefonía, etc. Pero las mas importantes tendencias en este momento van enfocadas hacia la transferencia de información cuántica, llamada “Criptografía Cuántica”, de la cual se han realizado ya algunos adelantos, uno de los mas recientes, fue realizado en el 2005 por dos grupos de investigación, en la Universidad de Harvard y en el instituto de tecnología de Georgia, en Estados Unidos; estos equipos utilizaron pulsos laser para extraer información cuántica de una nube de átomos en la forma de un solo fotón, que fue transmitido a través de una fibra óptica normal de 100 metros de largo (Fig. 6) antes de que su estado cuántico fuera DEFIBRA OPTICA óptica fue el TAT-8 que comenzó a operar en 1988. F IG . 5: E JEMPLO DE CABLE P á g i n a | 38 P á g i n a | 39 muy pequeño (alrededor de 10 nm), esto mimetiza las propiedades básicas de un átomo, permitiendo la aplicación de la física atómica en el semiconductor. Este tipo de láser se podría utilizar para operar en longitudes de onda imposibles de obtener por medio de la tecnología láser actual, en 8 http://www.novaciencia.com/2005/12/1 3/logran-comunicacion-en-red-cuantica/ - 02/12/089http://www.fisicahoy.com/fisicaHoy/mC uantico/mCuantico.html -03/12/08- diferentes aplicaciones como la medicina, proyección, TV laser, espectroscopia y telecomunicaciones. INFORMACION CUANTICA Un avance aun mas reciente y mas impresionante es la posibilidad de realizar cables de fibra óptica utilizando hilos de ADN11, el cual abriría un gran campo de aplicaciones, como ser parte de circuitos de fotones en computadores moleculares o iluminar cosechas fotosintéticas artificiales, gracias a que tendría una estructura muy rígida y unas dimensiones en escala nanométrica. Los “cables” encargados de transportar los fotones a donde son necesitados han sido desarrollados por científicos de la Universidad de tecnología en Suecia, utilizando una mezcla de ADN y moléculas llamadas cromóforos que tienen la propiedad de absorber o dejar pasar la luz y también de auto repararse, posibilitando la transferencia de información a través de estos hilos sin problema. F IG . 6: T RANSFERENCIA DE transferido a una segunda nube atómica8, esta clase de investigación promete grandes avances en el campo de la comunicación pues es una red totalmente impenetrable, en la cual cualquier intento de espionaje alterara la naturaleza cuántica la información, 9 esta técnica también podría ser empleada para la construcción de las llamadas computadoras cuánticas las cuales se basan en la idea de que las partículas cuánticas puedes existir en mas de un estado al mismo tiempo significando también que las computadoras serian capaces de hacer muchas operaciones al mismo tiempo a velocidades impresionantes, otra clase de investigación se adelanta en un tipo de láser semiconductor el cual en su región de emisión de luz utiliza puntos cuánticos10, (QD, quantum dots) que son semiconductores que tienen estados de energía completamente cuantizados, logrados gracias al confinamiento de un portador de carga en un volumen En conclusión podemos ver como a partir de la aplicación de dos teorías extraordinarias que dieron mucho de que hablar en su época, se llego al desarrollo tecnológico de un instrumento, el laser, al cual en principio no se le encontró un uso especifico llegando hoy en día ser indispensable en nuestra vida cotidiana aunque no seamos consientes de ello, vemos que la tecnología no se queda ahí y que se hacen esfuerzos por investigar y mejorar este instrumento por medio de una de sus mas grandes aplicaciones como lo es su uso por medio de fibra óptica, para que en el futuro podamos sacar provecho para solucionar muchos de los problemas y dificultades con la tecnología de hoy. Se espera que en muy poco tiempo se pueda sacar un gran 10 11 http://blogs.creamoselfuturo.com/nanotecnologia/2008/05/07/lasers-depuntos-cuanticos/ -01/12/08- http://www.newscientist.com/article/dn1 6029-dna-strands-become-fibre-opticcables.html .- 01/12/08- P á g i n a | 40 partido de esto y que revolucione el campo de la comunicación global, llegando a ser una tecnología al alcance de todos y así contribuir al desarrollo de la sociedad. Referencias: 1. www.monografias.com/trabajos13/f ibropt/fibropt.shtml 2. http://www7.nationalacademies.org /spanishbeyonddiscovery/tec_0075 20.html#TopOfPage 3. http://www.fisicahoy.com/fisicaHoy/ mCuantico/mCuantico.html 4. http://es.wikipedia.org/wiki/L%C3% A1ser 5. http://www.novaciencia.com/2005/1 2/13/logran-comunicacion-en-redcuantica/ 6. http://blogs.creamoselfuturo.com/n ano-tecnologia/2008/05/07/lasersde-puntos-cuanticos/ 7. http://www.newscientist.com/article /dn16029-dna-strands-becomefibre-optic-cables.html