www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica Computación cuántica Recientes descubrimientos en torno a la manipulación de átomos han propiciado nuevos avances hacia el logro de la computación cuántica a gran escala y la simulación de sistemas de materia condensada. Las investigaciones las ha llevado a cabo un equipo alemán financiado con fondos europeos, a partir del Séptimo Programa Marco (7PM), y perteneciente al Instituto Max Planck de Óptica Cuántica. En concreto, los científicos modificaron átomos únicos en una matriz de luz y cambiaron su espín, nombre por el que se conoce a un movimiento en dos sentidos, cada uno de los cuales representa el estado 0 y el estado 1, de tal modo que los datos se codifican del mismo modo que hacen los ordenadores convencionales con bits. Además, el equipo controló completamente átomos individuales y "escribió" patrones bidimensionales arbitrarios. El proceso comenzó mediante la carga de átomos de rubidio enfriados mediante láser en cristales artificiales de luz creados mediante la superimposición de varios haces de láser. A continuación, los átomos se mantuvieron en la matriz de luz, una tarea descrita por el equipo como equiparable a mantener canicas en los huecos de un cartón de huevos. La matriz de luz deforma ligeramente la cubierta de electrones de un átomo y como resultado se obtienen cambios en la diferencia de energía entre sus dos estados de espín. Al aprovechar la versatilidad de los átomos ultrafríos en matrices ópticas, los investigadores lograron aumentar el grado de control sobre el experimento. Consecuentemente, los científicos demostraron la posibilidad de ejercer un control de este tipo al nivel más fundamental de un espín único en una ubicación concreta de una matriz óptica. A partir de una composición de dieciséis átomos alineados en ubicaciones de matriz contiguas como si de un collar de cuentas se tratara, los científicos estudiaron qué sucede cuando la altura de la matriz se reduce hasta que las partículas son capaces de generar un efecto túnel como el explicado por la mecánica cuántica. Los resultados muestran que se mueven de una ubicación en la matriz a otra incluso aunque su energía no alcance para cruzar la barrera entre los pozos de las matrices. Al alinear los átomos fueron capaces de observar de forma directa sus dinámicas de tunelación en lo que podría describirse como una "carrera" entre los átomos. En otras palabras, se ha logrado modificar cada átomo de la matriz al cambiar su estado energético y ahora el siguiente paso es efectuar operaciones lógicas elementales entre dos átomos concretos de la matriz, las denominadas "puertas cuánticas". La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras un computador clásico equivale a una máquina de Turing,1 un computador cuántico equivale a una máquina de Turing cuántica. Origen de la computación cuántica A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en el mismo espacio; así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejan de www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son demasiado finas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente. En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica en escena. La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits. El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así, un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (millones de millones de operaciones en coma flotante por segundo), cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones). Problemas de la computación cuántica Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del carácter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuánticos, con lo cual sí serían posibles tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos. Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día. Hardware para computación cuántica Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vinzenzo, y hay varios candidatos actualmente. Condiciones a cumplir El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado. Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir cualquier otra puerta lógica posible). El sistema ha de mantener su coherencia cuántica a lo largo del experimento. www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica Ha de poder leerse el estado final del sistema, tras el cálculo. El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de qubits, para tratar con problemas de mayor coste computacional. Candidatos Espines nucleares de moléculas en disolución, en un aparato de RMN. Flujo eléctrico en SQUIDs. Iones suspendidos en vacío . Puntos cuánticos en superficies sólidas. Imanes moleculares en micro-SQUIDs. Computadora cuántica de Kane. Computación adiabática, basada en el teorema adiabático. Procesadores En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica, por lo que son llamados qubits por analogía con los bits. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano. Transmisión de datos Científicos de los laboratorios Max Planck y Niels Bohr publicaron, en noviembre de 2005, en la revista Nature, resultados sobre la transmisión de información cuántica, usando la luz como vehículo, a distancias de 100 km. Los resultados dan niveles de éxito en las transmisiones de 70%, lo que representa un nivel de calidad que permite utilizar protocolos de transmisión con autocorrección. Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a las ya alcanzadas. Software para computación Algoritmos cuánticos Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de base y trabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables al nivel de error de las máquinas actuales. Algoritmo de Shor Algoritmo de Grover Algoritmo de Deutsch-Jozsa Modelos Computadora cuántica de Benioff Computadora cuántica de Feynman Computadora cuántica de Deutsch Complejidad La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen de error. Problemas propuestos Se ha sugerido el uso de la computación cuántica como alternativa superior a la computación clásica para varios problemas, entre ellos: Factorización de números enteros Logaritmo discreto Simulación de sistemas cuánticos: Richard Feynman conjeturó en 1982 que los ordenadores cuánticos serían eficaces como simuladores universales de sistemas cuánticos, y en 1996 se demostró que la conjetura era correcta. Cronología www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica Años 80 A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica. 1981 - Paul Benioff Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que trabajaba en el Argone National Laboratory en Illinois (EE.UU.). Teorizó un ordenador tradicional (máquina de Turing) operando con algunos principios de la mecánica cuántica. 1981-1982 Richard Feynman El Dr. Richard Feynman, físico del California Institute of Technology en California (EE.UU.) y ganador del premio Nobel en 1965 realizó una ponencia durante el “First Conference on the Physics of Computation” realizado en el Instituto Tecnológico de Massachusetts (EE.UU.) Su charla, bajo el título de “Simulating Physics With Computers" proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y exponía que dada su naturaleza algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico. 1985 - David Deutsch Este físico israelí de la Universidad de Oxford, Inglaterra, describió el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico (principio de Church-Turing ampliado). De este modo surgió la idea de que un computador cuántico podría ejecutar diferentes algoritmos cuánticos. Años 90 En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas capaces de realizar cálculos cuánticos. 1993 - Dan Simon Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un problema teórico que demostraba la ventaja práctica que tendría un computador cuántico frente a uno tradicional. Comparó el modelo de probabilidad clásica con el modelo cuántico y sus ideas sirvieron como base para el desarrollo de algunos algoritmos futuros (como el de Shor). 1993 - Charles Benett Este trabajador del centro de investigación de IBM en Nueva York descubrió el teletransporte cuántico y que abrió una nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas. 1994-1995 Peter Shor Este científico estadounidense de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional. Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran parte de la comunidad científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de investigación con un gran potencial. Además, un año más tarde, propuso un sistema de corrección de errores en el cálculo cuántico. 1996 - Lov Grover Inventó el algoritmo de búsqueda de datos que lleva su nombre. Aunque la aceleración conseguida no es tan drástica como en los cálculos factoriales o en simulaciones físicas, su rango de aplicaciones es mucho mayor. Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo probabilístico con un alto índice de acierto. 1997 - Primeros experimentos En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos teóricamente hasta entonces. El primer experimento de comunicación segura usando criptografía cuántica se realiza con éxito a una distancia de 23 Km. Además se realiza el primer teletransporte cuántico de un fotón. 1998 - 1999 Primeros Qbit Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets consiguen propagar el primer Qbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un Qbit. Durante ese mismo año, nació la primera máquina de 2Qbit, que fue presentada en la Universidad de Berkeley, California (EE.UU.) Un año más tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3-Qbit y además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover. www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica Año 2000 hasta ahora 2000 - Continúan los progresos De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE.UU) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits de los computadores tradicionales. 2001 - El algoritmo de Shor ejecutado IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con 7 átomos. 2005 - El primer Qbyte El Instituto de “Quantum Optics and Quantum Information” en la universidad de Innsbruck (Austria) anunció que sus científicos habían creado el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones. 2006 - Mejoras en el control del cuanto Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y consiguen desarrollar un sistema de 12-Qbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de Qbits empleados por los computadores. 2007 - D-Wave La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina, llamada Orion, no es realmente una computadora cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas. 2007 - Bus cuántico En septiembre de 2007, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente dispositivo. 2008 - Almacenamiento Según la Fundación Nacional de Ciencias (NSF) de los EEUU, un equipo de científicos consiguió almacenar por primera vez un Qubit (el equivalente a un "bit" del "mundo clásico", pero en el "mundo cuántico") en el interior del núcleo de un átomo de fósforo, y pudieron hacer que la información permaneciera intacta durante 1.75 segundos. Este periodo puede ser expansible mediante métodos de corrección de errores, por lo que es un gran avance en el almacenamiento de información. 2009 - Procesador cuántico de estado sólido El equipo de investigadores estadounidense dirigido por el profesor Robert Schoelkopf, de la universidad de Yale, que ya en 2007 había desarrollado el Bus cuántico, crea ahora el primer procesador cuántico de estado sólido, mecanismo que se asemeja y funciona de forma similar a un microprocesador convencional, aunque con la capacidad de realizar sólo unas pocas tareas muy simples, como operaciones aritméticas o búsquedas de datos. Para la comunicación en el dispositivo, esta se realiza mediante fotones que se desplazan sobre el bus cuántico, circuito electrónico que almacena y mide fotones de microondas, aumentando el tamaño de un átomo artificialmente. www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica 08/04/2010 Artículo de Verónica Fernández Mármol y Gonzalo Álvarez Marañón, miembros del Grupo de Investigación en Criptología y Seguridad de la Información del CSIC. Criptografía cuántica, seguridad total para las comunicaciones de las empresas La mecánica cuántica y sus paradojas abandonan los libros de texto de física para entrar de lleno en la seguridad de la información. La física cuántica, la óptica cuántica y la criptografía unen sus fuerzas para crear lo que se ha dado en llamar criptografía cuántica, la primera forma de transmitir información de manera segura protegida por las leyes de la física. Gracias a este canal de comunicación cuántica, ningún intruso podrá obtener información sobre los bits que están siendo transmitidos. Los primeros sistemas comerciales ya están operativos y a la venta, con la promesa de proteger su información de manera cien por cien segura. Si nos preguntasen “¿qué ha hecho la física cuántica por ti?”, tal vez no sabríamos qué responder. Y sin embargo, nuestra vida cotidiana está plagada de aparatos y dispositivos cuyo funcionamiento se basa en las leyes de la mecánica cuántica: desde los transistores integrados a escalas masivas en los procesadores de nuestros ordenadores y teléfonos móviles, hasta los láseres que nos permiten escuchar CD musicales o ver películas en DVD, pasando por el receptor GPS para guiarnos por las carreteras o los relojes atómicos para conocer la hora con gran precisión. A pesar de lo maravilloso de estos inventos, lo mejor está aún por llegar, de la mano de la revolución en la información cuántica. Los científicos están comenzando a explotar las paradójicas propiedades del mundo cuántico para construir nuevos sistemas de procesamiento y de transmisión de información. Una de tales paradojas es que enviar y almacenar información secreta será más fácil y difícil a la vez: por un lado, en el mundo cuántico pueden enviarse mensajes de manera totalmente segura, mientras que por otro lado pueden construirse ordenadores capaces de atacar los algoritmos de criptografía actuales. Aunque todavía los ordenadores cuánticos quedan lejos en el horizonte, los primeros sistemas comerciales de criptografía cuántica ya están a la venta. En este artículo se arroja una mirada crítica a los logros actuales de la criptografía cuántica. La criptografía cuántica no existe La computación cuántica constituye un nuevo paradigma computacional basado en la mecánica cuántica, que encierra la promesa de resolver eficientemente problemas como la factorización de enteros, el logaritmo discreto y la simulación cuántica (véase el recuadro Computación cuántica). Los ordenadores cuánticos no manipularán bits de información, sino bits cuánticos o qubits, los cuales poseen la sorprendente propiedad de representar el estado “1” ó “0” simultáneamente. A pesar de tratarse de uno de los campos de investigación más activos de la actualidad, lo cierto es que a día de hoy solamente existen algunos pequeños prototipos de procesadores de laboratorio capaces de manejar unos pocos qubits, pero nada que podamos llamar propiamente un ordenador cuántico, comparable a nuestros ordenadores. Por usar un símil con la informática clásica, ni siquiera nos encontramos en la época pionera del ENIAC o del Colossus, primeros proto ordenadores concebidos durante la década de los 40 precisamente en el seno de la criptografía, equipados con válvulas de vacío, diodos de cristal y relés. La informática y con ella la revolución de las comunicaciones no despegó hasta la invención del transistor por los Laboratorios Bell en 1947. El transistor dio lugar a los circuitos integrados y demás elementos de la alta escala de integración y posibilitó la construcción de ordenadores cada vez más pequeños, según la famosa Ley de Moore, propuesta en 1965 por Gordon Moore, cofundador de Intel. Ahora bien, cuando la miniaturización alcanza la escala atómica, o se busca un nuevo paradigma computacional o no es posible seguir miniaturizando. Hoy por hoy, no se ha descubierto el elemento cuántico que permita la alta integración y escalabilidad, posibilitando así el despegue de la computación cuántica. www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica Para crear un ordenador cuántico se necesita un sistema físico que se comporte cuánticamente durante un período de tiempo suficientemente largo y que pueda ser accedido y manipulado fácilmente. Se está experimentando intensamente en laboratorios de investigación de todo el mundo con qubits basados en partículas cuánticas (átomos, fotones, etc.) o qubits basados en estructuras macroscópicas a las que se obliga a comportarse cuánticamente. Algunos laboratorios han conseguido crear métodos de control cuánticos que manejan hasta 12 qubits, mientras que sólo se han conseguido procesadores cuánticos de 2 qubits que realicen un algoritmo. Además, todos requieren una complicada y costosa tecnología, generan tasas de errores de hasta el 20 por ciento y sus qubits poseen tiempos de vida de menos de 1 microsegundo. Para poder ser práctica, la computación cuántica necesitaría miles de qubits, hoy por hoy nada más que un sueño de ciencia ficción. Por otro lado, aunque se han ideado numerosos algoritmos cuánticos para efectuar tareas como factorizar enteros o realizar búsquedas en una base de datos, no existe propiamente ningún algoritmo cuántico de criptografía. Por lo tanto, si aún no existen los ordenadores cuánticos ni existen algoritmos cuánticos de criptografía, ¿podemos hablar de criptografía cuántica? Con propiedad, no. Hoy en día, lo que todo el mundo entiende cuando se menciona el término criptografía cuántica es en realidad la distribución cuántica de claves. El problema de la distribución de claves Durante siglos el hombre se ha esforzado por proteger la información. Así fue como nació y fue evolucionando la criptografía, con sus distintos algoritmos de cifrado. Sin embargo, un problema que trajo de cabeza a criptógrafos de todas las épocas fue el de la transmisión de claves. Por muy perfecto y seguro que sea un algoritmo de cifrado, necesita utilizar una clave para cifrar y descifrar. ¿Cómo hacer para transmitir la clave de manera segura? De nada sirve proteger criptográficamente los mensajes si un intruso puede robar con facilidad la clave usada para cifrarlos. Históricamente se usaron todo tipo de soluciones parciales e insatisfactorias al problema de distribución de claves: desde palomas a mensajeros custodiados por soldados. Desgraciadamente, o no alcanzaban una seguridad razonable, o resultaban logísticamente inviables para escenarios con multitud de usuarios. Después de la Segunda Guerra Mundial, a medida que la criptografía se popularizó fuera de círculos militares y diplomáticos, la distribución de claves parecía un problema insoluble: si dos partes deseaban comunicarse mediante mensajes cifrados, necesitaban confiar en una tercera parte para transmitir las claves de cifrado, la cual pasaba a convertirse en el eslabón más débil de la cadena de seguridad. La criptografía parecía haber llegado a un punto muerto, un callejón sin salida que la ponía fuera del alcance de civiles y pequeñas empresas. No fue hasta el año 1976, cuando Whitfield Diffie y Martin Hellman inventaron la criptografía de clave pública, que pudo atisbarse la luz al final del túnel. Tras la propuesta del algoritmo RSA por Rivest, Shamir y Adleman pudieron por primera vez en la Historia transmitirse de manera razonablemente segura claves de cifrado entre varias partes sin necesidad de que éstas se conocieran previamente ni de utilizar mensajeros de confianza. Se había resuelto el problema de la distribución de claves. La criptografía se democratizó, quedando por fin al alcance de todas las personas. A pesar de las innegables virtudes de los algoritmos de clave pública como RSA, lo cierto es que se basan en la premisa nunca demostrada de que no es posible resolver en tiempo polinómico ciertos problemas difíciles de matemáticas, como por ejemplo, la factorización de números enteros compuestos por el producto de dos primos. En otras palabras, nadie sabe si RSA y otros algoritmos parecidos son de verdad seguros. Y lo que es peor, los ordenadores cuánticos podrían implementar algoritmos capaces de factorizar números enteros grandes, como los utilizados en las claves RSA, lo que significaría el fin de la criptografía de clave pública tal y como la conocemos. En este panorama tan poco halagüeño, la distribución cuántica de claves ofrece la promesa de distribuirlas de manera cien por cien segura. ¿Cómo es esto posible?. www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica Qué es y para qué sirve la distribución cuántica de claves. La piedra angular de la criptografía cuántica es el principio de incertidumbre de Heisenberg que, como aprendimos en la Universidad, nos enseña que no pueden conocerse simultáneamente con exactitud dos variables complementarias, como la posición y la velocidad, de una partícula. Supongamos entonces que tenemos un fotón que puede estar polarizado en una de cuatro direcciones distintas: vertical (|), horizontal (–), diagonal a la izquierda (\) o diagonal a la derecha (/). Estas cuatro polarizaciones forman dos bases ortogonales: por un lado, | y –, a la que llamaremos base (+), y por otro lado, / y \, a la que llamaremos (×). Pues bien, el principio de incertidumbre de Heisenberg, por irracional que nos parezca, impide que podamos saber en cuál de las cuatro posibles polarizaciones se encuentra el fotón. Para conocerla, deberíamos utilizar un filtro, que podríamos imaginarnos como una ranura en una lámina, que tuviera la orientación, por ejemplo, vertical (|). Es evidente que los fotones con la misma polarización pasarán, mientras que los polarizados horizontalmente, y por lo tanto, perpendiculares al filtro, no pasarán. Sorprendentemente, ¡la mitad de los polarizados diagonalmente pasarán y serán reorientados verticalmente! Por lo tanto, si se envía un fotón y pasa a través del filtro, no puede saberse a ciencia cierta si poseía polarización vertical o diagonal, tanto \ como /. Igualmente, si no pasa, no puede afirmarse que estuviera polarizado horizontal o diagonalmente. En ambos casos, un fotón con polarización diagonal podría pasar o no con igual probabilidad. Para utilizar estos increíbles resultados en distribución de claves, se acuerda representar un 1 o un 0 de información según la polarización de los fotones que se envían. Así, en la base rectangular (+), un 1 vendría representado por una polarización |, mientras que un 0, por –; mientras que en la base diagonal (×), el 1 sería la polarización / y el 0, \. En estas condiciones, para enviar un mensaje binario, Alicia va enviando fotones a Bernardo con la polarización adecuada, cambiando aleatoriamente de una base a otra. Si un intruso, Ignacio, intercepta los fotones y mide su polarización utilizando un filtro, digamos (|), debido al principio de incertidumbre nunca podrá saber si los fotones pertenecían a la base + o ×. Por lo tanto, nunca sabrá qué mensaje se envió, da igual qué tipo de filtro utilice. Ahora bien, algún lector ya se estará dando cuenta de que si Ignacio se encuentra con este dilema, lo mismo le ocurrirá a Bernardo. Efectivamente, emisor y receptor no pueden acordar de antemano qué bases se utilizarán para enviar cada fotón, porque entonces nos encontraríamos con el problema de cómo hacerse llegar mutuamente de forma segura esa lista de bases y volveríamos al principio. En 1984 Charles Bennet y Gilles Brassard idearon el siguiente método para hacer llegar el mensaje al destinatario sin necesidad de recurrir a otros canales de distribución. En primer lugar, debe allanarse el camino mediante los siguientes tres pasos: Paso 1: Alicia le envía a Bernardo una secuencia aleatoria de 1’s y 0’s, utilizando una elección aleatoria entre las bases + y ×. Paso 2: Bernardo tiene que medir la polarización de estos fotones. Para ello, utiliza aleatoriamente las bases + y ×. Claro está, como no tiene ni idea de qué bases utilizó Alicia, la mitad de las veces estará eligiendo mal la base. Paso 3: para resolver esta situación, Alicia llama a Bernardo por teléfono, o se conectan a un chat, o utilizan cualquier otro canal de comunicaciones inseguro, sin preocuparles si son espiados por Ignacio, y le cuenta qué base de polarización utilizó para cada fotón que envió, + o ×, aunque no le dice qué polarización concreta. En respuesta, Bernardo le cuenta a Alicia en qué casos ha acertado con la polarización correcta y por lo tanto recibió el 1 ó 0 sin error. Ahora ya, ambos eliminan los bits que Bernardo recibió con las bases erróneas, quedando una secuencia un 50 por ciento menor que la original, que constituye la clave de una cinta aleatoria cien por cien segura, puesto que se generó de forma completamente aleatoria por ser derivada de una secuencia original de 1’s y 0’s aleatoria. www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica ¿Y qué ocurre con el malvado Ignacio? Para su desgracia, aunque intercepte los mensajes de Alicia y Bernardo, sólo obtendría un 25 por ciento de la secuencia inicial y el 50 por ciento de la secuencia una vez corregidas las bases. Más aún, la mera presencia de Ignacio en la línea será detectada, ya que si mide la polarización de un fotón con el detector equivocado, la alterará. Lamentablemente, como el lector avispado se dará cuenta, esta alteración impediría que Alicia y Bernardo pudieran ponerse de acuerdo acerca de la secuencia aleatoria a usar como cinta, debido a que, si Ignacio cambió la polarización de un fotón por el camino, podrían obtener distintos bits incluso aunque utilicen las mismas bases. Por consiguiente, hace falta un método para detectar que Ignacio no esté haciendo de las suyas. En realidad, resulta tan sencillo como sigue: Bernardo le cuenta a Alicia, utilizando el mismo u otro canal inseguro, cuáles son los primeros, digamos que, 50 bits de su clave aleatoria. Si coinciden con los de Alicia, entonces saben que Ignacio no les espió ni el canal tiene ruido y utilizan con seguridad el resto de los bits generados. Si no coinciden, ya saben que Ignacio metió la manaza por medio o utilizaron un canal muy ruidoso y por lo tanto deben desechar la clave entera. En 15 años, puede decirse que no se han producido muchos más avances teóricos en el campo de la (mal llamada) criptografía cuántica, aunque se han dado pasos de gigante en cuanto a la implementación tecnológica de lo que, de otra forma, habrían terminado como elucubraciones mentales para juegos de salón. Manipular fotones individuales constituye todo un desafío de ingeniería, que fue aceptado con entusiasmo por Bennet y un estudiante. Y así, en 1989, consiguieron la primera transmisión de señales cuánticas de la historia a una distancia de 32 cm. ¡El sueño de la distribución cuántica de claves (QKD) por fin se hacía realidad! Avances en la distribución cuántica de claves Desde la primera vez que fue demostrada experimentalmente, los avances en los sistemas de distribución cuántica de claves han sido continuos. El canal de transmisión de los estados cuánticos que cifran la clave en estos sistemas suele ser la clásica fibra óptica o el espacio libre, ya que la atmósfera es un buen transmisor de las longitudes de onda típicas de estos sistemas. Los sistemas que utilizan fibra han avanzado considerablemente, especialmente en minimizar los efectos de degradación que sufren los delicados estados cuánticos al ser transmitidos por un medio que, al fin y al cabo, no es ideal. Por ello se han diseñado sistemas inteligentemente autocompensados que transmiten eficientemente los estados cuánticos eliminando los efectos negativos que introduce la fibra óptica. Los sistemas en espacio libre también han avanzado considerablemente desde aquella primera transmisión a sólo 32 cm de distancia a finales de los 80. Los sistemas actuales son capaces de transmitir a más de 100 Km claves cuánticas y cuentan con complejos sistemas de seguimiento y alineación El primer sistema que utilizó fibra estándar de telecomunicaciones para transmitir claves cuánticas nació en 1993 de una colaboración entre British Telecom y una compañía británica de defensa QinetiQ. Lograron una transmisión en laboratorio utilizando un rollo de fibra estándar de 10 Km de longitud. Dos años después consiguieron aumentar la distancia a 30 Km al mismo tiempo que investigadores de la Universidad de Ginebra consiguieron alcanzar los 23 Km, pero utilizando fibra óptica instalada por una compañía de telecomunicaciones y con un sistema mucho más estable. En 2002 la distancia se aumentó hasta los 67 Km por este mismo grupo y nació el primer producto comercial de transmisión cuántica de claves. Actualmente, el récord de distancia de transmisión lo ostenta el laboratorio de Los Álamos y el NIST con 150 Km de transmisión cuántica obtenida. Por su parte, en enlaces aéreos la distancia más larga ha sido de 1.6144 Km, en una colaboración de lo más selecto de la investigación europea en este campo en el que se lograron mandar claves cuánticas desde la isla de la Palma a Tenerife y cuyos resultados fueron publicados en la revista Nature. Los enlaces aéreos despiertan un interés especial ya que en un principio podrían suponer la comunicación segura a nivel global. www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica La transmisión en fibra óptica presenta un serio inconveniente, ya que la distancia máxima está limitada por las pérdidas en la fibra. A diferencia de un sistema convencional, los sistemas cuánticos no permiten la utilización de amplificadores ópticos, los cuales recuperan la señal cuando ésta pierde intensidad, ya que estos perturbarían los estados cuánticos de la clave. Sin embargo, un enlace aéreo entre dos puntos que incluyera un satélite en baja órbita terrestre como intermediario resolvería este problema, ya que el emisor podría mandar la clave al satélite, que a su vez la transportaría al lugar deseado para posteriormente reenviársela al receptor. Sin embargo una transmisión real por satélite está todavía lejos de realizarse, si bien los retos tecnológicos que se presentan no son insalvables. ¿A quién beneficia la distribución cuántica de claves? Hoy por hoy, la distribución cuántica de claves es una tecnología inmadura con una serie de importantes limitaciones: Sólo sirve para crear enlaces punto a punto utilizando redes pasivas, bien por fibra óptica, bien por enlace aéreo, como por ejemplo dos sucursales bancarias en la misma ciudad. No es posible que dos usuarios puedan enviarse claves si no han creado previamente este enlace. El equipamiento para crear estos enlaces es muy caro. La velocidad de transmisión de claves es todavía muy lenta. Las soluciones comerciales ofrecen velocidades del orden de 1 Kbps. Para hacernos una idea de la magnitud de esta velocidad, para transmitir un DVD se tardaría más de un año. Resultaría más rápido enviar la clave con un mensajero. Las distancias de conexión son todavía muy cortas, de hasta 150 Km. El problema de la autenticación está aún sin resolver de manera satisfactoria. ¿Cómo sabe Alicia quién está al otro lado de la comunicación? Las soluciones propuestas hasta la fecha se basan en compartir previamente una clave antes de empezar la distribución de claves, pero nos retrotrae al problema original: ¿cómo comparto esa clave inicial de manera segura? Por consiguiente, podemos afirmar que a día de hoy la distribución cuántica de claves constituye un caro capricho tecnológico para organizaciones con elevados recursos y grandes requisitos de seguridad, como por ejemplo los bancos o los militares, que necesitan transmitir claves de forma segura entre unos pocos puntos clave. El resto nos seguiremos conformando de momento y por mucho tiempo con la criptografía de clave pública y los certificados digitales. ______________________________________ Encontrará más documentos en la Sección de Descargas de Seguridad GITS Informática. Gits mira por tus derechos. Gits es Pro-Vida. Por razones ecológicas y económicas, imprima este documento solo si es necesario y, a ser posible, en papel reciclado. Gracias por su colaboración con el medio ambiente. Copyright (c) 2003. Gits Informática. All rights reserved. www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica SUPERPOSICIÓN DE ESTADOS, SINCRONÍA Y FUERZA DE ESTADOS Como se describió anteriormente, la paradoja del Gato de Schrödinger nos ilustra acerca de una propiedad cuántica inherente a la materia: su capacidad de alterar entre sus estados posibles, o, lo que es lo mismo, su cualidad de estar en estados superpuestos... Esta propiedad permite a los sistemas el tener resultados diversos después de cada medición... Cosas muy simples pueden crear todo un resultado distinto en un sistema, y esto se debe a su capacidad de estar superpuesto... Esto es más visible en los sistemas cuánticos, ya que es materia en su mínima expresión, y por ende, su afectación es más notoria como unidad que como un todo monumental... Igual describimos que esta cualidad genera los universos paralelos gracias a su potencial de diferir en su resultado... Ahora, es otro hecho conocido en la física cuántica el poder del observador sobre el sistema... Su presencia se considera, de hecho, una variable adicional introducida al sistema, de tal forma que el que esté o no presente afecta el resultado de una u otra forma... Es por eso por lo que en la física cuántica "el observador es una variable que no puede ser ignorada".... ¿De qué forma el observador afecta el resultado del sistema...?, seguro se preguntarán... El observador en sí es un sistema cuántico definido por una compleja ecuación de onda, que lo determina como objeto cuántico... Igualmente, podemos hablar del entrelazamiento cuántico, descrito en la paradoja EPR (Einstein-Podosky-Rosen), la cuál habla de que dos sistemas cuánticos pueden "entrelazar" sus estados cuánticos, logrando que estos solo puedan ser medidos como un todo, en vez de unidades, incluso aunque estén separados por espacio o tiempo (es sabido que las ondas tienen la capacidad de viajar hacia delante o hacia atrás en el tiempo, siguiente tema en la agenda...) Esto puede ocurrir con todos los sistemas cuánticos, y el observador y el sistema que observa no están descartados de la aplicación de esta cualidad... Este estado cuántico viene relacionado tanto con la paradoja EPR como con el teorema de Bell, que es subsecuente a este planteamiento... Ahora, les explicaré, con algunas citas de otras fuentes, qué describe la paradoja EPR y la desigualdad de Bell..: Cita de: http://es.wikipedia.org/wiki/Paradoja_EPR La paradoja de Einstein-Podolsky-Rosen, denominada «Paradoja EPR», consiste en un experimento mental propuesto por Albert Einstein, Boris Podolsky y Nathan Rosen en 1935. A Einstein (y a muchos otros científicos), la idea del entrelazamiento cuántico le resultaba extremadamente perturbadora. Esta particular característica de la mecánica cuántica permite preparar estados de dos o más partículas en los cuales es imposible obtener información útil sobre el estado total del sistema haciendo sólo mediciones sobre una de las partículas. Por otro lado, en un estado entrelazado, manipulando una de las partículas, se puede modificar el estado total. Es decir, operando sobre una de las partículas se puede modificar el estado de la otra a distancia de manera instantánea. Esto habla de una correlación entre las dos partículas que no tiene contrapartida en el mundo de nuestras experiencias cotidianas. El experimento planteado por EPR consiste en dos partículas que interactuaron en el pasado y que quedan en un estado entrelazado. Dos observadores reciben cada una de las partículas. Si un observador mide el momento de una de ellas, sabe cuál es el momento de la otra. Si mide la posición, gracias al entrelazamiento cuántico y al principio de incertidumbre, puede saber la posición de la otra partícula de forma instantánea, lo que contradice el sentido común. La paradoja EPR está en contradicción con la teoría de la relatividad, ya que se transmite información de forma instantánea entre las dos partículas. De acuerdo a EPR, esta teoría predice un fenómeno (el de la acción a distancia instantánea) pero no permite hacer predicciones deterministas sobre él; por lo tanto, la mecánica cuántica es una teoría incompleta. Esta paradoja (aunque, en realidad, es más una crítica que una paradoja), critica dos conceptos cruciales: la no localidad de la mecánica cuántica (es decir, la posibilidad de acción a distancia) y el problema de la medición. En la Física clásica, medir un sistema, es poner de manifiesto propiedades que se encontraban presentes en el mismo, es decir, que es una www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica operación determinista. En Mecánica cuántica, constituye un error asumir esto último. El sistema va a cambiar de forma incontrolable durante el proceso de medición, y solamente podemos calcular las probabilidades de obtener un resultado u otro. Hasta el año 1964, este debate perteneció al dominio de la filosofía de la ciencia. En ese momento, John Bell propuso una forma matemática para poder verificar la paradoja EPR. Bell logró deducir unas desigualdades asumiendo que el proceso de medición en Mecánica cuántica obedece a leyes deterministas, y asumiendo también localidad, es decir, teniendo en cuenta las críticas de EPR. Si Einstein tenía razón, las desigualdades de Bell son ciertas y la teoría cuántica es incompleta. Si la teoría cuántica es completa, estas desigualdades serán violadas. Desde 1976 en adelante, se han llevado a cabo numerosos experimentos y absolutamente todos ellos han arrojado como resultado una violación de las desigualdades de Bell. Esto implica un triunfo para la teoría cuántica, que hasta ahora ha demostrado un grado altísimo de precisión en la descripción del mundo microscópico, incluso a pesar de sus consabidas predicciones reñidas con el sentido común y la experiencia cotidiana. En la actualidad, se han realizado numerosos experimentos basados en esta paradoja y popularizados en ocasiones bajo el nombre de teletransporte cuántico. Este nombre llama a engaño, ya que el efecto producido no es un teletransporte de partículas al estilo de la ciencia ficción sino la transmisión de información del estado cuántico entre partículas entrelazadas. La comprensión de esta paradoja ha permitido profundizar en la interpretación de algunos de los aspectos menos intuitivos de la mecánica cuántica. Esta área continúa en desarrollo con la planificación y ejecución de nuevos experimentos. Cita de: http://fisicayciencia.blogspot.com/2006/07/variables-ocultas-y-desigualdad-de.html Curiosamente no todo el mundo tiene claro qué sucede con la "teoría" de variables ocultas y el choque que existía con la interpretación de la mecánica cuántica. Este asunto está resurgiendo gracias al interés que se está despertando por el "entrelazamiento" en los procesos de computación cuántica. Intentando hacer un resumen, sin mucho rigor matemático: En el año 1964 John Bell propuso una forma matemática para poder comprobar la paradoja EPR, es decir la paradoja planteada por Albert Einstein, Boris Podolsky y Nathan Rosen en 1935. Bell demostró matemáticamente que ciertas desigualdades son ciertas si las críticas de EPR son correctas y no se cumplían si eran falsas. Por otro lado se demostró que las propuestas de la teoría de variables ocultas y las de la cuántica eran mutuamente excluyentes. Es decir, o bien existen variables ocultas o bien el artículo de EPR es falso, y existe la posibilidad de colapso de una función de onda entrelazada, independientemente del envío de señales de un punto a otro de la misma. Juntando ambos resultados tenemos que si conseguimos montar experimentos que demuestren que las desigualdades de Bell son ciertas o son falsas, conseguiremos por fin librarnos o no de la cuántica. Se han propuesto y montado varios experimentos que probaban el test de BELL, algunos ejemplos son: Freedman and Clauser, 1972. Los primeros en probar la desigualdad. Aspect, 1981-2. Se hicieron tres test de BELL, usando Calcio. Tittel and the Geneva group, 1998. Aquí se demostró qeu la distancia no afecta al "entrelazamiento" Weihs. En 1998, Gregor Weihs y un equipo de Innsbruck, liderado por Anton Zeilinger, se realizó un ingenioso experimento que cerraba definitivamente el bucle de localidad, mejorando el de Aspect en 1982. Se seleccionó un detector que usaba un procedimiento cuántico que garantizaba la aleatoriedad. Se comprobó que se violaba la desigualdad en 30 ordenes de magnitud, y las curvas de coincidencia coincidían con las predichas por la mecánica cuántica. www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica El artículo original de este último experimento está disponible en Phys. Rev. Lett. 81, 5039– 5043 (1998) Aún así podreis ver muchos sitios en los que se dice que la cuestión no está aún cerrada, y, aunque en la ciencia nunca se puede decir que algo es seguro completamente, parece bastante razonable continuar con la mecánica cuántica tal y como la conocemos. En el esquema tenemos un experimento modelo para proba la desigualdad de Bell. La fuente S emite un par de fotones entrelazados, en dos direcciones opuestas. Cada fotón se encuentra a un polarizador cuya orientación puede ser determinada por el observador. Las señales de salida son detectadas y las coincidencias se cuentan con el monitor CM. Bueno, esto define un poco mejor qué proponían estos dos puntos importantes para el desatollo de la física cuántica... Ahora, seguro estarán pensando: "Si, esto suena interesante pero, ¿qué tiene que ver esto con lo que decías de forzar estados superpuestos...?"... Justamente, por la importancia del sistema observador, lo que ocurra como cambio en el mismo alterará en cierta forma el resultado... Igualmente, tenemos que los simples pensamientos representan igualmente sistemas cuánticos muy complejos... Y no están exentos de quedar entrelazados al sistema observado... ¿Qué ocurre en este caso...? Si el pensamiento, el observador y el sistema a afectar empatan en su ecuación de onda en algún momento, se producirá un estado sincrónico que inmediatamente forzará el resultado a lo que se espera... ¿Qué es eso de sincronía...? La Teoría de Sincronía describe la capacidad de dos o más sistemas de empatar en acción... Se le puede considerar la excepción a la regla de la Teoría del Caos (antahkarana nos provee de un buen tema al respecto de la Teoría del Caos, por si gustan informarse más al respecto...) En esta teoría, se hace alusión más que nada al tiempo, y se dice que los estados sincrónicos se dan en un cierto tiempo durante un cierto tiempo limitado, un estado sincrónico no puede permanecer eternamente dado el balance... Esta teoría se puede observar particularmente en la mecánica, cuando un dispositivo mecánico logra transferir exactamente sus movimientos a otra máquina, y así, hasta que se pierde la sincronía... Esto es vigente para todos los sistemas, que pueden entrar en un estado sincrónico cuando los componentes estén preparados para empatar, incluso se dice, y con toda certeza: “El orden no es sólo posible, es inevitable”... "Y, ¿cuándo ocurre esto...?" Depende en gran medida del sistema descrito.., pero, si sus componentes logran empatar en algún momento, el sistema inmediatamente tenderá al resultado que estos factores determinan... Sea que por un instante un objeto se desplace de su posición o desaparezca de la vista o se movilice entre los distintos órdenes de la realidad... Cualquier resultado puede ocurrir, siempre que la sincronización sea la adecuada... Experimento de la doble rendija =============================== El experimento de Young, también denominado experimento de la doble rendija, fue realizado en 1801 por Thomas Young, en un intento de discernir sobre la naturaleza corpuscular u ondulatoria de la luz. Young comprobó un patrón de interferencias en la luz procedente de una fuente lejana al difractarse en el paso por dos rejillas, resultado que contribuyó a la teoría de la naturaleza ondulatoria de la luz. Posteriormente, la experiencia ha sido considerada fundamental a la hora de demostrar la dualidad onda corpúsculo, una característica de la mecánica cuántica. El experimento también puede realizarse con electrones, átomos o neutrones, produciendo patrones de interferencia similares a los obtenidos cuando se realiza con luz, mostrando, por tanto, el comportamiento dual onda-corpúsculo de la materia. El experimento Formulación clásica La formulación original de Young es muy diferente de la moderna formulación del experimento y utiliza una doble rendija. En el experimento original un estrecho haz de luz, procedente de un pequeño agujero en la entrada de la cámara, es dividido en dos por una tarjeta de una anchura www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica de unos 0.2 mm. La tarjeta se mantiene paralela al haz que penetra horizontalmente es orientado por un simple espejo. El haz de luz tenía una anchura ligeramente superior al ancho de la tarjeta divisoria por lo que cuando ésta se posicionaba correctamente el haz era dividido en dos, cada uno pasando por un lado distinto de la pared divisoria. El resultado puede verse proyectado sobre una pared en una habitación oscurecida. Young realizó el experimento en la misma reunión de la Royal Society mostrando el patrón de interferencias producido demostrando la naturaleza ondulatoria de la luz. Formulación moderna La formulación moderna permite mostrar tanto la naturaleza ondulatoria de la luz como la dualidad onda-corpúsculo de la materia. En una cámara oscura se deja entrar un haz de luz por una rendija estrecha. La luz llega a una pared intermedia con dos rendijas. Al otro lado de esta pared hay una pantalla de proyección o una placa fotográfica. Cuando una de las rejillas se cubre aparece un único pico correspondiente a la luz que proviene de la rendija abierta. Sin embargo, cuando ambas están abiertas en lugar de formarse una imagen superposición de las obtenidas con las rendijas abiertas individualmente, tal y como ocurriría si la luz estuviera hecha de partículas, se obtiene una figura de interferencias con rayas oscuras y otras brillantes. Este patrón de interferencias se explica fácilmente a partir de la interferencia de las ondas de luz al combinarse la luz que procede de dos rendijas, de manera muy similar a como las ondas en la superficie del agua se combinan para crear picos y regiones más planas. En las líneas brillantes la interferencia es de tipo "constructiva". El mayor brillo se debe a la superposición de ondas de luz coincidiendo en fase sobre la superficie de proyección. En las líneas oscuras la interferencia es "destructiva" con prácticamente ausencia de luz a consecuencia de la llegada de ondas de luz de fase opuesta (la cresta de una onda se superpone con el valle de otra). La paradoja del experimento de Young Esta paradoja trata de un experimento mental, un experimento ficticio no realizable en la práctica, que fue propuesto por Richard Feynman examinando teóricamente los resultados del experimento de Young analizando el movimiento de cada fotón. Para la década de 1920, numerosos experimentos (como el efecto fotoeléctrico) habían demostrado que la luz interacciona con la materia únicamente en cantidades discretas, en paquetes "cuantizados" o "cuánticos" denominados fotones. Si la fuente de luz pudiera reemplazarse por una fuente capaz de producir fotones individualmente y la pantalla fuera suficientemente sensible para detectar un único fotón, el experimento de Young podría, en principio, producirse con fotones individuales con idéntico resultado. Si una de las rendijas se cubre, los fotones individuales irían acumulándose sobre la pantalla en el tiempo creando un patrón con un único pico. Sin embargo, si ambas rendijas están abiertas los patrones de fotones incidiendo sobre la pantalla se convierten de nuevo en un patrón de líneas brillantes y oscuras. Este resultado parece confirmar y contradecir la teoría ondulatoria de la luz. Por un lado el patrón de interferencias confirma que la luz se comporta como una onda incluso si se envían partículas de una en una. Por otro lado, cada vez que un fotón de una cierta energía pasa por una de las rendijas el detector de la pantalla detecta la llegada de la misma cantidad de energía. Dado que los fotones se emiten uno a uno no pueden interferir globalmente así que no es fácil entender el origen de la "interferencia". La teoría cuántica resuelve estos problemas postulando ondas de probabilidad que determinan la probabilidad de encontrar una partícula en un punto determinado, estas ondas de probabilidad interfieren entre sí como cualquier otra onda. Un experimento más refinado consiste en disponer un detector en cada una de las dos rendijas para determinar por qué rendija pasa cada fotón antes de llegar a la pantalla. Sin embargo, cuando el experimento se dispone de esta manera las franjas desaparecen debido a la naturaleza indeterminista de la mecánica cuántica y al colapso de la función de onda. Condiciones para la interferencia Las ondas que producen interferencia han de ser "coherentes", es decir los haces provenientes de cada una de las rendijas han de mantener una fase relativa constante en el tiempo, además de tener la misma frecuencia, aunque esto último no es estrictamente necesario, puesto que www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica puede hacerse el experimento con luz blanca. Además, ambos han de tener polarizaciones no perpendiculares. En el experimento de Young esto se consigue al hacer pasar el haz por la primera rendija, produciendo una mutilación del frente de onda en dos frentes coherentes. También es posible observar franjas de interferencia con luz natural. En este caso se observa un máximo central blanco junto a otros máximos laterales de diferentes colores. Más allá, se observa un fondo blanco uniforme. Este fondo no está formado realmente por luz blanca, puesto que si, fijada una posición sobre la pantalla, se pone paralelo a la franja un espectrómetro por el cual se hace pasar la luz, se observan alternadamente franjas oscuras y brillantes. Esto se ha dado en llamar espectro acanalado. Las dos rendijas han de estar cerca (unas 1000 veces la longitud de onda de la luz utilizada) o en otro caso el patrón de interferencias sólo se forma muy cerca de las rendijas. La anchura de las rendijas es normalmente algo más pequeña que la longitud de onda de la luz empleada permitiendo utilizar las ondas como fuentes puntuales esféricas y reduciendo los efectos de difracción por una única rendija. Aquí se explica la importancia del observador... Después de todo este texto y el vídeo, lo que se puede extraer referente al tema es que todo actúa en estado superpuesto hasta que un observador lo "ve"... Es en ese momento en que todo ese mar de probabilidades se recude a un único resultado, que es el estado físico que podemos apreciar... Las cosas se determinan cuando se les "ve", y permitiéndole a ese observador el decidir qué es lo que va a resultar por medio de cosas como la sincronía o la reducción de la carga cuántica, se puede alterar cualquier cosa... Sin embargo, hay que considerar que el observador no se es solo uno, y al menos en este planeta, hay cerca de 6.8 billones de observadores adicionales en el mundo... Así que, uno no puede esperar que solo por saber cómo realizar una determinación de estado puede pretender repetirlo frente a miles de personas que no creen que eso vaya a ocurrir, por que, indudablemente, tus chances de lograrlo de esa forma son astronómicamente diminutas... ______________________________________ Encontrará más documentos en la Sección de Descargas de Seguridad GITS Informática. Gits mira por tus derechos. Gits es Pro-Vida. Por razones ecológicas y económicas, imprima este documento solo si es necesario y, a ser posible, en papel reciclado. Recomendamos la visualización de este documental: http://www.youtube.com/watch?v=SWRHxh6XepM. Gracias por su colaboración con el medio ambiente. Copyright (c) 2003. Gits Informática. All rights reserved.