82,OCTUBREDI CI EMBRE2011 82 Contenido ContactoS No. 82, Octubre–Diciembre 2011 Editorial 3 ¿Habrá un paralelo entre la fı́sica y el arte de la pintura? José Marı́a Filardo Bassalo. 5 Newton y las leyes de Kepler. José Marı́a Filardo Bassalo. 58 Crónica de los efectos fı́sicos. Parte I. José Marı́a Filardo Bassalo. 13 El papel de las intuiciones en el descubrimiento y la invención en fı́sica. José Marı́a Filardo Bassalo. 63 Crónica de los efectos fı́sicos. Parte II. José Marı́a Filardo Bassalo. Crónica de los efectos fı́sicos. Parte III. José Marı́a Filardo Bassalo. 23 Crónica de los efectos fı́sicos. Parte IV. José Marı́a Filardo Bassalo. 33 Crónica del Oscilador Armónico. José Marı́a Filardo Bassalo 47 53 Nuestra portada José Marı́a Filardo Bassalo. Contraportada Collage de fotografı́as. Tercera de forros Estereograma. cs ContactoS en la WEB Lea los artı́culos publicados en ContactoS en http://www.izt.uam.mx con la entrada: Publicaciones, Contactos. Editorial En 1988 Contactos recibió la primera contribución de Brasil. El autor, José Marı́a Filardo Bassalo, hoy profesor retirado de la Universidad de Pará, inició entonces una continua y fecunda lı́nea de contribuciones a nuestra revista. El Doctor y Maestro (ası́, con mayúsculas) Bassalo, con los sugestivos tı́tulos de Crónicas, Curiosidades, Premios Nobel, Orı́genes, Paradojas, ha dado muestra de generosidad y curiosidad; sobre todo, ha aumentado nuestra curiosidad y visión cientı́fica con sus documentados y rigurosos artı́culos. Este número 82 de Contactos contiene exclusivamente una antologı́a de sus contribuciones como agradecimiento y homenaje. La frase de Leibniz “Más importante que las ideas es el origen de las ideas”, es justo epı́grafe de sus contribuciones en un tiempo que se enorgullece de ignorar al tiempo: al pasado y al futuro. Al pasado porque lo considera ajeno al presente. Al futuro porque considera sólo valioso el aquı́ y el ahora en sus múltiples manifestaciones: confort, despilfarro, falta de ideales, oportunismo, medianı́a. Y no es porque a quienes deciden les falte inteligencia. No, lo que falta es honestidad intelectual. Vale recordar las sabias palabras de Gandhi: “El planeta puede satisfacer las necesidades de todos sus habitantes. Pero no la codicia de unos cuantos”. Ası́ como la Humanidad creyó hasta Copérnico que el Sol y las estrellas giraban a su alrededor, los poderosos creen que el Universo gira para ellos. Un hombre vale no por lo que recibe sino por lo que da, afirmó Einstein. Sólo una visión histórica permite conocer el origen de los problemas y su eventual solución, y ésta ha sido la constante en los artı́culos del Maestro Bassalo, una visión que resalta el aspecto creativo y artı́stico de la actividad cientı́fica pues, cuando sólo se deja el resultado, el procedimiento, se garantiza el desinterés y la esterilidad del tema. ¿Por qué, entonces, es tan poco frecuente en el aula la aproximación histórica? Una parte de la respuesta se encuentra en la falta de material de calidad, de aquı́ el gran valor de los artı́culos recibidos de la Universidad de Pará. Otra parte de la respuesta se halla en el intrı́nseco mimetismo de la naturaleza humana. Y otra parte más: lo urgente no deja tiempo para lo importante. El resultado es que la enseñanza de ciencias se autoperpetúa: los maestros enseñan la ciencia que aprendieron y asi la enseñarán los futuros maestros. Si la enseñanza se reduce a la mera trasmisión de datos, si no se comparte la excitación y el asombro, si los profesores son recipientes pasivos de información y no creadores de nuevas ideas ¿qué esperanza hay para los estudiantes? Enseñar un conocimiento porque es “importante para la vida diaria” es falaz. No se enseña a leer y escribir para llenar formularios burocráticos. Debemos enseñar ciencias como arte de argumentar, y ésta es una habilidad básica: permite lograr otras (ası́ como la lectoescritura). Si el universitario no puede argumentar con los conceptos relativamente simples de las ciencias ¿qué podrá hacer con cuestiones complejas como: sustentabilidad, derecho, justicia, cultura? Como afirma Konrad Lorenz, el hombre no es un ser inteligente sino uno educable. De aquı́ que los universitarios debamos estar muy atentos a la educación impuesta por la moda y los medios. La exaltación de la noticia, de las novedades tecnológicas y de la desesperanza social ocultan que los cambios mundiales de los últimos 100 años han involucrado: crecimiento poblacional, acumulación de poder ideológico, centralismo del poder financiero, economı́a basada en servicios, sobreexplotación de recursos naturales, etcétera. Concluyamos con una más de las aportaciones de la visión histórica: muestra a la ciencia como una gran empresa humana. Con ello queremos decir: se manifiesta lo más noble y, sı́, lo más mezquino de las personas. Pero, como afirma Carl Sagan: la ciencia es la única vela que tenemos. . . ante la oscuridad que se avecina. Información para autores ContactoS es una Revista de Educación en Ciencias e Ingenierı́a dirigida a profesores y a estudiantes de estas disciplinas; está registrada en Latindex, Sistema Regional de Información en Lı́nea para Revistas Cientı́ficas de América Latina, el Caribe, España y Portugal. Los trabajos deberán ser originales y accesibles a un público amplio con formación media superior, o universitaria pero no especializada: los temas deberán presentarse en forma amena y autocontenida. Cada colaboración debe incluir figuras, diagramas, ilustraciones, fotografı́as, etc., que hagan más accesible la presentación. Las secciones que la constituyen son: 1. Divulgación. Artı́culos que presentan temas cientı́ficos con enfoques novedosos y accesibles (15 cuartillas). 2. Educación Cientı́fica. Enfoques originales en la enseñanza de temas particulares (15 cuartillas). 3. Artı́culos Especializados. Reportes breves de investigación, relacionados con una problemática concreta (15 cuartillas). 4. Crónicas. Historia y desarrollo de conceptos cientı́ficos, ası́ como teorı́as alternativas (15 cuartillas). 5. Divertimentos. Juegos y acertijos intelectuales (5 cuartillas). 6. Noticias breves. Información de actualidad en el mundo de la ciencia (4 cuartillas). 7. Los laureles de olivo. Los absurdos de la vida cotidiana y académica (4 cuartillas). En todos los casos se debe incluir los nombres completos de los autores con su adscripción, dirección, teléfono y dirección de correo electrónico. Las colaboraciones a las secciones 1 a 4 deberán ajustarse a las siguientes normas: 1. Un resumen breve escrito en inglés. 2. Cuando se incluya una abreviatura debe explicarse por una sola vez en la forma siguiente: Organización de los Estados Americanos (OEA). . . 3. Cuando se utilice un nombre técnico o una palabra caracterı́stica de una disciplina cientı́fica deberá aclararse su significado de la manera más sencilla posible. 4. Las citas textuales deberán ir de acuerdo al siguiente ejemplo: En cuanto a la publicación del placebo se asevera que “el efecto placebo desapareció cuando los comportamientos se estudiaron en esta forma” (Núñez, 1982, p. 126). 5. Las referencias (no más de 10) se marcarán de acuerdo al siguiente ejemplo: Sin embargo, ése no es el punto de vista de la Escuela de Copenhague (Heisenberg, 1958), que insiste en. . . 6. Al final del artı́culo se citarán las referencias por orden alfabético de autores. Pueden añadirse lecturas recomendadas (no más de 5). 7. Cada referencia a un artı́culo debe ajustarse al siguiente formato: Szabadváry, F. y Oesper, E. E., Development of the pH concept, J. Chem. Educ., 41[2], pp.105–107, 1964. 8. Cada referencia a un libro se ajustará al siguiente formato: Heisenberg, W., Physics and Philosophy. The Revolution in Modern Science. Harper Torchbooks, Nueva York, 1958, pp.44–58. 9. Los tı́tulos de reportes, memorias, etcétera., deben ir subrayados o en itálicas. El envı́o del artı́culo en archivo electrónico, ya sea en código ASCII, ANSI, WORD o TEX facilita el arbitraje y la edición; en el caso de ilustraciones por computadora (BMP, JPG, TIFF, etc.), envı́e los archivos por separado; el material es recibido en: Revista Contactos, UAM–Iztapalapa, E–317, cts@xanum.uam.mx, telfax 5804–4606, S. Rafael Atlixco 186, C. P. 09340, México, D. F. A. P. 55–534. El Comité Editorial utiliza un sistema de arbitraje anónimo que requiere de dos a tres meses. Se entiende que los autores no han enviado su artı́culo a otra revista y que dispondrán de un plazo máximo de dos meses para incorporar las observaciones de los árbitros. La decisión final de publicar un artı́culo es responsabilidad exclusiva del Comité Editorial. Después de la publicación del artı́culo los autores recibirán 3 ejemplares gratuitos. cs Crónica de los efectos fı́sicos. Parte I* José Marı́a Filardo Bassalo, Fundación Minerva, Prof. retirado de la Universidad de Pará www.bassalo.com.br * Traducción por J. L. Córdova, Depto. de Quı́mica, UAM– Iztapalapa. joseluiscordovafrunz@gmail.com 6 Resumen En esta Crónica presentaremos la evolución histórica y conceptual de algunos de los más importantes efectos fı́sicos; además de describirlos, hablaremos de quién hizo qué, cómo y cuándo (cual corresponde a una crónica) y presentaremos algunos detalles matemáticos para su mejor comprensión. En esta primera parte trataremos algunos de los efectos fı́sicos descubiertos en el siglo XIX: Seebeck (1821), Peltier (1834), Joule (1841), Doppler– Fizeau (1842/1848), Faraday (1845), Thomson (1856), Joule–Thomson (1862), Tyndall (1868/1869), Kerr (1875), Hall (1879), piezoeléctrico (Pierre y Paul Curie, 1880) y termoiónico (Edison, 1883). En la segunda parte de la Crónica describiremos someramente los efectos fotoeléctrico (Hertz, 1887; Stoletov, 1889), Zeeman (1896) y otros descubiertos en el siglo XX. 1. Efecto Seebeck (1821) En 1821, el fı́sico ruso alemán Thomas Johann Seebeck (1770–1831) colocó una placa de bismuto (Bi) sobre una placa de cobre (Cu) y las unió con alambres de cobre a un “meridiano magnético”, nombre entonces dado al galvanómetro inventado por el fı́sico francés André Marie Ampère (1775– 1836). Al sujetar con una mano los alambres sobre las placas notó que el “meridiano” registraba una “polarización magnética”, esto es, una corriente eléctrica.1 Al sustituir el bismuto por antimonio (Sb), Seebeck observó que la “polarización” cambiaba de sentido; relacionó el fenómeno con el calor de su mano por lo que lo llamó “efecto termomagnético”; hoy es conocido como efecto Seebeck o efecto termoeléctrico. Afinó sus experimentos con un termoelemento consistente en un rectángulo con cintas metálicas soldadas entre sı́ en sus extremos, donde una aguja magnética era desviada cuando las cintas se sometı́an a una diferencia de temperatura. Interpretó erróneamente sus resultados al afirmar que los puntos de unión eran magnetizados por el gradiente de temperatura. Es interesante decir que para febrero de 1822 Seebeck habı́a establecido una serie de tensiones termoléctricas, más tarde reconocidas como fuerzas electromotrices termoeléctricas gracias a las investigaciones de los fı́sicos Wilhelm Gottlieb Hankel (1814-1899) en 1844 y William Thomson (1824–1907) en 1855. Hoy es sabido que 1 La idea de corriente eléctrica habı́a sido trabajada por Ampère, pero su concepto actual, carga eléctrica por unidad de tiempo, fue introducido por George Simon Ohm (1787– 1854) en sus experimentos de 1825. ContactoS 82, 5–12 (2011) la aparición de una fuerza electromotriz térmica E (base de los termopares) se puede calcular mediante E = a + bt + ct2 + dt3 donde las constantes a, b, c y d dependen del material de cada termopar. Los primeros experimentos realizados por Seebeck en ese nuevo fenómeno fı́sico fueron publicads en Abbandlungen der Königlichen Akademie der Wissenschaften en Berlı́n, 1822–1823, p. 265, con el tı́tulo: Magnetische Polarisation der Metalle und Erze durch Temperatur–Differenz. Otros experimentos realizados por Seebeck sobre ese efecto fueron publicados en los Annalen der Physik 73, pgs. 115 y 430, en 1823. Hablaremos más de este efecto, cuando tratemos del efecto Thomson. 2. Efecto Peltier (1834) En 1834, el fı́sico francés Jean Charles Athanase Peltier (1785–1845) observó que una unión de dos metales, bismuto y cobre se calentaba cuando circulaba una corriente en el sentido del bismuto al cobre y se enfriaba en el caso contrario.2 A este efecto se le conoce como efecto electrotérmico o efecto Peltier. Peltier llegó a este descubrimiento estimulado por el trabajo del fı́sico italiano Leopoldo Nobili (1784– 1835) quien investigó dos tipos de corriente eléctrica: la que ocurre cuando hay un gradiente de temperatura en un conductor y la que se genera en una pila eléctrica; concluyó que, en ambos casos, la corriente eléctrica era debida a un “flujo de calórico” y ası́ lo publicó en Annales de Chimie, 34, p. 280 (1827) y otros dos números de la misma revista. Charles Peltier construyó un galvanómetro muy sensible para medir la conductividad del antimonio y del bismuto para bajas corrientes eléctricas. El comportamiento térmico anómalo presentado por esos materiales lo llevó a construir un termoscopio termoeléctrico y a medir la distribución de la temperatura en un termopar Bi-Cu. La sustitución del termoscopio por un termómetro de gas le pemitió a Peltier hacer el descubrimiento referido. Es oportuno destacar que los experimentos iniciales con Sb y Bi produjeron una elevación de temperatura en todas las partes de los conductores de igual diámetro. Con todo, él estaba más interesado en el aumento de temperatura que en la cantidad de calor involucrada en el proceso por lo que no llegó a relacionar ésta con la intensidad 2 De aquı́ que el efecto Peltier se use en refrigeración a pequeña escala. Crónica de los efectos fı́sicos. Parte I. José M. Filardo Bassalo de la corriente eléctrica. Esta relación sı́ fue hallada por el fı́sico inglés James Prescott Joule (1818– 1889) en 1841 y conocida como efecto Joule; de éste hablaremos más adelante. Los experimentos de Peltier relacionados con el efecto que lleva su nombre fueron publicados en los Annales de chimie 56, p. 371, en 1834, con el tı́tulo: Nouvelles expériences sur la caloricité des courants électriques. Tema que saldrá nuevamente cuando tratemos del efecto Thomson. 3. Efecto Joule (1841) Las investigaciones desarrolladas entre 1798 y 1799 por el fı́sico anglonorteamericano Sir Benjamı́n Thompson, conde Rumford (1753–1814) y por el quı́mico inglés sir Humprhy Davy (1778–1829) acerca de la producción de calor por frotamiento indicaban que el calor era producido por el movimiento (trabajo mecánico) y que podı́a ser convertido en éste. Estos trabajos fueron publicados en Philosophical Transactions of the Royal Society of London 88, p. 80 (1798); 89, p. 179 (1799), y los de Davy fueron descritos en el libro intitulado Physical and Medical Knowledge, Principally from the West of England, publicado en 1799. A finales de 1840, Joule partió de ese principio para poder explicar la pila de Volta (también conocida como baterı́a o columna eléctrica). Ası́, midió el calor Q producido por unidad de tiempo t en un alambre conectado en las terminales de la pila y lo relacionó con la intesidad de corriente I; encontró que esa cantidad era proporcional a la resistencia eléctrica del alambre R multiplicada por el cuadrado de la intensidad de corriente. En lenguaje actual, este efecto o ley de Joule se representa con la expresión: Q = ARI 2 t donde A = 1/J y J es el equivalente mecánico del calor, medido posteriormente por el médico y fı́sico alemán Julius Robert Mayer (1814–1878) y por el mismo Joule en los primeros años de la década de 1840. Los resultados de los experimentos de Joule relacionados con ese efecto fueron publicadas en The Philosophical Magazine 19, p. 260, en 1841, con el tı́tulo: On the Heat Evolved by Metallic Conductors of Electricity and in the Cells of a Battery During Electrolysis. 4. Efecto Doppler–Fizeau En 1840, el fı́sico austrı́aco Christian Johann Doppler (1803–1853) fue elegido miembro asociado de 7 la Königliche Böhmische Gesellschaft der Wissenchaften, en Praga; en 1841 fue escogido como profesor de matemática elemental y geometrı́a práctica en la Academia Técnica Estatal. Debido a los exámenes requeridos por esa institución fue que presentó su famoso descubrimiento de que el tono de un sonido emitido por una fuente sonora que se desplaza hacia un observador parece más agudo que el emitido por una fuente que se aleja, en cuyo caso el sonido se va haciendo más grave. Fue el 25 de mayo de 1842 que Doppler presentó públicamente este descubrimiento, aplicable también a una onda luminosa, en una sesión del Königliche. La primera versión del efecto Doppler solamente relacionaba el movimiento de la fuente sonora (o luminosa) o del observador; la extensión al caso de movimiento simultáneo de ambos fue completada por Doppler en 1846. Fue también la ocasión en que explicó el color aparente de las estrellas dobles y las fluctuaciones de las estrellas variables y de las novas. Supuso que todas las estrellas eran intrı́nsecamente blancas y que su color era debido a su velocidad en relación a la Tierra. El artı́culo de Doppler sobre su descubrimiento fue publicado en los Abhandlungen der Königliche Böhmische Gesellschaft der Wissenchaften 2, p. 465, en 1842, con el tı́tulo: Ueber das farbige Licht der Doppelsterne und anderer Gestirne des Himmels. La extensión a los movimientos de la fuente y del observador fue publicada en los Annalen der Physik und Chemie 68, p. 1, en 1846. Resulta interesante anotar que el efecto Doppler acústico fue comprobado por el meteorologista holandés Christoph Hendrik Diederik Buys Ballot (1817–1890) en 1845 a lo largo del ferrocarril Utrecht–Maarsen: el tono producido por un trompetista en la plataforma del tren en movimiento se oı́a más alto para un observador al cual se aproximaba y se hacı́a más grave cuando el tren se alejaba. Destaquemos que, para el caso acústico, el efecto Doppler tiene la siguiente representación analı́tica: v 1 ± obs vson f = f0 vfuen 1∓ vson donde f y f0 representan respectivamente las frecuencias aparente y verdadera, Vson , Vobs , Vfuen , indican respectivamente las velocidades del sonido, del observador y de la fuente y los signos superiores (inferiores) indican aproximación (alejamiento). ContactoS 82, 5–12 (2011) 8 Ya referimos que Doppler consideró que el mismo efecto ocurrı́a con las ondas luminosas, sin embargo, fue el fı́sico francés Armand Hippolyte Louis Fizeau (1819–1896) quien, en 1848, sugirió que el efecto Doppler acústico podrı́a aplicarse a las ondas luminosas para determinar las velocidades relativas de las estrellas que estuvieran en la misma lı́nea espectral, razón por la que pasó a ser conocido como efecto Doppler–Fizeau. Por otro lado, la revista Izvestiya Imperatorskoi akademii nauk 13 (5), p. 461 (1900), contiene un artı́culo del fı́sico ruso Aristarkh Appolonovich Belopolsky (1854-1934) que describe un aparato para demonstrar el efeito Doppler–Fizeau. Además, el desarrollo de la Teorı́a de la Relatividad Restringida de Einstein (1905) mostró que el efecto Doppler–Fizeau puede ser obtenido directamente; con ello la expresión analı́tica anterior se transforma en: f = γf0 (1 − β cos φ) donde: γ = β = 1 (1 − β 2 )− 2 V c y φ es el ángulo entre el rayo de luz de frecuencia f0 y la dirección de los ejes x(x′ ), V la velocidad relativa entre esos ejes y c la velocidad de la luz en el vacı́o. 5. Efecto Faraday o efecto magneto–óptico (1845) El fı́sico y quı́mico inglés Michael Faraday (1791– 1867) inició sus experimentos en electricidad y magnetismo en 1821 al estudiar la conversión de energı́a eléctrica en mecánica. En esa ocasión incubó sus primeras ideas sobre las lı́neas de fuerza magnéticas tal como aparecen publicadas el 21 de octubre de 1821 en el Quarterly Journal of Science. Recordemos que la pasión de Faraday por la Ciencia despertó en él por primera vez con la lectura del artı́culo “Electricity” de la Encyclopaedia Britannica. En la década de 1820 Faraday intentó relacionar los fenómenos magnético y luminoso, lo que posteriormente caracterizarı́a al efecto Faraday, sin lograr éxito. Abandonó esa idea y trabajó en problemas de electricidad, magnetismo y quı́mica con importantes descubrimientos, por ejemplo, la ley de inducción electromagnética (1831) y las leyes de electrólisis (1833). Estos experimentos se hallan incluidos en los tres volúmenes de su famoso libro Experimental Researches in Electricity, Londres 1839–1855. Fue en 1845, después de recibir una larga carta de William Thomson fechada el 6 de agosto, que Faraday regresó a estudiar la influencia del magnetismo en la luz. En esa carta, después de presentar el tratamiento matemático de las lı́neas de fuerza de Faraday, Thomson sugiere una serie de experimentos que comprobarı́an la teorı́a desarrollada por Faraday en 1844, esto es, que la conducción de electricidad por la materia podı́a entenderse en términos de átomos que eran centros de fuerza cuya intensidad variaba con la distancia al centro, pudiendo ser atractiva o repulsiva según fuera el valor de la distancia. Esta teorı́a ya habı́a sido presentada en 1758 por el astrónomo y matemático croata Rudger Josip Boskovic (1711–1878). Uno de los experimentos por Thomson era observar la acción del magnetismo sobre la luz polarizada. Faraday siguió las recomendaciones de Thomson y el 13 de septiembre de 1845 observó por primera vez el efecto. En una conferencia en la Royal Institution reflejó un rayo de luz en un espejo para polarizarlo en el plano horizontal, a continuación obligó al rayo polarizado a pasar por un poderoso electroimán (entonces desconectado) y por un prisma de Nicol de alto ı́ndice de refracción. Este prisma permite determinar el plano en la luz está polarizada: basta girarlo a un ángulo tal que el rayo no lo atraviesa. Bastó conectar el electroimán para que la imagen apareciera nuevamente. En conclusión, mostró que el plano de la luz polarizada se modifica por un campo magnético, lo que es conocido hoy como efecto Faraday o efecto magneto–óptico. Consecuencia de este exitoso resultado, Faraday comenzó a estudiar el comportamiento de diversas sustancias en presencia de un campo magnético. De sus estudios concluyó que hay distintos tipos de sustancias: paramagnéticas, las que conducen el campo haciendo converger sus lı́neas de fuerza, por ejemplo el hierro: diamagnéticas, las que no conducen el campo magnético y hacen divergir las lı́neas de fuerza, por ejemplo el bismuto y el antimonio. El trabajo de Faraday acerca del efecto con su nombre fue publicado en las Philosophical Transactions of the Royal Society London, p. 1, y en The Philosophical Magazine 28, p. 345, en 1846, con el tı́tulo: Thoughts on Ray Vibrations. Es oportuno decir que, en 1907, los fı́sicos franceses Aimé Cotton (1869–1951) y H. Mouton presentaron en los Comptes Rendus Hebdomadaires des Séances de l’Academie des Sciences 145, p. 299, el resultado de un experimento que muestra un nuevo aspecto del efecto Faraday. Al aplicar a nitrobenceno lı́quido un fuerte campo perpendicular a la dirección de la luz incidente produjeron una doble re- Crónica de los efectos fı́sicos. Parte I. José M. Filardo Bassalo fracción; a este efecto se le llama Cotton–Mouton. Este experimento también fue realizado con vapores por el fı́sico alemán Woldmar Voigt (1850–1919) en 1899, y reportado en su libro Magneto und Elektro Optik (1908) por lo que también es conocido como efecto Voigt. 6. Efecto Thomson (1856) Entre 1851 y 1854 William Thomson, Lord Kelvin en 1892, estudió matemáticamente los efectos Seebeck (1821) y Peltier (1834) y llegó a la siguiente relación (en términos actuales): ΠB A = T (εB − εA ) donde ΠB A es el coeficiente de Peltier, definido como el calor desprendido en la unión de los conductores A y B cuando una corriente unitaria circula del primero al segundo, y ε la fuerza electromotriz térmica de Seebeck. Con todo, la proporcionalidad directa entre ΠB A y T (observación inicial de Thomson, posteriormente conocida como “segunda relación de Kelvin”) no coincidı́a con las observaciones de 1823 del fı́sico inglés James Cumming (1777– 1861): cuando aumenta gradualmente la temperatura de la unión en los conductores ε llega a un valor máximo y luego decrece. A fin de resolver la contradicción, Thomson llegó a descubrir en 1865 lo que hoy se conoce como efecto Thomson: al iniciar una corriente eléctrica un conductor experimenta un gradiente de temperatura. En términos contemporáneos se representa con la expresión conocida como “primera relación de Kelvin”: dΠB A dT + τ A − τ B = εA − εB donde τ es el coeficiente de Thomson o “calor de Thomson”por unidad de corriente eléctrica y por unidad de gradiente de temperatura. El trabajo de Thomson acerca del efecto que lleva su nombre fue presentado en Philosophical Transactions of the Royal Society 146, p. 649, en 1856, con el tı́tulo: On the Electrodynamic Qualities of Metals. 7. Efecto Joule–Thomson (1862) En 1802, el quı́mico francés Louis–Joseph Gay– Lussca (1778–1850) realizó diversos experimentos acerca de la expansión térmica del aire y de otros gases y llegó a determinar el coeficiente de expansión volumétrica α de todos los gases igual a 1 266· 66 9 En 1845, Joule desarrolló una técnica más fina que la de Gay–Lussac para estudiar los cambios de temperatura producidos en la rarefacción y condensación del aire. En 1862, Joule y Thomson desarrollaron el siguiente experimento: hicieron pasar aire a lo largo de un tapón poroso a presión constante pero con valor mayor en el lado de entrada del tapón. Observaron que algunos componentes del aire, el oxı́geno y el nitrógeno disminuı́an su temperatura, pero el hidrógeno aumentaba su temperatura. Con más estudios y con otros gases encontraron que para cada gas a una presión dada existe una temperatura de inversión; encima de ella el gas aumenta la temperatura en una expansión y, por debajo de ella, disminuye su temperatura. Este fenómeno es hoy conocido como efecto Joule–Thomson y se expresa con: dt = α = v = v (T α − 1)dP Cp 1 ∂V 1 ∂v = v ∂T P V ∂T P V n donde α es el coeficiente de expansión térmica, V , P , T y n representan, respectivamente, volumen, presión, temperatura y número de moles, Cp es el calor especı́fico a presión constante. Nótese que el efecto Joule–Thomson ocurrre en los gases reales y que la temperatura de inversión se obtiene por la expresión T α = 1, con α(T ). En 1895, el ingeniero alemán Carl Paul Gottfried von Linde (1842–1934)y, en forma independiente, el ingeniero quı́mico inglés William Hampson (ca. 1824– 1926) desarrollaron una técnica de licuefacción de gases basada en el efecto Joule–Thomson. El artı́culo de Joule y Thomson sobre este efecto fue publicado en los Proceedings of the Royal Society of London 12, p. 202, en 1862, con el tı́tulo: On the Thermal Effects of Fluids in Motion. 8. Efecto Tyndall (1868/1869) La pasión del fı́sico inglés John Tyndall (1820–1893) por el alpinismo lo llevó a estudiar, a partir de 1859, el efecto de la luz solar y del calor de radiación sobre los gases atmosféricos, cuando observó que el aire húmedo absorbe calor con poco cambio de temperatura. Más tarde, en 1868, hizo experimentos acerca de la dispersión de un haz de luz en un medio con partı́culas en suspensión. En uno de sus experimentos, observó que una sala llena de humo o de polvo flotante hacı́a visible un haz de luz que entrase por una ventana. En otro, observó el color azul que tomaba un haz de luz al atravesar el humo producido en ContactoS 82, 5–12 (2011) 10 una reacción fotoquı́mica; en su bitácora anotó “Relaciono este color azul con el color del cielo”. Estos experimentos pasaron a ser conocidos como efecto Tyndall. Figura 1. Efecto Tyndall La explicación del azul del cielo dada por Tyndall sólo fue cualitativa. Una primera explicación cuantitativa fue dada en 1871 por el fı́sico inglés John William Strutt, lord Rayleigh (1842–1919, premio nobel de fı́sica en 1904) mediante un análisis dimensional. Para Rayleigh la amplitud de la luz desviada por una molécula de gas era inversamente proporcional a la cuarta potencia de la longitud de onda incidente (λ), o, en otros términos, directamente proporcional a la cuarta potencia de su frecuencia (ν). Esta dependencia puede demostrarse mediante la teorı́a electromagnética maxwelliana (1873) aplicada a la dispersión de la radiacion electromagnética por la materia, hoy conocida como dispersión Rayleigh. Más tarde, en 1874, M. Avenarius demostró que cuando la luz blanca pasa por un vapor cercano a su punto crı́tico se da una opalescencia azulada. Una mejor comprensión del azul del cielo fue lograda con los trabajos sobre la opalescencia crı́tica por los fı́sicos Albert Einstein (1879–1955, premio nobel de fı́sica en 1921) y el polaco Marian Ritter von Smolan Smoluchwski (1872–1917) entre 1905 y 1911. El trabajo de Tyndall sobre el efecto que lleva su nombre fue publicado en The Philosophical Magazine 37 (250); 38 (253), p. 384; 156, en 1869, con los respectivos tı́tulos: On the Blue Colour of the Sky, the Polarization of Skylight and on the Polarization Light Cloudy matter generally y Note on the Formation and Phenomena of Clouds. 9. Efecto Kerr o efecto electro–óptico (1875) En 1875, el fı́sico escocés John Kerr (1824–1907) observó que el vidrio se volvı́a birrefringente bajo la acción de un intenso campo eléctrico. Usó un trozo de vidrio de dos pulgadas de espesor e hizo dos orificios en sus extremidades donde colocó dos electrodos con un fuerte campo eléctrico estático; Kerr observó que la doble refracción inducida por el campo eléctrico era mucho más fuerte en nitrobenceno lı́quido que en el vidrio. En sus experimentos Kerr encontró que la magnitud del efecto era proporcional al cuadrado del campo eléctrico; en términos actuales: ∆φ = 2πBℓE 2 donde ∆φ es la diferencia de fase entre los dos rayos luminosos, B (o K) es denominado coeficiente de Kerr, caracterı́stico de cada material, ℓ es el camino óptico en el medio, y E es la intensidad del campo eléctrico estático. Es interesante anotar que, como mostró Hans Mueller en 1941, el efecto es un millón de veces más fuerte en la bentonita que en el nitrobenceno lı́quido. En 1876, Kerr anunció ante la British Association de Glasgow, que un haz de luz plano polarizada se volvı́a elı́pticamente polarizada al incidar en el polo de un electroimán. Observó, pues, un nuevo aspecto del efecto magneto–óptico ya estudiado por Faraday en 1845. Los efectos observados por Kerr fueron estudiados matemáticamente por el fı́sico irlandés George Francis Fitgerald (1851–1901) en 1880. El trabajo de Kerr sobre el efecto que lleva su nombre fue publicado en The Philosophical Magazine 50, p. 337, en 1875, con el tı́tulo: On a New Relation Between Electricity and Light: Dielectrified Media Birefringent. 10. Efecto Hall (1879) En octubre de 1879, el fı́sico norteamericano Edwin Herbert Hall (1855–1938) realizó en la Universidad Johns Hopkins de Estados Unidos, un experimento donde observó que una larga lámina de oro, atravesada por una corriente eléctrica I y colocada normalmente a la lı́neas de fuerza de un cam~ constante, presentapo de inducción magnética B ba una diferencia de potencial VH en los lados de la misma lámina: VH = IRH donde RH es conocida como resistencia Hall. Poco más tarde, el fı́sico Henry Augustus Rowland (1848–1901), profesor de Hall, interpretó esa diferencia de potencial como debida a la acumulación de cargas eléctricas de signos opuestos en los lados de la lámina por la acción de una fuerza electromagnética actuando en los “fluidos eléctricos indivi- Crónica de los efectos fı́sicos. Parte I. José M. Filardo Bassalo duales” según el modelo vigente en esa época.3 Esta observación es el hoy conocido efecto Hall. Es importante destacar que, en 1980, el fı́sico alemán Klaus von Klitzing (1943–, premio nobel de fı́sica en 1985) con la colaboración de Gerhard Dorda y Michael Pepper descubrió que, a bajas temperaturas e intensos campos magnéticos, la resistencia Hall está cuantizada en unidades de h e2 i donde h es la constante de Planck, e la carga del electrón e i (1, 2, 3. . . ) es un número cuántico; llamado efecto Hall cuántico. En 1982, los fı́sicos experimentales Horst L. Störmer y Daniel C. Tsui, junto con los teóricos Arthur Gossard y Robert B. Laughlin mostraron que i es fraccionario; hoy se denomina a tal efecto efecto Hal cuántico fraccionario. Por otro lado, la interpretación de Rowland al efecto Hall corrigió una equivocación cometida por el fı́sico y matemático escocés James Clerk Maxwell (1831–1879) quien afirmaba que la fuerza de un campo de inducción magnética sólo actuaba en el conductor pero no en las cargas eléctricas que constituyen la corriente eléctrica. La conceptualización de una fuerza actuante sobre una carga eléctrica fue presentada por el fı́sico holandés Hendrik Antoon Lorentz (1853–1928, premio nobel de fı́sica en 1902), en 1892, con la ecuación: ~ F~L = q~v × B donde ~v es la velocidad de la carga eléctrica q. El trabajo de Hall acerca del efecto con su nombre fue publicado en American Journal of Mathematics 2, p. 287, en 1879, con el tı́tulo On an New Action of the Magnet on the Electric Currents y en The Philosophical Magazine 9, p. 225, en 1880. Destaquemos que el fı́sico y quı́mico alemán Walther Hermann Nernst (1864–1941, premio nobel de quı́mica en 1920) en colaboración con su alumno Albert von Ettingshausen, descubrió en 1886 que un gradiente de temperatura a lo largo de un conductor eléctrico colocado perpendicularmente a un campo magnético provoca una diferencia de potencial en los extremos opuestos del conductor. Este efecto, conocido como efecto Nernst es análogo al efecto Hall. 3 La idea de “fluido eléctrico” fue elaborada por el inglés Stephen Gray (1696–1736) al realizar, entre 1727 y 1729) diversos experimentos sobre la conducción de la “virtud eléctrica” en los cuerpos. 11 11. Efecto piezoeléctrico (Pierre y Jacques Curie) (1880) Al final de la década de 1870, el fı́sico francés Paul Jacques Curie (1855–1941) bajo la dirección del quı́mico francés Charles Friedel (1832–1899) desorrollaba experimentos acerca de la piroelectricidad, un fenómeno observado por primera vez por el fı́sico escocés David Brewster (1781–1868) en 1824, al notar la aparición de cargas eléctricas en ciertos cristales, como el cuarzo, cuando son calentados. A pesar de que esos experimentos eran desarrollados en varios laboratorios, la interpretación era contradictoria. Para mejor entender ese fenómeno, Jacques, empezó a trabajar con su hermano, el fı́sico y quı́mico Pierre Curie (1859–1906, premio nobel de fı́sica en 1906). En 1880, usando simples argumentos de simetrı́a, observaron que habı́a una diferencia de potencial en la cara de un cristal no conductor cuando se colocaba un peso sobre él. Los hermanos Curie usaron en sus experimentos varios cristales, sulfuro de zinc ZnS, clorato de sodio N aClO3 , cloroborato de magnesio M g3 B7 O13 Cl o boracita, turmalina, cuarzo, carbonato de zinc ZnCO3 o calamina, topacio azúcar y sal De Rochelle o sal de Seignette KN aC4 H4 O6 ·4H2 O, todos cristales hemiédricos con ejes de simetrı́a polares. Como resultado de sus experimentos, observaron que la polarización eléctrica medida con un electrómetro de Thomson era proporcional a la tensión aplicada y que la dirección de esa polarización se invertı́a cuando la tensión cambiaba de compresión a tracción. Cuando en 1881 el fı́sico francés Gabriel Jonas Lippmann (1845–1921, premio nobel de fı́sica en 1908) conoció los resultados de los hermanos Curie anticipó que, de acuerdo con la termodinámcia, debı́a existir un efecto piezoeléctrico inverso según el cual un cristal se alarga o se contrae bajo la acción de un campo eléctrico. De aquı́ que, en 1881, los Curie comprobaran esa predicción con el cuarzo y la turmalina los que se contrajeron o expandieron dependiendo de la dirección del campo eléctrico aplicado. Esta propiedad hace a los cristales piezoeléctricos sumamente útiles en la industria acústica como transductores ya que transforman una onda sonora en corriente eléctrica o viceversa. También son usados como relojes, los famosos “relojes de cuarzo”, basados en la resonancia entre la frecuencia del campo eléctrico aplicado al cristal y la frecuencia propia del mismo. Los hermanos Curie aprovecharon sus conocimientos del tema para construir una balanza de cuarzo piezoeléctrico, decisiva para las investigaciones sobre radioactividad hechas a partir de 1897 por Pierre y su esposa, la quı́mica y fı́sica polaca Marie Sklo- ContactoS 82, 5–12 (2011) 12 donska Curie (1867–1934, premio nobel de fı́sica en 1903, premio nobel de quı́mica en 1911). Los experimentos realizados por los hermanos Curie sobre el efecto piezoelétrico fueron publicados en Comptes rendus hebdomadaires des séances de l’Académie des sciences 91, p. 294; 383, en 1880, con los tı́tulos: Développement, par pression, de l’électricité polaire dans les cristaux hémièdres à faces inclinées e Sur l’électricité polaire dans les cristaux hémièdres à faces inclinées. Otros experimentos sobre ese efecto y sobre el efecto reverso fueron publicados en Comptes 92; 93, p. 186; 350; 204; 1137, en 1881, y en Comptes 95, p. 914, en 1882. 12. Efecto termoiónico o efecto Edison (1883) Los primeros experimentos de descargas eléctricas en gases enrarecidos fueron realizados por Faraday en 1838, cuando observó una región oscura cercana al ánodo. Estos experimentos fueron retomados en 1858 por el matemático y fı́sico alemán Julius Plücker (1801–1868) al usar un tubo de Geissler;4 observó que unos rayos surgı́an del polo negativo (cátodo) y que podı́an ser desviados por un campo magnético. En 1876, el fı́sico alemán Eugen Goldstein (1850–1931) los nombró “rayos catódicos”. Buscando un vacı́o más perfecto, el fı́sico inglés William Crookes (1832–1919) construyó en 1875 una cámara de vacio a una presión 75000 veces menor que la de un tubo de Geissler, a la cual adaptó de cátodo, ánodo y de láminas metálicas para estudiar la radiación procedente del cátodo. Este dispositivo es hoy conocido como radiómetro de Crookes. En 1879, Crookes descubrió una región oscura próxima al cátodo. La posibilidad de obtener cada vez mejores vacı́os llevó al inventor norteamericano Thomas Alva Edison (1847–1931), en 1879, a inventar una lámpara eléctrica con filamento de carbono (de hilo de algodón) incandescente en el vacı́o. Vale apuntar que, en 1877, el inventor norteamericano W. E. Sawyer patentó una lámpara eléctrica con filamento de madera y que, en 1878 el inglés Joseph Wilson Swan (1824–1914) presentó en la Sociedad Quı́mica de Newcastle on Tyne una lámpara eléctrica con filamento de carbono. A pesar del inmenso éxito de la lámpara eléctrica el invento de Edison presentaba una gran desventaja: se ennegrecı́a con el uso. Buscando superar esa limitación, Edison descubrió en 1883 lo que serı́a más tarde conocido como efecto termoiónico o efecto Edison: a ciertas condiciones de vacı́o y voltaje, 4 En 1855, el fı́sico alemán Johann Heinrich Wilhelm Geissler (1814–1879) inventó una bomba de vacı́o sin partes móviles que le permitió construir tubos con gases enrarecidos, llamados por su colaborador Plücker, “tubos de Geissler”. su lámpara presentaba un resplandor azulado causado por una inexplicable corriente entre los hilos que formaban el filamento de la lámpara. Esta corriente fluı́a en dirección opuesta a la de la corriente principal. Estas observaciones fueron publicadas en Engineering, p. 553, el 12 de diciembre de 1884 con el tı́tulo A Phenomenon of the Edison Lamp. En 1899, el fı́sico inglés sir Joseph John Thomson (1856–1940, premio nobel de fı́sica en 1906) mostró que ese efecto era debido a la emisión de electrones por los metales incandescentes. Con todo, hacı́a falta un tratamiento matemático para entender el fenómeno. En 1902, el fı́sico inglés sir William Richardson (1879–1959, premio nobel de fı́sica en 1928) obtuvo la primera expresión para una corriente termoiónica J al considerar que los electrones libres de un metal seguı́an la estadı́stica de Maxwell– Boltzmann. Más tarde, en 1914, encontró una nueva expresión para J: eφ (1) J = AT 2 exp − kt donde A es una constante, eφ representa el calor latente de vaporización de un gas monoatómico, k es la constante de Boltzmann y T es la temperatura absoluta. Otra expresión para J fue la obtenida por Clement Child, en 1911, y por Irving Langmuir independientemente, en 1913: J= 4 Eo 9 2e m 12 3 V 2 x−2 donde E0 es la constante dieléctrica del vacı́o y V es el potencial a la distancia x del cátodo. Obsérvese que la ley de Child–Langmuir es la primera ley no linear de la fı́sica. En 1923, el fı́sico y quı́mico ruso–norteamericano Saul Dushman (1883–1954) encontró el siguiente valor para la constante A de Richardson: A = 2π mek h3 (2) donde m y e representan la masa y la carga del electrón, y h la constante de Planck. Las expresiones 1, 2 forman parte de la hoy conocida como ecuación de Dushman–Richardson. cs Crónica de los efectos fı́sicos. Parte II* José Marı́a Filardo Bassalo, Fundación Minerva, Prof. retirado de la Universidad de Pará www.bassalo.com.br * Traducción por J. L. Córdova, Depto. de Quı́mica, UAM– Iztapalapa. joseluiscordovafrunz@gmail.com ContactoS 82, 13–22 (2011) 14 Resumen En esta Crónica presentaremos la evolución histórica y conceptual de algunos de los más importantes efectos fı́sicos; además de describirlos, hablaremos de quién hizo qué, cómo y cuándo (cual corresponde a una crónica) y presentaremos algunos detalles matemáticos para su mejor comprensión. En esta segunda parte de la Crónica describiremos someramente los efectos fotoeléctrico (Hertz, 1887; Stoletov, 1889), Zeeman (1896) y otros descubiertos en el primer cuarto del siglo XX, como son: el Stark–Lo Surdo (1913), Sagnac (1913), Lense– Thirring (1918), Barkhausen (1919), Rsamsauer– Townsend (1921/1922), Compton–Debye (1923 y Metiner–Auger (1923/1925). 13. Efecto fotoeléctrico (Hertz, 1887; Stoletov, 1889) En un trabajo publicado en 1887, el fı́sico alemán Heinrich Rudolf Hertz (1857–1894) registró los resultados de sus experimentos con osciladores1 que le permitieron producir la radiación electromagnética, hoy conocida como microondas y ondas hertzianas. El dispositivo empleado por Hertz consistı́a de dos esferas metálicas, cada una con un asta, teniendo en su extremo otra esfera metálica de menor tamaño, figura 1. Ambas astas se encontraban conectadas a una bobina de Rühmkorff, dispositivo inventado por el mecánico y electricista alemán Heinrich Daniel Rühmkorff (1803–1877) de producir chispas de corta longitud de onda. Al alimentar la bobina con un circuito eléctrico oscilante observó que se producı́an chispas entre las esferas metálicas; estas chispas, según habı́a predicho en 1865 el fı́sico y matemático escocés James Clerk Maxwell (1831–1879), debı́an producir una radiación electromagnética. Hertz, utilizó un resonador construido por él mismo a partir de un grueso alambre circular de cobre interrumpido por un pequeño arco, tenı́a en un extremo una pequeña esfera y en la otra un tornillo que permitı́a controlar la abertura del circuito; con ello encontró el valor de 66 cm para la longitud de onda de esa radiación. Fue en estos experimentos que Hertz observó que si una esfera electrizada negativamente era iluminada con luz ultravioleta se producı́an chispas más fácilmente. Más tarde, en 1888, el ingeniero y fı́sico italiano Augusto Righi (1850–1920) observó que dos electrodos expuestos a luz ultravioleta actuaban como un par voltaico. Righi nombró a este fenómeno efecto fotoeléctrico. 1 Hertz, H. R. 1887. Annalen der Physik 31, p. 421. Figura 1. Esquema del dispositivo de Hertz. El primer fı́sico en desarrollar un método experimental para estudiar el efecto fotoeléctrico fue el ruso Aleksandr Grigoryevich Stoletov (1839–1896) en 1888–1889. Ya en 1872, Stoletov habı́a observado dicho fenómeno en el siguiente experimento: dos discos metálicos de 22 cm de diámetro, uno sólido y otro reticular, fueron colocados verticalmente frente a un arco voltaico, unidos mediante una baterı́a eléctrica y un galvanómetro. Al incidir la luz ultravioleta proveniente del arco en el disco macizo, unido al polo negativo de la baterı́a, se registró una corriente en el galvanómetro cuando la tensión entre los bornes se fijó en 0.01 volts. Vale anotar que, en 1888, el fı́sico alemán Wilhelm Hallwachs (1859–1922) hizo experimentos semejantes en una placa de zinc, descargada y aisalda, la cual se cargaba positivamente al recibir luz ultravioleta proveniente de una lámpara de cuarzo.2 Stoletov, en un artı́culo elaborado en 1889 intitulado “Aktinoelektricheskie issledovania” (Investigaciones actinoeléctricas), reunió los resultados obtenidos en ese periodo, donde observó que habı́a una pérdida de carga eléctrica negativa en un metal iluminado con luz ultravioleta. Más especı́ficamente, observó que, al iluminar la placa negativa de un con2 Annalen der Physik, 33, p. 310 Crónica de los efectos fı́sicos. Parte II. José M. Filardo Bassalo densador con esa radiación, se producı́a una corriente eléctrica continua en el circuito cuya intensidad era proporcional a la intensidad de la luz incidente y al área iluminada. Además, al investigar la relación entre esa fotocorriente y la diferencia de potencial externa del circuito, Stoletov descubrió la existencia de una corriente de saturación; en otras palabras, descubrió las primeras leyes del efecto fotoeléctrico. A pesar de las observaciones de Hertz, Stoletov y Hallwachs del efecto fotoeléctrico, el descubrimiento de las leyes de este efecto suele atribuirse al ayudante de Hertz: el fı́sico húngaro alemán Philipp Eduard Anton von Lenard (1862–1947, premio nobel de fı́sica en 1905). Los experimentos de 1899 de Lenard lo llevaron a concluir que las superficies metálicas emitı́an elecrones cuando recibı́an radiación electromagnética. Fue, en 1902 que enunció las hoy conocidas leyes del efecto fotoeléctrico: 1. Los electrones emitidos tienen velocidades iniciales finitas independientes de la intensidad de la luz pero dependiente de su frecuencia. 2. El número total de electrones emitido es proporcional a la intensidad de la luz incidente. Estas leyes, con todo, no eran explicadas por la teorı́a electromagnética que desarrolló Maxwell en el ya citado libro A Treatise on Electricity and Magnetism de 1873. Por ejemplo, según esta teorı́a, cuanto más intensa la radiación incidente en un material fotoeléctrica mayor serı́a la velocidad del electrón arrancado. Fue Einstein, en 1905,3 quien dió una explicación heurı́stica con la interpretación cuántica de la luz. Ası́, la energı́a cinética máxima E de los electrones arrancados por la luz de frecuencia ν está dada por: E = hν − φ0 donde hν es la energı́a de un quantum de luz4 y φ0 es la energı́a de enlace del electrón. 14. Efecto Zeeman (1896) Como ya mencionamos en la crónica anterior, en 1845/1846, Faraday fue uno de los primeros en observar la acción de un campo magnético en el plano de polarización de la luz, obsevación conocida como efecto Faraday o efecto magneto–óptico. Más tarde, en 1862, el propio Faraday intentó, sin éxito, encontrar variaciones en el periodo o en el estado de polarización de la luz emitida por la flama de sodio (N a), cuando era colocada en presencia de un campo magnético fuerte. Para realizar este experimento, 3 Annalen der Physik, Leipzig 17, p. 132 “fotón” en 1926 por el quı́mico norteamericano Gilbert Newton Lewis (1875–1946) 4 Denominado 15 Faraday empleó un espectroscopio de prisma de bajo poder de resolución. Sin embargo, a pesar de que Maxwell habı́a negado, en 1870, la existencia de ese efecto, en 1875, el fı́sico y matemático inglés Peter Guthrie Tait (1831–1901) desarrolló un tratamiento teórico de la influencia del campo magnético sobre el estado de polarización de la luz en una absorción selectiva. Con todo, no fue sino hasta 1896, que el fı́sico holandés Peter Zeeman (1865–1943, premio nobel de fı́sica en 1902) inició un estudio sistemático de esa influencia, lo que lo llevó al descubrimiento del hoy famoso efecto Zeeman. Es oportuno apuntar que Zeeman, por ese entonces, trabajaba en la Universidad de Leiden con los fı́sicos holandeses Heike Kamerlingh Onnes y Hendrik Antoon Lorentz. Zeeman utilizó un dispositivo más elaborado que el de Faraday; consistió en una bobina de Rühmkorff productora de un campo magnético del orden de 10 kilogauss y una rejilla de difracción de Rowland (estas rejillas habı́an sido desarrolladas por el fı́sico norteamericano Henry August Rowland (1848–1901) llegando a tener un radio de 3 m con 6000 lı́neas/cm y un poder de resolución superior a 150000). En 1896, Zeeman observó que las dos lı́neas amarillas D del sodio se alargaban cuando eran examinadas bajo la acción de un campo magnético muy fuerte. Llegó a detectar que estas lı́neas estaban polarizadas circularmente cuando eran paralelas a las lı́neas de fuerza del campo magnético y linealmente planopolarizadas cuando la observación era perpendicular a las lı́neas de fuerza, figura 2. Zeeman observó deformaciones semejantes con otras lı́neas espectrales. Con ello verificó experimentalmente las predicciones teóricas del fı́sico y matemático irlandés Sir Joseph J. Larmor (1857–1942). Estos resultados fueron discutidos por Zeeman y Lorentz quien, desde 1892, habı́a desarrollado su famosa teorı́a de la electricidad compuesta por “partı́culas cargadas” (nombradas por Lorentz iones) cuyas oscilaciones armónicas amortiguadas dentro de un cuerpo eran responsables de la emisión de un espectro luminoso. El 31 de octubre de 1896, en una reunión de la Academia de Ciencias de Amsterdam presentaron este efecto, y también en el artı́culo del Verbandlungen der Physikalischen Gesellschaft zu Berlin 8, p. 128 de 1896 intitulado Ueber einen Einfluss der Magnetisirung auf die Natur des von einer Substanz emittirten Lichtes. Fue un poco después, en 1897, que Lorentz presentó la explicación teórica del fenómeno observado por Zeeman. Consideró a los “iones” sujetos a 16 ContactoS 82, 13–22 (2011) da componente σ. Este predicción de Lorentz (desdoblamiento de las lı́neas espectrales) fue confirmada por Zeeman en 1897 con la lı́nea azul del cadmio (Cd) bajo la acción de un campo magnético de 32 kilogauss. Este desdoblamiento también fue observado por otros cientı́ficos de diversos laboratorios, por ejemplo, Albert Abraham Michelson (1852– 1931), Marie Alfred Cornu (1841–1902) y el alemán C. G. Walther König. Figura 2. Efecto Zeeman. a) campo magnético ortogonal, b) campo magnético paralelo, c) sin campo. los átomos por una fuerza de tipo elástica y some~ de estidos a la acción de una fuerza externa K, ta suerte demostró que, en presencia de un campo magnético de intensidad H, estos “iones” oscilaban en dirección del campo con una frecuencia propia ν0 cuando giraban en órbitas circulares en planos normales a la dirección de H, y con una frecuencia ν: eH ν = ν0 ± (1) 4πmc donde e y m representan, respectivamente, la carga y la masa del “ion”, y c la velocidad de la luz en el vacı́o. En 1897, Larmor presentó otra explicación teórica para el efecto Zeeman. Segun él, el efecto magnético del campo H sobre las partı́culas cargadas que describen órbitas circulares era el de sobreponer a la frecuencia propia de rotación una frecuencia precesional alrededor de H y del mismo valor calculado por Lorentz. Hoy se conoce a esta frecuencia precesional como frecuencia de Larmor. Según Lorenz, cuando se hace la observación del efecto Zeeman en la dirección del campo magnético, aparecerı́an apenas dos lı́neas polarizadas circularmente en sentido inverso una de otra. Por otro lado, cuando la observación se hiciera perpendicularmente al campo H, aparecerı́an tres lı́neas, la central polarizada linealmente en la dirección de H, llamada componente π, y las dos extremas, polarizadas también linealmente pero en dirección perpendicular a H, la llama- El estudio del efecto Zeeman mantuvo el interés creciente por el mundo subatómico. Con todo, las nuevas observaciones experimentales bajo la acción de un campo magnético en una lı́nea espectral no se ajustaron a la explicación de Lorentz. En efecto, en 1898, el fı́sico irlandés Thomas Preston (1860–1900) observó que las lı́neas azules del zinc y del cadmio se volvian un cuadruplete. En 1898, Cornu obtuvo otro cuadraplete, esta vez con la lı́nea D1 del sodio y un sextuplete para su lı́nea D2 , lo cual fue confirmado por Preston. También en 1898, Michelson consiguió separar la lı́nea verde del mercurio en once componentes. Estas versiones más complejas del efecto Zeeman, conforme las llamó Lorentz, fueron estudiadas sistemáticamente por Preston y por los fı́sicos alemanes Carl David Tomé Runge (1856–1927) y Louis Carl Heinrich Friedrich Paschen (1865-1947), estudios que llegarı́an a ser conocidos, respectivamente, como regla de Preston y regla de Runge, los cuales estaban relacionados con los efectos Zeeman normal y complejo. A fin de investigar más detalladamente estos efectos, Paschen invitó a su alumno de doctorado, el fı́sico alemán Ernst Emil Alexander Back (1881– 1959). Ası́, en 1912/1913, descubrieron que cuando un campo magnético empieza a aumentar, muchos componentes complejos sufren una transformación magnética, se vuelven cada vez más débiles hasta reducirse a una configuracion “Zeeman normal”. En otras palabras, el efecto Zeeman anómalo (como llamaban al efecto Zeeman complejo) se transforma en el efecto Zeeman normal a medida que aumenta el campo magnético externo. Ası́, el efecto Paschen–Back5 explica las reglas de Preston y de Runge. El efecto Paschen–Back sólo comenzó a ser entendido con los trabajos de Sommerfeld y de los fı́sicos Alfred Landé (1888–1975), Werner Karl Heisenberg (1901–1976, premio nobel de fı́sica en 1932), Wolfgang Pauli Junio (1900–1958, premio nobel de fı́sica en 1945), Ralph Ralph de Ler Krönig (1904– 1995), Arthur Holly Compton (1892–1962, premio 5 Nombre acuñado por el fı́sico alemán Arnold Johannes Wilhelm Sommerfeld (1868–1951) en 1914. Crónica de los efectos fı́sicos. Parte II. José M. Filardo Bassalo nobel de fı́sica en 1927), George Eugen Uhlenbeck (1900–1988) y Samuel Abraham Goudsmit (1902– 1978) entre 1920 y 1925 al desarrollar el modelo vectorial del átomo. Según este modelo (en notación actual) el momento ~ del electrón atómico es la suma angular total (J) ~ y de su vectorial de su momento angular orbital (L) ~ momento angular intrı́nseco o spin (S), esto es: ~ +S ~ J~ = L ~ puede tomar valores En tanto que el módulo de L ~ sólo puede enteros (0h̄, 1h̄, 2h̄, . . .) el módulo de S 1 tomar los valores ± 2 h̄. ~ es fuerCuando el campo magnético externo (H) ~ te, J precede en su dirección. En cuando disminu~ y S ~ preceden independientemenye ese campo, L ~ Es oportuno destacar que, te en la dirección de H. en el caso del efecto Paschen–Back la ecuación 1 tomará la forma siguiente: eH ν = ν0 ± g 4πmc donde g es el factor de Landè cuyo valor actual está dado por: g =1+ j(j + 1) + s(s + 1) − ℓ(ℓ + 1) 2j(j + 1) donde: ℓ = 0, 1, 2, . . . 1 s = 2 1 j = ℓ+ 2 15. Efecto Stark–Lo Surdo (1913) En 1901, el fı́sico alemán Woldemar Voigt (1850– 1919) anticipó la existencia de un efecto eléctrico parecido al efecto Zeeman, o sea, la separación de lı́neas espectrales por un fuerte campo eléctrico. Con todo, al intentar explicar ese probable efecto mediante la fı́sica clásica, concluyó que, para un campo eléctrico de 300 V/cm habrı́a una separación tan pequeña entre las lı́neas D del sodio que serı́a imposible observarla. El fı́sico alemán Johannes Stark (1874–1957, premio nobel de fı́sica en 1919) intentó medir esta separación en 1906, estimulado por su descubrimiento del efecto Doppler en los rayos canales. Estos rayos fueron descubiertos por el fı́sico alemán Eugen Goldstein (1850–1931) al experimentar con tubos de vacı́o a fin de entender el brillo de su cáto- 17 do; pensó que resultaba del impacto de algún agente en el electrodo, de aquı́ que hiciera unos agujeros en éste con lo que verificó que también se producı́a brillo por detrás del electrodo; puesto que algo habı́a pasado a través de esos canales los denominó “rayos canales”. A partir de 1905, Stark desarrolló una serie de trabajos relacionados con el efecto Doppler de los rayos canales. Ya en 1907, Stark habı́a intuido una relación entre el campo eléctrico y las lı́neas espectrales pues afirmaba que el espectro de banda (continuo) de los elementos era debido a la excitación de los cuerpos neutros y que el espectro de lı́nea (discreto) era debido a la excitación de los átomos ionizados que, a su vez, estaban cargados eléctricamente. En 1908 Stark propuso un modelo6 según el cual las series espectrales se relacionaban con un proceso de ionización de átomos y moléculas y que su frecuencia ν dependı́a del potencial de ionización V mediante hν = eV . En octubre de 1913, Stark hizo un experimento donde registró el paso de rayos canales en una mezcla de hidrógeno y helio; observó que las lı́neas Hα y Hβ del hidrógeno, cuando eran vistas en la direción perpendicular a un fuerte campo electrostático E (de 10000 a 31000 V/cm) se desdoblaban en cinco componentes, las oscilaciones de los tres componentes internos (intensidad débil) eran paralelas a la dirección del campo, y las de los componentes externos (intensidad fuerte) eran perpendiculares a ese mismo campo. Observó también que la distancia entre esos componentes era proporcional a E. Para el helio, Stark observó que el efecto del campo eléctrico sobre las lı́neas de las series p (principal) y s (sharp) era muy pequeño, pero el efecto sobre la serie d (diffuse) era del mismo orden que para las series del hidrógeno, aunque de tipo diferente. Estos descubrimientos fueron comunicados a la Academia Prusiana de Ciencias el 20 de noviembre de 1913. Debemos destacar que, también en 1913, el fı́sico italiano Antonino Lo Surdo (1880–1949) hizo una observación semejante al estudiar la acción de un campo eléctrico sobre el espectro de emisión de un gas. De aquı́ que ese efecto sea conocido también como efecto Stark–Lo Surdo (figura 3). Los primeros experimentos realizados por Stark acerca de este nuevo fenómeno fı́sico fueron publicadas en Sitzungsberichte Königlich Preussische Akademie der Wissenschaften zu Berlin 40, p. 932, en 1913, con el tı́tulo: Beobachtungen über den Effekt des elektrischen Feldes auf Spektrallinien. 6 Physikalische Zeitscrhift 9, p. 85. 18 ContactoS 82, 13–22 (2011) Figura 3. Efecto Stark de primer y segundo orden en átomos de hidrógeno. Otros experimentos al respecto fueron publicados en Physikalische Zeitschrift 15, p. 265 (1914), en Verhandlungen der Deustschen Physikalische Gesellschaft 16, p. 327 (1914), en Nachrichten Königlich Gesellschaft der Wissenchaften Göttingen, p. 427 (1914), en Annalen der Physik 43, p. 965 (1914), en Annalen der Physik 43, p. 983 (1914), y con su asistente George Wendt en Annalen der Physik 43, pp. 991 y 1017 (1914), con su asistente Heinrich Kirschbaum, en Annalen der Physik 48, pp. 193 y 210 (1915), en Annalen der Physik 56, p. 569 (1918), con sus asistentes O. Hardtke y G. Liebert, en Annalen der Physik 56, p. 577 (1918), en Annalen der Physik 58, p. 712 (1919), con Hardtke en Annalen der Physik 58, p. 712 (1919). 16. Efecto Sagnac (1913) En 1881 el fı́sico germano norteamericano Albert Abraham Michelson (1852–1931, premio nobel de fı́sica en 1907) inventó un interferómetro a fin de verificar la existencia del éter luminı́fero cartesiano. En este aparato un rayo de luz es dividido en dos (r1 , r2 ) al incidir en una lámina de vidrio P cuya cara posterior está recubierta por una fina capa de plata. El rayo r1 es reflejado por la superficie de plata y se dirige mediante un espejo M1 a una distancia d de P ; el rayo r2 atraviesa P y llega al espejo M2 colocado a la misma distancia d de P . Después de la reflexión de r1 en M1 el rayo recorre la misma distancia d hasta la placa P ; una parte de él refleja y la otra atraviesa P dirigiéndose a un telescopio manipulado por un observador O. A su vez, el rayo r2 , después de reflejarse en M2 recorre la misma distancia d hasta la placa P ; una parte de él se refleja y la otra atraviesa P dirigiéndose al telescopio del observador O (figura 4). Michelson esperaba que, cuando los dos rayos lle- Figura 4. El experimento de Sagnac. gasen al telescopio habrı́a un desplazamiento de las franjas de interferencia cuando se rotase el interferómetro. Tal desplazamiento resultarı́a de la diferencia de tiempo empleado por la luz en los dos brazos iguales del interferómetro, diferencia calculada por la composición de velocidades galileana, hasta entonces paradigma de la fı́sica. Con todo, apenas observaron un minúsculo desplazamiento que hacı́a incompatible la existencia del éter luminı́fero con aquella ley. En 1887 Michelson y el quı́mico norteamericano Edward William Morley (1838–1923) confirmaron los resultados obtenidos en 1881. Por sugerencia de Michelson, el fı́sico francés Georges M. M. Sagnac (1869–1928) construyó un interferómetro de rotación en el cual todos los componentes (espejos, fuentes de luz, cámara fotográfica) se hallaban en un disco que podı́a ser girado a diferentes velocidades. De ese modo, la luz viajaba alrededor del disco y a lo largo de un circuito poligonal determinado por las sucesivas reflexiones en los cuatro espejos colocados en el perı́metro del disco. Ası́, la luz proveniente de la fuente está dividida en dos ejes que viajan alrededor del disco en direcciones opuestas y, al combinarse en la placa fotográfica, producen figuras de interferencia. La construccion de este interferómetro y los experimentos desarrollados fueron descritos por Sagnac en varios artı́culos publicados entre 1910 y 1911. Con todo, en 1913, Sagnac hizo una observación sorprendente con ese equipo: cuando invertı́a la dirección de rotación habı́a un desplazamiento de las fran- Crónica de los efectos fı́sicos. Parte II. José M. Filardo Bassalo jas de interferencia. Este resultado contradecı́a la Teorı́a de Relatividad Einsteniana de 1905; fue publicado en los Comptes Rendus Hebdomadaires des Séances de l’Académie des Sciences 157, p. 708, en 1913, con el siguiente tı́tulo L’éther lumineux demonstré par l’effet du vent relatif d’éther dans une interféromètre em rotation uniforme. Esta observación llegó a ser conocida como efecto Sagnac. Vale anotar que una observación análoga ya habı́a sido realizada por F. Harress en 1911 y discutida el mismo año por el fı́sico alemán Max Theodor Felix von Laue (1879–1960, premio nobel de fı́sica en 1914). Desde que Sagnac manifestó su descubrimiento se han hecho variaciones del experimento original7 sin poderlo confirmar o negar definitivamente. El Sistema de Posicionamiento Global (GPS) diseñado para orientar la navegación aérea depende, obviamente, del efecto Sagnac por lo que es muy comprensible el interés por esclarecerlo. Es oportuno decir que en 1993, este efecto fue observado en un interferómetro de neutrones8 y que su existencia no es explicada por la teorı́a de la relatividad einsteiniana. 17. Efecto Lense–Thirring (1918) En 1915, Albert Einstein (1879–1955; premio nobel de fı́sica en 1921) presentó su famosa Teorı́a de la Relatividad General (TRG), según la cual la presencia de energı́a–materia induce en el espacio una geometrı́a no euclideana y, de tal modo, curva el espacio que la incluye. Usando esa teorı́a, en 1918, los fı́sicos austrı́acos Joseph Lense y Hans Thirring, predijeron con un experimento mental, la precesión de un giróscopo fijo en el interior de un cuerpo esférico masivo giratorio como la Tierra. En el lenguaje de la TRG, la velocidad angular ω ~ de la precesión está dada por: ! ~ 6 GR2 m ~ ~r 1Ω ω ~ = Ω · ~r 5 − 5 c2 r 3 r3 ~ son, respectivamente, el radio, la madonde R, m, Ω sa y la velocidad angular de la esfera giratoria, G es la constante de gravitación newtoniana, ~r es la posición del giróscopo y c la velocidad de la luz en el vacı́o. Cuando el giróscopo se encuentra en el polo sur o en el ecuador de la esfera tendremos, respectivamente. ω ~ PN ω ~ Ecuador 4 Gm ~ Ω 5 Rc2 2 GR2 m ~ = − Ω 5 c2 r3 = 7 Hay más detalles al respecto en http://www.ldolphin.org/sagnac.html 8 Rauch, H. 1993. Science 262, p. 1384. (2) (3) 19 Los resultados anteriores fueron, inicialmente, explicados usando el principio de Mach, presentado en su famoso libro intitulado Die Mechanik in Ihrer Entiwicklung Historisch–Kritisch Dargestellt de 1883; en éste afirmó que la inercia se origina por la interacción de una masa dada con todas las demás masas del universo (Einstein, en 1918) lo denominó “principio de Mach”). Ası́, por ejemplo, la diminuta precesión en el polo Norte, dada por la expresión 2, en el sentido de rotación de la Tierra puede ser tomada como una medida del movimiento de nuestro planeta y, por otro lado, del no–movimiento de la restante masa del Universo. Con todo, el fı́sico norteamericano Wolfgang Rindler, en 1994, presentó una demostración no–machiana para la precesión ecua~ tienen el torial, esto es, demostró que ω ~ Ecuador y Ω mismo sentido, no sentidos contrarios según lo indicado en la expresión 3. El efecto Lense–Thirring fue presentado por sus autores en la revista Physikalische Zeitschrift 19, p. 156, en 1918, con el tı́tulo: Über den Einfluss der Eigenrotation der Zentralkörper auf die Bewegung der Planeten und Monde nach der Einsteinschen Gravitationstheorie. Es importante precisar que el efecto Lense–Thirring también ha sido propuesto recientemente como experimento mental; en 1998 los astrofı́sicos norteamericanos Dragoljub Markovix y Frederick K. Lamb descubrieron perturbaciones permanentes en la parte más interna de los discos de acreción de sistemas binarios compactos (del tipo de estrellas neutrónicas y de agujeros negros, emisores de rayos X oscilantes de alta frecuencia) que giran, probablemente, en la frecuencia de precesión gravitomagnética de Lense–Thirring. Poco después del descubrimiento de la emisión de rayos X por las estrellas neutrónicas y los agujeros negros, los fı́sicos norteamericanos J. A. Bardeen y J. A. Petterson discutieron la posibilidad de observar el fecto Lense–Thirring en los discos de acreción de esos objetos astronómicos; en un artı́culo de 1975 de The Astrophysical Journal 195, p.L65 presentaron lo que es hoy conocido como efecto Bardeen–Petterson. 18. Efecto Barkhausen (1919) Conforme vimos en la primera parte de esta Crónica de Efectos Fı́sicos, en 1845, Faraday clasificó las sustancias en dı́a y paramagnéticas dependiendo de si las lı́neas de fuerza (concepto que desarrolló en 1821) del campo magnético divergı́an o convergı́an respectivamente en su interior. Debido a que esta clasificación no estaba respaldada por ninguna explicación del fenómeno, el fı́sico alemán Wilhelm Eduard Weber (1804–1891) usó las “corrientes amperianas”. En 20 1822, el fı́sico francés André Marie Ampère (17751836) propuso que el magnetismo natural era consecuencia de una infinidad de corrientes circulares diminutas; las sustancias no magnéticas las tenı́an orientadas al azar, de forma que su efecto global era nulo. Weber propuso que el diamagnetismo se debı́a a los circuitos de esas corrientes en los que la resistencia ohmica es nula, de modo que un campo magnético externo causarı́a en esos circuitos corrientes autoinducidas cuyas direcciones estaban definidas por la ley de Lenz, esto es, la corriente de autoinducción tiene sentido contrario a la externa. Para explicar el paramagnetismo propuso que las corrientes moleculares permanentes eran orientadas por el campo magnético externo. Ası́, para Weber, las sustancias paramagnéticas serı́an aquellas cuyo paramagnetismo es suficientemente fuerte como para enmascarar al diamagnetismo. Más tarde, en 1852, Weber usó su modelo de corrientes eléctricas dentro de los cuerpos magnetizados para explicar porqué en las sustancias muy magnéticas, como el hierro, la magnetización inducida no aumenta en proporción al aumento del campo magnetizante sino que tiende a un valor de saturación. Tales sustancias fueron más tarde denominadas “ferromagnéticas”. La distinción que Weber hizo entre dia y paramagnetismo fue confirmada por el quı́mico y fı́sico francés Pierre Curie (1859–1906, premio nobel de fı́sica en 1903), en 1895, al demostrar que la susceptibilidad magnética χ varı́a en forma inversamente proporcional con la temperatura absoluta T para las sustancias paramagnéticas y que para las diamagnéticas es independiente de la temperatura; el enunciado anterior es la famosa ley de Curie. La primera aplicación de un modelo microscópico al estudio del magnetismo fue presentado por el fı́sico francés Paul Langevin (1872–1946) en 1905. Para explicar el paramagnetismo, admitió que los átomos y moléculas poseı́an un momento magnético intrı́nseco y permanente µ, cuya distribución espacial era boltzmanniana. Este modelo langeviano fue utilizado, a su vez, por el fı́sico francés Pierre Ernst Weiss (1865–1940) para explicar el ferromagnetismo en 1907; consideró que una sustancia ferromagnética estaba constituida por pequeños dipolos magnéticos sometidos a un intenso campo magnético interno denominado por él campo molecular. A partir de este trabajo, Weiss dedujo que en una sustancia ferromagnética existen regiones mayores que los átomos y moléculas –los llamados dominios– que son intrı́nsecamente magnéticos y orientados en diferentes direc- ContactoS 82, 13–22 (2011) ciones, de modo que una parte finita de la sustancia podrı́a no estar magnetizada. En 1919, Barkhausen publicó un artı́culo en Physikalische Zeitschrift 20, p. 401, con el tı́tulo: Zwei mit Hilfe der neuen Verstärker entdeckte Erscheinungen donde describe el resultado de un experimento conocido hoy como efecto Barkhausen: el paulatino aumento contı́nuo en el campo magnético aplicado a un material ferromagnético provoca saltos en la magnetización percibidos como sonidos en un micrófono. Obsérvese que ese efecto fue importante para la elucidación de los dominios weissianos, lo cual ocurrió con el desarrollo de la mecánica cuántica a partir de 1926. Obsérvese, además, que en 1930 Barkhausen utilizó su efecto para explicar la propagación de ondas de radio en la atmósfera terrestre. 19. Efecto Ramsauer–Townsend (1921/1922) En 1921, el fı́sico alemán Carl Wilhelm Ramsauer (1879–1955) estudió la dispersión de electrones de muy baja energı́a (0.75 a 1.1 ev) en los gases inertes argón, kriptón y xenón. Para el argón, por ejemplo, observó que la sección efectiva de choque de esta dispersión era mucho mayor de la calculada por la teorı́a cinética de los gases. Los experimentos de 1921 con un intervalo de energı́a mayor de electrones reveló una sorprendente variación en la sección de choque. En 1922, los fı́sicos ingleses Sir John Sealy Edward Townsend (1868–1957) y V. A. Bailey examinaron la dispersión estudiada por Ramsauer para electrones en el intervalo de energı́a 0.2 a 0.8 eV y, usando un método diferente, encontraron que el camino libre máximo de un electrón ocurre en 0.39 eV. Estos experimentos fueron publicados por Ramsauer en Annalen der Physik 64, p. 513, y 66, p. 546, en 1921, con el tı́tulo: Über den Wirkungsquerschnitt der Gasmoleküle gegenüber langsamen Elektronen, y por Townsend y Bailey en Philosophical Magazine 43, p. 593, y 44, p. 1033, en 1922, con los tı́tulos: The motion of electrons in argon y The motion of electrons in argon and in hydrogeneral. Hoy es el conocido efecto Ramsauer–Townsend explicado por la mecánica cuántica entre 1925 y 1927. En 1929, Ramsauer y R. Kollath confirmaron que los gases nobles de sus experimentos eran transparentes para una energı́a cinética crı́tica. 20. Efecto Compton–Debye (1923) En la primera parte de esta Crónica vimos que Einstein, en 1905, explicó el efecto fotoeléctrico suponiendo que la luz es un paquete de energı́a hν, el conocido “quantum” de luz o fotón. En 1905, Eins- Crónica de los efectos fı́sicos. Parte II. José M. Filardo Bassalo tein demostró que la masa m de un cuerpo y su contenido de energı́a E están relacionados por la famosa expresión: E = mc2 donde c es la velocidad de la luz en el vacı́o. Más tarde, en 1916, al estudiar la radiación de Planck del cuerpo negro, Einstein consideró por primera vez que la radiación electromagnética, en particular la luz, era portadora de un momento p definido por: hν p= c El carácter partı́cula–onda de la radiación electromagnética implı́cito en la expresión anterior fue observado por el fı́sico norteamericano Arthur Holly Compton (196–1962, premio nobel de fı́sica en 1927), en 1923, en su estudio de la dispersión de rayos X por la materia. En 1923, una observación semejante fue hecha por el fı́sico y quı́mico holandés Petrus Joseph Wilhelm Debye (1884-1966, premio nobel de quı́mica en 1936). Anotemos que el artı́culo de Compton fue publicado en Physical Review, 21, p.483 en 1923, con el tı́tulo A quantum theory of the scatterign of X rays by light elements. Los primeros debates donde se discute acerca de esta dualidad fueron presentados por Compton en octubre de 1922 en el Bulletin of the National Research Council of the U.S.A. y en la reunión de la American Physical Society del 1 y 2 de diciembre de 1922. Por otro lado, Debye publicó su descubrimiento en Physikalische Zeitschrift 24, p.161, 1923. La observación experimental de Compton y Debye de la dispersión de rayos X por elementos ligeros (conocida obviamente como efecto Compton–Debye, es representada por la expresión: λ′ − λ = h (1 − cos θ) mc (4) donde λ′ t λ representan, respectivamente, las longitudes de onda de los rayos X después y antes de ser dispersados por los electrones de masa m, θ es el ángulo de dispersión, h es la constante de Planck y c es la velocidad de la luz en el vacı́o. A pesar de que Compton consideró los principios de conservación de energı́a y de momento linear para los rayos X y para el electrón, no llegó a deducir la expresión 4 pues estos principios eran cuestionado por eminentes fı́sicos, p. ej. el danés Niels Henrik David Bohr (1885-1962, premio nobel de fı́sica, 1922) y el alemán Arnold Johannes Wilhelm Sommerfeld (1868–1951). En 1924 Bohr y los fı́sicos Hendrik Anthony Kramers (1894–1952) y John Clarke 21 Slater (1900–1976) (el primero holandés, el segundo inglés) elaboraron la hipótesis BKS según la cual los principios de conservación de energı́a y de momento linear no valı́an en procesos microscópicos, como es el efecto Compton–Debye, sino que sólo valı́an estadı́sticamente para fenómenos macroscópicos, figura 5. Figura 5. Energı́a cuantizada. Los fı́sicos alemanes Walther Bothe (1891–1957, premio nobel de fı́sica en 1954) y Hans Wilhelm Geiger (1882–1945) lograron realizar en 1924 unos experimentos más precisos que revelaron la validez de las leyes de conservación de energı́a y de momento linear de la expresión 4; ello refutó la hipótesis BKS. Lo mismo ocurrió con los experimentos de 1925 hechos por el mismo Compton, auxiliado Alfred Walter Simon. Después de realizar muy diversos experimentos este efecto tuvo una explicación teórica más adecuada con el formalismo de segunda cuantización de los fı́sicos Oskar Benjamin Klein (1894–1977, sueco) y Yoshio Nishina (1890–1951, japonés) en 1929, con la famosa ecuación de Klein–Nishima. 21. Efecto Meitner–Auger (1923/1925) En 1913 Bohr propuso un modelo atómico según el cual el átomo está constituido por un núcleo cubierto por electrones que giran en órbitas circulares con energı́as cuantizadas (En ) dadas por: En = − 13.6 eV n2 n = 1, 2, 3, . . . De acuerdo a este modelo, la diferencia entre dos niveles de energı́a está dada por el quantum de energı́a planckiana: En − Em = hνm . De este modo, un electrón podrı́a ir de un nivel de energı́a más bajo a uno más alto (excitación) recibiendo ese quantum de energı́a, o bien devolverlo en el proceso inverso (desexcitación). Estos niveles de energı́a recibieron el nombre de capas: K, L, M, . . . con sus respectivas energı́as: EK , EL , EM , . . . ContactoS 82, 13–22 (2011) 22 Por otro lado, un átomo puede perder un electrón al recibir un quantum de luz de energı́a hν mayor que la energı́a de enlace del electrón en una capa dada. Éste es, en general, el llamado efecto fotoeléctrico (presentado en la Parte 1 de esta Crónica) cuando el electrón es arrancado de las capas más externas del átomo. Con todo, también se da en las capas internas, cuando inciden rayos X; se habla entonces de fotoelectrones K, L, M, . . . producidos respectivamente por las capas K, L, M, . . . Esta notación fue desarrollada por el fı́sico inglés Sir Charles Glover Barkla (premio nobel de fı́sica en 1917) en 1911. La ionización mencionada también emite rayos X en el proceso conocido como fluorescencia de rayos X (por su semejanza con la fluorescencia óptica) cuyo rendimiento de fluorescencia r está dado por: r= nq ne Donde nq t ne representan, respectivamente, el número de quanta X emitidos y el número de fotoelectrones. Se han usado diversos métodos para medir este rendimiento; uno de ellos es la cámara de Wilson donde un vapor superenfriado se condensa en partı́culas de lı́quido alrededor de cualquier ion presente. Fue inventada en 1911 por el fı́sico escocés Charles Thomson Rees Wilson (1869–1959, premio nobel de fı́sica en 1927). En la primera mitad de la década de 1920 algunos investigadores detectaron un nuevo fenómeno al medir la energı́a de los fotoelectrones. Por ejemplo, el fı́sico francés Louis César Victor Maurice, Duque de Broglie (1875–1960) experimentó con los fotoelectrones K de la plata al recibir un haz de rayos X provenientes de tungsteno (WK ) y notó que habı́a señales de fotoelectrones L y M de la plata. Los experimentos de fluorescencia de rayos X de Maurice de Broglie fueron descritos en el libro Les Rayons, publicado en 1922 en Parı́s. Es oportuno anotar que, en 1909, el fı́sico inglés Charles Albert Sadler, uno de los colaboradores de Barkla, ya habı́a registrado este fenómeno. Este nuevo fenómeno era más evidente en una cámara de Wilson, pues los fotoelectrones son visibles en la trayectoria de los rayos X. En 1923, el mismo Wilson y la fı́sica austrı́aca Lise Meitner (1878– 1968) observaron que habı́a una pequeña interrupción en el origen de las trayectorias. La misma observación fue hecha por el fı́sico francés Pierre Victor Auger (1899–1993), en 1925. En efecto, utilizando una cámara de Wilson para estudiar la emisión de fotoelectrones por el argón sometido a rayos X, percibió que el 90 % de los trazos de los fotoelectrones tenı́a un trazo cortado. A fin de estudiar con más detalle ese fenómeno, Auger diluyó el argón con hidrógeno a fin de aumentar lo que hoy se conoce comotrazos Auger. Observó que ese trazo tenı́a el mismo origen que el fotoelectrón y que su longitu dependı́a de la dirección del fotoelectrón ası́ como de la frecuencia de los rayos X usados. Para interpretar ese hecho, Auger presentó la siguiente explicación. El átomo de argonio ionizado en la capa K sufre una redistribución en la cual uno de los electrones de la capa L ocupa el lugar vacı́o de la K. La energı́a liberada, EK − EL , no es emitida como rayos X (como serı́a el caso de la fluorescencia de rayos X), sino que provoca una ionización de la capa L. En consecuencia, si EL es la energı́a de esta segunda ionización (o autoionización), supuesta igual a la primera, la energı́a cinética K comunicada al electrón Auger, estará dada por: K = (EK − EL ) − EL = EK − 2EL que apenas depende del átomo emisor. Nótese que puede haber nuevas redistribuciones electrónicas sin emisión de radiación. El descubrimiento de Auger fue publicado en Le Journal de Physique et le Radium 6, p.205 con el tı́tulo: Sur l’effet photoélectrique composé en 1925, y en Comptes Rendus Hebdomadaires des Séances de l’Académie des Sciences de Paris 180, p.65. Es oportuno observar que, en 1923, Lise Meitner habı́a dado una explicación análoga a la de Auger en el artı́culo Das beta–Strahlenspektrum von UX1 und seine Deutung en la revista Zeitschrift für Physik 17, p.54. De aquı́ que este fenómeno se conozca como efecto Meitner–Auger. cs Crónica de los efectos fı́sicos. Parte III* José Marı́a Filardo Bassalo, Fundación Minerva, Prof. retirado de la Universidad de Pará www.bassalo.com.br * Traducción por J. L. Córdova, Depto. de Quı́mica, UAM– Iztapalapa. joseluiscordovafrunz@gmail.com ContactoS 82, 23–32 (2011) 24 Resumen En esta Crónica presentaremos los efectos fı́sicos descubiertos de 1925 a 1950: Raman–Mantelsthtam– Landsberg (1928), Túnel (1928), Hubble– Humason (1929/1931), Meissner–Ochsenfeld (1933), Kapitza–Dirac (1933), Cherenkov–Vavilov (1934), Pinch (1934/1939), Uehling–Pasternack– Lamb (1935/1938/1947), URCA (1941), Casimir (1948), Isotópico (1950), Pomeranchuk (1950). 22. Efecto Raman-Mandelshtam-Landsberg (1928) En 1914, el fı́sico francés León Nicolás Brillouin (1889–1969) realizó diferentes estudios1 donde observó que la luz difractada en un medio transparente podı́a modificar su frecuencia. Debido a la I Guerra Mundial (1914–1918) sólo pudo completar sus estudios en 1922.2 Por otro lado, el descubrimiento, en 1923, del efecto Compton3 (difracción de los rayos X por la materia) llevó a los fı́sicos, el austriaco Adolf Gustav Stephan Smekal (1895–1959), en 1923,4 al holandés Hendrik Anthony Kramers (1894–1952) y al alemán Werner Karl Heisenberg (1901–1976), premio nobel de fı́sica en 1932), en 1925,5 a anticipar un efecto semejante para la luz visible. La observación de Brillouin y las predicciones de Smekal–Kramers-Heisenberg fueron confirmadas en 1928 en diversos experimentos realizados independientemente. En efecto, el 21 de febrero de 1928, los fı́sicos rusos Leonid Isaakovich Mandelshtam (1879– 1944) y Grigory Smuilovich Landsberg (1890–1957), en Rusia, y los fı́sicos indios Sir Chandrasekhara Venkata Raman (1888–1970, premio nobel de fı́sica en 1930) y Mariamankkam Srinivasa Krishnan, en la India, descubrieron el análogo óptico del efecto Compton, esto es, la variación en la frecuencia (la compresión de onda) de la luz incidente cuando atraviesa un medio trasparente, efecto conocido hoy como efecto Raman. Los rusos emplearon una lámpara de mercurio y un espectrógrafo de cuarzo para medir la excitación óptica de un cristal; los fı́sicos indios, en cambio, emplearon un espectroscopio de visión directa para medir las vibraciones moleculares de diferentes lı́quidos y vapores. Este descubrimiento fue presentado por Raman y Krishnan en Nature 121, p. 501, 771, y por Raman 1 Brillouin, L. N. 1914. Comptes Rendus Hebdomadaires des Séances de l´Académie des Sciences 158, p. 1331 y Annalen der Physik 44, p. 203. 2 Brillouin, L. N. 1922. Annales de Physique 17, p. 103. 3 Crónica de los efectos fisicos. Parte II. Contactos No. 82, 2011 4 Smekal, A. G. S. 1923. Naturwissenschaften 11, p. 873. 5 Kramers, H. A. y Heisenberg, W. K. 1925. Zeitschrift für Physik 31, p. 681. en Nature 121, p. 619. También lo publicó en el Indian Journal of Physics 2, p. 387, en 1928 con el tı́tulo “A new radiation”. Por su parte, Mandelshtam y Landsberg presentaron sus resultados en Zhurnal Russkogo Fizicheskoi–Khimii Obshchestva Fiziki 60, p. 335, y en Zeitschrift für Physik 50, p. 769 (Über die Litchtzerstreuung in Kristallen) y en Naturwissenshaft 16, p. 557, también en 1928. Es importante destacar que, en 1929, los fı́sicos alemanes Walter Heitler (1904–1981) y Gerhard Herzberg (1904–1999, premio nobel de quı́mica en 1971)6 y, de manera independiente, el fı́sico italiano Franco Rama Dino Rasetti (1901–2001)7 efectuaron experimentos donde observaron que el espectro Raman rotacional de la molécula de nitrógeno (14 N ) no coincidı́a con el modelo nuclear en vigor, esto es, el núcleo formado de electrones y protones. Ésta era la primera evidencia experimental de la existencia del neutrón, cuyo descubrimiento ocurrió en 19328 gracias a las investigaciones experimentales del inglés Sir James Chadwick (1891–1974), premio nobel de fı́sica en 1935). 23. Efecto túnel. (Gamow; Gurney y Condon; Oppenheimer; Fowler y Nordheim, 1928) En 1911,9 los fı́sicos, el alemán Hans (Johannes) Wilhelm Geiger (1882–1945) y el inglés John Mitchell (Michael) Nuttal (1890–1958) presentaron los primeros resultados de sus experimentos en los que observaron regularidades en el decaimiento alfa (α) de algunos núcleos radioactivos. En 1897, el fı́sico inglés Lord Ernest Rutherford (1871–1937), premio nobel de quı́mica en 1908) se interesó por los “rayos Becquerel”, descubiertos en 1896 por el fı́sico francés Antoine–Henri Becquerel (1852–1908, premio nobel de fı́sica en 1903). Al estudiar el paso de esos “rayos” a través de hojas metálicas observó que existı́an dos tipos de rayos: uno era fácilmente absorbido y otro tenı́a gran capacidad de penetración. Los distinguió por esta capacidad, respectivamente, como partı́culas alfa (α) y partı́culas beta (β). En 1905, el fı́sico austriaco Egon Ritter von Schweidler (1873–1948) formuló su famosa ley de desintegración radioactiva: A = A0 eλt donde A es la actividad radioactiva de una muestra en el instante t, A0 es la actividad inicial (t0 = 0) 6 Kramers, H. A. und Heisenberg, W. K. 1925. Zeitschrift für Physik 31, p. 681. 7 Rasetti, F. R. D. 1929. Proceedings of the National Academy of Sciences 15, p. 515. 8 Chadwick, J. 1932. Proceedings of the Royal Society of London A136, pp. 696; 735. 9 Geiger, H. and Nuttall, J. M. 1911. Philosophical Magazine 22, p. 613. Crónica de los efectos fı́sicos. Parte III. José M. Filardo Bassalo y λ es una constante caracterı́stica del material radioactivo (constante de decaimiento). En 1908, Rutherford y Geiger anunciaron que la partı́cula α era un átomo de helio (He) y que presentaba una carga eléctrica de dos electrones (2e). En 1912, Geiger y Nuttall10 propusieron una fórmula empı́rica relacionando la constante de decaimiento radiactivo (λ) y el máximo alcance (r) o energı́a de desintegración, logrado por la partı́cula α en el aire. Esta ley de Geiger–Nuttall se expresa con: log λ = a + b log r donde a y b son constantes. Intentando explicar esa ley, en 1928, el fı́sico rusonorteamericano George Gamow (1904–1948) usó la ecuación de Schrödinger para resolver el problema de una partı́cula frente una barrera de potencial coulómbico con energı́a menor que la altura de la barrera. De este modo demostró que una partı́cula, al chocar con una barrera, presentaba una probabilidad (conocida como efecto túnel) de atravesarla. Este resultado publicado en la revista Zeitschrift für Physik 51 (p. 204), con el tı́tulo: Zur Quantentheorie des Atomkernes. Es oportuno recordar que el fı́sico austrı́aco Erwin Schrödinger (1887–1961; premio nobel de fı́sica, 1933) desarrolló la Mecánica Cuántica Ondulatoria en cuatro trabajos publicados en 1926, en Annalen der Physik 79, pp. 361; 489; 80, p. 437; 81, p. 109. Obsérvese que un resultado análogo al de Gamow fue obtenido por los fı́sicos, el inglés Ronald Wilfrid Gurney (1898–1953) y el norteamericano Edward Uhler Condon (1902–1974) en su trabajo publicado en Nature 122, p. 439, en 1928. Destaquemos que el concepto de tunelamiento también fue considerado en otras situaciones fı́sicas. En 1928, el fı́sico norteamericano Julius Robert Oppenheimer (1904–1967) mostró que la autoionización de los estados excitados del átomo de hidrógeno (H) se desvı́an por un proceso de tunelamiento.11 En efecto, la barrera de potencial coulómbico que enfrenta el electrón serı́a distorsionada por un fuerte campo eléctrico de modo que el electrón podrı́a atravesarla. A su vez, los fı́sicos, el inglés Sir Ralph Howard Fowler (1899–1944) y el alemán Lothar Wolfgang Nordheim (1899–1985), también en 1928,12 ex10 Geiger, H. and Nuttall, J. M. 1912. Philosophical Magazine 23; 24, pp. 439; 647. 11 Oppenheimer, J. R. 1928. Physical Review 31, p. 66; Proceedings of the National Academy of Sciences (U.S.) 14, p. 363. 12 Fowler, R. H. and Nordheim, L. W. 1928. Proceedings of the Royal Society of London A119, p. 173. 25 plicaron que la emisión de electrones por metales frı́os bajo la acción de fuertes campo eléctricos (efecto ya observado por J. E. Lilienfeld, en 1922)13 se debı́a al tunelamiento de esos electrones por el abatimiento de la barrera de potencial de la superficie metálica. Fowler y Nordheim, en ese trabajo, propusieron un modelo unidimensional según el cual los electrones de masa m en un metal son confinados por una pared potencial cuya altura está determinada por la función trabajo Ψ más la energı́a de Fermi EF y el espesor de la pared disminuye sustancialmente por la aplicación de un campo eléctrico externo de módulo F . Según ese modelo (conocido como de Fowler– Nordheim), la corriente eléctrica J, está dada por J = AF 2 exp −4(2m)1/2 Ψ3/2 3h̄F Es interesante destacar que O. K. Rice, en 1929, explicó la disociación molecular usando este efecto en un artı́culo publicado en Physical Review 34, p. 1451. 24. Efecto Hubble–Humason (1929/1931) En diciembre de 1924, el astrónomo norteamericano Edwin Powell Hubble (1889–1953) hizo un gran descubrimiento con el nuevo telescopio Hookwer del Observatorio de Monte Wilson, al examinar una fotogrı́a de la nebulosa de Andrómeda. Descubrió 22 estrellas cefeidas en la nebulosa Messier 33 (M33) y 12 en la M31, con ello demostró la naturaleza extragaláctica de las nebulosas espirales. Y más aún, fue capaz de estimar en 285,000 años luz las dimensiones de esas nebulosas espirales, valor mucho mayor que el calculado por el astrónomo norteamericano Harlow Shapley (1885–1972) para nuestra Vı́a Láctea. Este descubrimiento fue presentado por Hubble en 1925.14 Las nebulosas extragalácticas continuaron siendo el objeto de las investigaciones de Hubble. Ası́, en 1926,15 presentó su famosa clasificación de las nebulosas: elı́pticas y espirales (normales, difusas irregulares) y, nuevas observaciones, lo llevaron a concluir que las galaxias están distribuidas en el espacio homogénea e isotrópicamente. Por primera vez, la uniformidad del Universo no era una “petición de principio” sino una observación. Con todo, fue en 1929 que realizó su gran descubrimiento, presentado en los Proceedings of the National Academy of Sciences U.S. 15, p. 169: “A relation between 13 Physikalische Zeitschrift 23, p. 506. E. P. 1925. Astrophysical Journal 62, p. 409 y Publications of the American Astronomical Society 5, p. 261. 15 Hubble, E. P. 1926. Astrophysical Journal 63; 64, p. 236; 321. 14 Hubble, ContactoS 82, 23–32 (2011) 26 distance and radial velocity among extragalactic nebulae”. En ese artı́culo, Hubble describe el descubrimiento como resultado de las observaciones que hizo de 18 galaxias cercanas a la Vı́a Láctea: en su espectro habı́a un desplazamiento hacia el rojo (“red shift”) que interpretó en términos del efecto Doppler–Fizeau. Hubble aseguró que esto significaba un alejamiento de las galaxias respecto al observador. Al calcular la distancia entre las galaxias observadas escribió: Las galaxias se alejan unas de otras con una velocidad (V ) proporcional a la distancia (D)que las separa. La constante de proporcionalidad H0 entre V y D (V = H0 D) fue estimada por Hubble en esa ocasión como: H0 ≈ 500 km s−1 (MPc)−1 ≈ 0.5 × 10−9 años (1MPc = 106 par s; 1par s = 3.0857 × 106 m) Alrededor de esas fechas, 1930, el astrónomo norteamericano Milton La Salle Humason (1891–1972) comenzó su programa de medición del corrimiento al rojo de las galaxias con la de la constelación de Hidra. A ello se debe la asociación de Hubble y Humason en 1931 en el artı́culo publicado en “Astrophysical Journal” 74, p. 43 con el tı́tulo The velocity–distance relation among extra–galactic nebulae, donde anunciaron un nuevo valor de H0 = 550km s−1 (MPc)−1 . Desde entonces el valor de H0 se conoce como constante de Hubble–Humason y al alejamiento de las galaxias como efecto Hubble–Humason. 25. Efecto Meissner–Ochsenfeld (1933) En 1911,16 el fı́sico holandés Heike Kamerlingh Onnes (1853–1926, premio nobel de fı́sica en 1913) descubrió la superconductividad del mercurio (Hg) a una temperatura aproximada de 4.2 K, la de licuefacción del helio (He). Poco después, en 1913,17 Onnes observó que un material superconductor volvı́a a su estado normal si se sometı́a a una corriente eléctrica suficientemente alta. En 1916, F. S. Silsbee observó que la pérdida del estado de superconducción del Hg se debı́a al campo magnético asociado a la corriente eléctrica y no a la corriente en sı́. 16 Onnes, H. K. 1911. Communications from the Physical Laboratory at the University of Leiden 1226, p. 124c. 17 Onnes, H. K. 1913. Communications from the Physical Laboratory at the University of Leiden, Supplement 35. Durante muchos años después del descubrimiento de Onnes se pensó que, a no ser por la resistencia nula, los superconductores poseı́an las mismas propiedades que los materiales comunes. Solamente en 1933, los fı́sicos alemanes Fritz Walther Meissner (1882– 1974) y Robert Ochsenfeld (1901–1993) obervaron que el estado de superconducción es diamagnético. Ese año experimentaron con un largo cilindro de estaño (Sn) enfriado abajo de su temperatura crı́tica Tc (temperatura a la cual ocurre la superconductividad) en presencia de un campo magnético externo; observaron que las lı́neas de inducción del campo externo eran expulsadas del interior del cilindro de estaño. Este resultado, publicado en Naturwissenschaften 21, p. 787, con el tı́tulo: Kurze Originalmitteilungen, fue conocido desde entonces como efecto Meissner-Ochsenfeld. Este efecto implicaba que el paso del estado normal (paramagnético) al de superconducción (diamagnético) era equivalente a una transición de fase termodinámicamente reversible. La transicion mencionada fue demostrada experimentalmente en 1938 por los fı́sicos holandeses P. H. van Laer y Willem Hendrik Keesom (1876– 1956) al medir las capacidades calorı́ficas de unos cilindros de estaño en sus estados conductor y superconductor.18 Aquı́ conviene recordar que la superconductividad, en la década de 1930, fue explicada por dos teorı́as fenomenológicas: una, la termodinámica desarrollada por los fı́sicos holandeses Cornelis Jacobus Gortes y Hendrik Brugt Gerhard Casimir (1909–2000) en 1934,19 se basa en la hipótesis de dos fluidos; segun ésta la entropı́a de un estado superconductor es menor que la del estado normal porque los electrones en el primer estado se hallan más ordenados que en el segundo. La otra teorı́a es electrodinámica y fue elaborada por dos fı́sicos alemanes hermanos: Fritz Wolfgang (1900–1954) y Heinz London (1907–1970) en 1935;20 su principal caracterı́stica es que las corrientes superconductoras se desplazan en presencia de los campos magnéticos estacionarios. En 1950, Zhurnal Eksperimental´noi i Teoretiskoi Fiziki 20, p. 1064, los fı́sicos rusos Vitaly Lazarevich Ginzburg (n. 1916, premio nobel de fı́sica en 2003) y Lev Davidovich Landau (1908–1968, premio nobel de fı́sica en 1962) presentaron una descripción mecánico cuántica de esas teorı́as fenomenológicas, descripción conocida desde entonces como teorı́a de Landau–Ginzburg. Es oportuno destacar 18 Publicado en Physica 5, p. 993. C. J. y Casimir, H. B. G. 1934. Physica 1, p. 306. 20 London, F. W. y London, H. 1935. Physica 2, p. 341. 19 Gorter, Crónica de los efectos fı́sicos. Parte III. José M. Filardo Bassalo que, en 1957 (Physical Review 108, p. 1175), los fı́sicos norteamericanos John Bardeen (1908–1991, premio nobel de fı́sica en 1956, 1972), Leon Neil Cooper (n. 1930, premio nobel de fı́sica en 1972) y John Robert Schrieffer (n. 1931, premio nobel de fı́sica en 1972) desarrollaron una teorı́a microscópica de la supercondutividad, la hoy famosa teorı́a BCS. Terminamos este apartado precisando que desde 1987 se utiliza el efecto Meissner–Ochsenfeld para separar, purificar y clasificar los superconductores.21 26. Efecto Kapitza–Dirac (1933) En 1927,22 los fı́sicos norteamericanos Clinton Joseph Davisson (1881–1958, premio nobel de fı́sica en 1937) y Lester Halbert Germer (1896–1971) observaron por primera vez la difracción de electrones en monocristales de nı́quel (N i). Esta observación indicaba que los electrones se comportaban como ondas. La idea de asociar una onda de longitud λ a un electrón de momento linear mv, mediante la expresión h λ0 mv fue propuesta por el fı́sico francés prı́ncipe Louis Victor Pierre Raymond de Broglie (1892–1987, premio nobel de fı́sica en 1929) en los Annales de Physique 3, p. 22, en 1925. En 1933, los fı́sicos, el ruso Piotr Leonidovich Kapitza (1894–1984, premio nobel de fı́sica en 1978) y el inglés Paul Adrien Maurice Dirac (1902–1984, premio nobel de fı́sica en 1933) publicaron un artı́culo en los Proceedings of the Cambridge Philosophical Society 29, p. 297, intitulado The reflection of electrons from a standing light waves donde presentaron la idea de que los electrones podrı́an ser dispersados por un campo luminoso estacionario. Este fenómeno, conocido como efecto Kapitza–Dirac, es análogo a la difracción de la luz por una rejilla de difracción pero con los papeles de onda y materia invertidos. Ası́, un electrón y la red de difracción interactúan de modo débil por medio de una “potencial ponderomotivo”, de modo que la medida de ese efecto sólo pudo realizarse con la invención del laser en 1960 por el fı́sico norteamericano Theodore Harold Maiman (n. 1927).23 La primera observación experimental del efecto Kapitza–Dirac fue realizada por P. Gould et al. en 1986.24 Recientemente, en 2001,25 D. L. Freimund, 21 Barsoum, M., Patten, D. y Tyagi, S. 1987. Applied Physics Letters 51, p. 1954. 22 Davisson, C. J. y Germer, L. H. 1927. Nature 119, p. 558 y Physical Review 30, p. 705. 23 Physical Review Letters 4, p. 564. 24 Gould, P. et al. 1986. Physical Review Letters 56, p. 827. 25 Freimund, D. L., Aflatooni, K. y Batelaan, H. 2001. Nature 413, p. 142. 27 K. Aflatooni y H. Batelaan anunciaron haber observado una difracción libre de electrones por una onda de luz laser intensa y estacionaria. 27. Efecto Vavilov–Cherenkov (1934) En 1897,26 el fı́sico inglés Sir Joseph J. Larmor (1857–1942) demostró que una carga eléctrica acelerada irradia energı́a. En 1934, los fı́sicos rusos Pavel Alekseyevich Cherenkov (1904–1990, premio nobel de fı́sica en 1958) y Sergey Ivanovich Vavilov (1891–1951) en trabajos independientes publicados en Doklady Akademii Nauk USSR 2, p. 451, 457 y Figura 1. Radiación de Vavilov–Cherenkov. respectivamente intitulados Vidimoe Svechenie Chistich Zhsidkostei pod Deistviem γ–Izluchenija y O Vozmozhnich Prichinach Sinego γ–Svechenija Zhsidkostei, anunciaron que habı́an observado la emisión de luz azul en un recipiente con agua cuando era irradiado con una fuente de ondas de radio. En una serie de experimentos, Cherenkov mostró que la luz azul no era debida a fluorescencia, como se creı́a, sino a un nuevo tipo de radiación (fenómeno más tarde conocido como efecto Vavilov–Cherenkov) generada por partı́culas veloces y cargadas eléctricamente. En 1937,27 estableció las propiedades generales de este nuevo tipo de radiación; en 1937,28 los fı́sicos rusos Ilya Mikhailovic Frank (1908–1990, pre26 Larmos, J. J. 1897. Philosophical Magazine 44, p. 503. P. A. 1937. Physical Review 52, p. 378. 28 Frank, I. M. y Tamm, I. Y. 1937. Doklady Akademii Nauk USSR 14, p. 109. 27 Cherenkov, ContactoS 82, 23–32 (2011) 28 mio nobel de fı́sica en 1958) e Igor Evgenievich Tamm (1895–1971, premio nobel de fı́sica en 1958) desarrollaron la teorı́a clásica de esa radiación al mostrar que ocurre cuando una partı́cula cargada se mueve a través de un medio trasparente con una velocidad constante y mayor que la de la luz en ese medio. En 1940,29 el fı́sico ruso Vitaly Lazarevich Ginzburg (n. 1916, premio nobel de fı́sica en 2003) desarrolló la teorı́a cuántica de esa radiación. Es oportuno observar que este nuevo tipo de radiación se utiliza en la construcción de los llamados “detectores de Cherenkov” utilizados para medir la velocidad de las partı́culas cargadas. Como ya mencionamos, el efecto Vavilov–Cherenkov implica que una partı́cula cargada (p. ej. un electrón) pasa a través de un medio trasparente con ı́ndice de refracción n con una velocidad V mayor que la velocidad de la luz en el medio v= c n esto es: V 1 c ⇒ =β> n c n pierde una fracción de energı́a en forma de radiación de Vavilov–Cherenkov. Este proceso es análogo a la onda de choque producida por un barco o un avión cuando su velocidad es mayor, respectivamente, que la velocidad de las ondas de agua o que la velocidad del sonido en el aire. Ası́, la radiación de Cherenkov es emitida en un cono cuyo ángulo θ está dado por: V > cos θ = 1 βn 28. Efecto Pinch (Bennett: 1934; Tonks: 1939) En 1934, Willard H. Bennett publicó un artı́culo en Physical Review 45, p. 890, intitulado Magnetically Self–Focussing Streams, donde mostró que la descarga de una alta corriente a través de un plasma (esto es, un gas de partı́culas electrizadas) podrı́a empujarlo lateralmente. El mecanismo básico de ese fenómeno, conocido como efecto Pinch, es la interacción de la corriente con su propio campo magnético o, equivalentemente, la atracción entre alambres de corrientes paralelas. Este efecto fue anticipado por Lewi Tonks, en 1939, en el artı́culo Theory of Magnetic Effects in the Plasma of an Arc publicado en Physical Review 56, p. 369. Nótese que la inestabilidad inherente de este efecto fue mostrada por el 29 Ginzburg, V. L. 1940. Zhurnal Eksperimental´noi i Teoretiskoi Fiziki 10, p. 589 y Journal de Physics USSR 2, p. 441. fı́sico norteamericano Marshall N. Rosenblueth (n. 1927), en 1957. Terminamos este apartado precisando que el fı́sico ruso Igor Evgeneievich Tamm (1895–1971, premio nobel de fı́sica en 1958), en 1950, fue el primero en sugerir el uso del efecto Pinch para controlar un plasma con un campo magnético. 29. Efecto Uehling–Pasternack–Lamb (1935/1938/1947) En 192830 el fı́sico inglés Paul Adrien Maurice Dirac (1902–1984, premio nobel de fı́sica en 1933) formuló la teorı́a relativı́stica del electrón resumida en la hoy célebre ecuación de Dirac: (ih̄γ µ ∂µ − mc)Ψ = 0 donde γ µ es una matriz 4 × 4, una matriz de Dirac, ∂µ es un cuadrigradiente, Ψ es una matriz columna 4 × 1 o espinor de Dirac, m es la masa de reposo del electrón, y c es la velocidad de la luz en el vacı́o. Mediante la ecuación anterior se puede mostrar que la energı́a del electrón en el átomo de hidrógeno (H) está dada por:31 α2 3 α4 n Enj ≈ mc2 1 − 2 − 4 − 2n 2n 4 j + 12 1 (j = ℓ ± ) 2 donde e2 1 α= ≈ h̄c 137 es la constante de estructura fina, y n, ℓ, j representan, respectivamente, los números cuánticos principal, momento angular orbital y momento angular total. La ecuación anterior indica que los estados (nlj ) de energı́a de los electrones relativı́sticos en el átomo de H y con los mismos números cuánticos n y j son degenerados (tienen el mismo valor) como, por ejemplo, los estados 2s1/2 y 2p1/2 . Debe aclararse que para los espectroscopistas s corresponde a ℓ = 0 y p a ℓ = 1. La degeneración propuesta por la ecuación de Dirac comenzó a ser estudiada en la década de 1930. Para 1932,32 los fı́sicos norteamericanos Edwin Crawford Kemble (1889–1984) y Richard David Present (n. 1913) y, en 1935,33 el también fı́sico norteamericano Edwin Albrecht Uehling (1901–1985) calcularon que debı́a haber una pequeña diferencia entre los 30 Dirac, P. A. M. 1928. Proceedings of the Royal Society of London A117, p. 610. 31 Bassalo, J. M. F. 2004. Tópicos de Eletrodinâmica Quântica. Editora Livraria da Fı́sica, SP (en prensa). 32 Kemble, E. C. y Present, R. D. 1932. Physical Review 44, p. 1031. 33 Uehling, E. A. 1935. Physical Review 48, p. 55. Crónica de los efectos fı́sicos. Parte III. José M. Filardo Bassalo estados 2s1/2 y 2p1/2 . En sus investigaciones observaron que cuando una carga eléctrica Q0 > 0 se coloca en el vacı́o, su campo coulómbico produce pares virtuales de electrón–positrón y, por consiguiente, los electrones de ese par son atraı́dos por esa carga, en tanto que los positrones tienden al infinito. Ası́, una carga Q0 será disminuida parcialmente por las cargas de los electrones virtuales. Esta situación es análoga a la de una carga eléctrica que polariza el medio material en que se encuentra.34 El resultado es que los pares virtuales hacen que el vacı́o se comporte como “un medio polarizable” y, por tanto, la situación referida equivale a una “polarización del vacı́o”. En su trabajo Uehling observó que, en virtud de la disminución de una carga eléctrica en el vacı́o, los estados electrónico s del átomo de H tendrı́an mayor probabilidad de penetrar el núcleo de ese átomo y provocar un abatimiento en el nivel de energı́a de esos estados. De ese modo demostró que el estado 2s1/2 era 27 MHz menor que el estado 2p1/2 . Por esta razón, este resultado es conocido como efecto Uehling. En 1937,35 el fı́sico norteamericano William Houston (1900–1968) midió la diferencia entre esos estados usando espectroscopı́a óptica. Su medida fue confirmada por el también fı́sico norteamericano Robley C. Williams en 1938.36 Una nueva explicación teórica para el efecto Uehling fue formulada por el fı́sico norteamericano Simon Pasternack (1914–1976), en 1938.37 Según este fı́sico se debe a una repulsión de corto alcance entre el electrón y el protón, razón por lo que comenzó a nombrarse efecto Uehling–Pasternack. En 1939, Physical Review 56, p. 384 y en 1940 Physical Review 57, p. 458), el fı́sico norteamericano Willis Eugene Lamb Junior (1913– ; premio nobel de fı́sica en 1955) publicó que el efecto Uehling-Pasternack no podı́a ser explicado considerando el decaimento de un protón en neutrón seguido de un mesón positivo. Finalmente, en 1947,38 usando técnicas de microondas, Lamb y el fı́sico norteamericano Robert Curtis Retherford (1912–1981) confirmaron ese efecto al mostrar el paso de una microonda de frecuencia ν ≈ 1000MHz a través de átomos de H convertı́a al estado 2p1/2 al 2s1/2 . Desde entonces ese re34 Jackson, J. D. 1998. Classical Electrodynamics, 3rd Edition. John Wiley, New York. 35 Houston, W. 1937. Physical Review 51, p. 446. 36 Williams, R. C. 1938. Physical Review 54, p. 558. 37 Pasternack, S. 1938. Physical Review 54, p. 1113. 38 Lamb Junior, W. E. y Retherford, R. C. 1947. Physical Review 72, p. 241. 29 sultado es conocido como efecto Lamb o dislocamiento Lamb. 30. Efecto URCA (Gamow–Schenberg, 1941) En 1896,39 el fı́sico francés Antoine Henri Becquerel (1852–1908, premio nobel de fı́sica en 1903) descubrió que los cristales de uranilo (sulfato de potasio y uranio (KU SO4 ) eran capaces de emitir ciertos “rayos” hasta entonces desconocidos. Poco más tarde, en 1899,40 el fı́sico inglés Sir Ernest Rutherford (1871–1937), premio nobel de quı́mica en 1908, observó que esos rayos estaban constituidos de partı́culas cargadas positivamente (las denominó “partı́culas α”), y de otras cargadas negativamente (denominadas “partı́culas β”). En 1900, la fı́sica y quı́mica polaco–francesa Marie Sklodowska Curie (1867– 1934, premio nobel de fı́sica en 1903 y 1911) y su marido, el fı́sico francés Pierre Curie (1859–1906, premio nobel de fı́sica en 1903) y Becquerel, en trabajos independientes,41 demostraron que los rayos β eran electrones emitidos por un núcleo A que se transforma en otro núcleo B, proceso conocido a partir de entonces como decaimiento β. En 1914,42 el fı́sico inglés Sir James Chadwick (1891–1974, premio nobel de fı́sica en 1935) demostró que en ese proceso fı́sico las partı́culas β, esto es, los β–electrones poseı́an un espectro continuo de energı́a. Al comienzo de la década de 1920 se desató la polémica relacionada a la energı́a de las partı́culas β. Se deseaba saber si estaba determinada por las energı́as de los núcleos final e inicial o si variaba continuamente, según afirmaba Chadwick en 1914. Habı́a, además, una cuestión objetiva: si un electrón es emitido por núcleo A (padre) que se transforma en el núcleo B (hijo) y tiene energı́a menor que sus masas de reposo ¿dónde va la energı́a faltante? En 1924,43 los fı́sicos, el danés Niels Henrik David Bohr (1885–1963, premio nobel de fı́sica en 1922), el holandés Hendrik Anthony Kramers (1894–1952) y el inglés John Clarke Slater (1900– 1976), propusieron la idea de que el principio de conservación de la energı́a sólo es válido estadı́sticamente para fenómenos macroscópicos y era violado en procesos atómicos como el decaimiento β. Con todo, para superar esa dificultad, en diciem39 Becquerel, A. H. 1896. Comptes Rendus Hebdomadaires des Séances de l´Académie des Sciences (Paris) 112, p. 420. 40 Rutherford, E. 1899. Philosophical Magazine 47, p. 109. 41 Curie, M. y Curie, P. 1900. Comptes Rendus Hebdomadaires des Séances de l´Académie des Sciences (Paris) 130, p. 627; Becquerel, A. H. 1900. Comptes Rendus Hebdomadaires des Séances de l´Académie des Sciences (Paris) 130, p. 809. 42 Chadwick, J. 1914. Verhandlungen der Deutschen Physikalische Gesellschaft 16, p. 383. 43 Bohr, N., Kramers, H. A. y Slater, J. C. 1924. Philosophical Magazine 47, p. 785, y Zeitschrift für Physik 24, p. 69. ContactoS 82, 23–32 (2011) 30 bre de 1930, el fı́sico austro–norteamericano Wolfgang Pauli Junior (1900–1958, premio nobel de fı́sica en 1945) propuso, en la reunión del Group of Radiactivity of Tubingen, en una carta abierta a los fı́sicos, la sueco–austriaca Lise Meitner (1878–1968) y el alemán Hans Wilhelm Geiger (1882–1945), la existencia de una partı́cula neutra, de masa muy pequeña sin exceder 0.01 la masa del protón, que era emitida junto con el electrón por el núcleo radiactivo “padre”, cuya energı́a restauraba el principio de conservación. En 1934,44 el fı́sico italiano Enrico Fermi (1901– 1954, premio nobel de fı́sica en 1938) dio el nombre de neutrino (ν) a esa partı́cula. Formuló en esa ocasión la teorı́a de la interacción débil como responsable del decaimiento dado por: n → p + e− + ν Hoy se sabe que en ese decaimiento se halla un antineutrino electrónico (ν e ) en lugar de ν. En 1941, los fı́sicos, el ruso–norteamericano George Gamow (1904–1968) y el brasileño Mario Schenberg (1914–1990) publicaron un artı́culo en Physical Review 59, p. 539, con el tı́tulo Neutrino Theory of Stellar Colapse en el que presentaron el famoso mecanismo para explicar el colapso estelar: cuando el centro de una estrella alcanza una densidad muy alta comienza a capturar electrones y a perder neutrinos, ello provoca un enfriamiento y, en consecuencia, su colapso. El colapso estelar ya habı́a sido propuesto por el fı́sico norteamericano Julius Robert Oppenheimer (1904-1967) en 1939, en dos trabajos realizados con dos colaboradores; el primer artı́culo (Physical Review 55, p. 374) con el fı́sico ruso–norteamericano George Michael Volkoff (1914–2000) y el segundo (Physical Review 56, p. 455) con el fı́sico norteamericano Hartland Snyder (1913–1962). En esos trabajos afirmaron que cuando se agotaban todas las fuentes termonucleares de una estrella suficientemente masiva la contracción gravitacional continuarı́a indefinidamente hasta su colapso total. Es oportuno resaltar que esta “singularidad” ya habı́a sido anticipada por el astrónomo Karl Schwarzschild (1873– 1916), poco antes de su deceso, en Sitzungsberichte Preussische Akademie der Wissenschaften 1, p. 189; 424. La fuga de neutrinos, según explican Gamow y Schenberg, responde al mecanismo inverso de la desintegración β y ocurre en el interior de una estrella: un protón (p) se transforma en un neutrón (n) con emisión de un positrón (e+ ) y de un neutrino (ν), esto es: p → n + e+ + ν Según Gamow, la idea de incluir al neutrino como clave del colapso estelar fue de Schenberg. Este mecanismo fue conocido como efecto URCA. Acerca del porqué del nombre hay tres explicaciones. La primera remite a Ultra Rapide CAtastrophe. La segunda es pintoresca; de acuerdo a la conseja Gamow intentó homenajear a la patria de Schenberg donde el antiguo Cassino da Urca en Rı́o de Janeiro provocaba una gran pérdida de dinero (ası́ como de neutrinos en las estrellas). Se cuenta que la misma esposa de Gamow lo constató en ese casino en 1939 durante la visita de Gamow a Rı́o de Janeiro. La tercera explicación alude a la palabra “urca” empleada en Odessa (donde vivió algún tiempo Gamow) para bandido. 31. Efecto Casimir (1948) En 1947, los fı́sicos holandeses Henrik Brugt Gerhard Casimir (1909–2000) y Dirk Polder calcularon la energı́a de interacción entre átomos.45 Al considerar la velocidad finita de propagación del campo electromagnético demostraron que esa energı́a disminuı́a con el inverso de la sexta potencia de la distancia entre los átomos cuando eran muy próximos y con el inverso de la séptima potencia cuando se hallaban a grandes distancias. Cierto dı́a del otoño de 1947,46 Casimir mostró sus cálculos al fı́sico danés Niels Henrik David Bohr (1885–1962, premio nobel de fı́sica en 1922) quien le sugirió considerar en sus cálculos la energı́a del punto cero del vacı́o. De esta manera, Casimir preparó un nuevo trabajo para un coloquio por efectuar en Parı́s, en abril de 1948. Poco más tarde, el 29 de mayo de 1948, lo presentó en la Academia Real Holandesa de Artes y Ciencias. Ese artı́culo, intitulado On the attraction between two perfectly conducting plates publicado en Koninklijke Akademie von Wetenschappen te Amsterdam Proceedings B51, p. 793, Casimir afirmó: “Existe una fuerza atractiva entre dos placas metálicas independiente del material de las mismas a partir de una distancia comparable a longitudes de onda; la profundidad de penetración es pequeña comparada con la distancia. Esta fuerza puede interpretarse como una presión de punto cero de las ondas electromagnéticas. A pesar de lo pequeño del efecto, parece viable una confirmación experimental que, además, puede 45 Publicado en 1948, en Physical Review 73, p. 360. A., Farina, C. y Cougo Pinto, M. V. 1998. O efeito Casimir. Cadernos de Divulgação e Educação Cientı́fica 5. IFUFRJ. 46 Tort, 44 Fermi, E. 1934. Ricerca Scientifica 4, p. 491; Nuovo Cimento 11, p. 1; y Zeitschrift für Physik 88, p. 161. Crónica de los efectos fı́sicos. Parte III. José M. Filardo Bassalo ser de algún interés”. Según Casimir, la fuerza referida está dada por: F = −A π 2 h̄c 240a4 donde A es el área de cada placa, a la separación entre ellas, h̄ = h/(2π), con h igual a la constante de Planck, y c es la velocidad de la luz en el vacı́o. Para el caso de placas de un centı́metro cuadrado separadas una milésima de milı́metro Casimir calculó una fuerza de 0.013 dinas. Este efecto, conocido como efecto Casimir, fue comprobado experimentalmente por primera vez en 195847 por el fı́sico holandés Marcus J. Sparnaay usando dos espejos metálicos planos de aluminio y una balanza de resorte. La incertidumbre en la separación de las placas lo llevó a un nuevo experimento en 199748 hecho por Steve K. Lamoreaux, quien utilizó una esfera metálica de 4 cm de diámetro y una placa plana de cuarzo de 2.5 cm de espesor, ambos revestidos de cobre y oro, conectados a un péndulo de torsión. Cuando acercó la esfera y la placa a una distancia de algunas micras la fuerza de Casimir produjo una fuerza cuyo valor estaba dentro del 5 % de error respecto al valor teórico. Este exitoso resultado inspiró la realización de nuevos experimentos. Ası́, en 1998, Umar Mohideen y Anushree Roy (Physical Review Letters 81, p. 4549) usaron un microscopio de fuerza atómica para medir la “fuerza de Casimir” entre una esfera, revestida de aluminio de 196 micras de diámetro y una placa, recubierta del mismo metal; para separaciones de 0.1 a 0.9 micras hallaron valores dentro del 1 % del valor teórico. Hoy se explica este fenómeno con la noción de vacı́o cuántico; dos placas metálicas paralelas, eléctricamente neutras y con masas despreciables no tienen por qué atraerse, según la mecánica clásica. La atracción resulta de la falta de fotones virtuales que constituyen el vacı́o cuántico entre las placas; al ser éste suprimido por las placas lleva a una disminución de la energı́a de ese vacı́o y, en consecuencia, aparece una fuerza atractiva de acuerdo con el principio de mı́nima energı́a. Es oportuno resaltar que surgió la posibilidad de generalización a otras geometrı́as (placas esféricas y cilı́ndricas) y, también, otros campos cuánticos, por ejemplo fermiones masivos que confinan a los quarks y gluones dentro de los hadrones (mesones y bariones). En otros términos, el efecto Casimir ha de jugar un papel muy importante en las propiedades de los hadrones. 47 Sparnaay, M. J. 1958. Physica 34, p. 751. S. K. 1997. Physical Review Letters 78, p. 5. 48 Lamoreaux, 31 Otra generalización del efecto Casimir consiste en considerarlo como resultado de las fluctuaciones del vacı́o cuántico provocado por la geometrı́a del espacio usual R3 donde ocurren las fluctuaciones. Por otro lado, la teorı́a de cuerdas propone más de tres dimensiones espaciales pero éstas no son descritas por una recta sino por un cı́rculo o una curva resultante de la deformación continua de un cı́rculo. Hasta el presente (febrero de 2004) no se han hallado esas dimensiones en la Naturaleza. Si las hubiera, causarı́an modificaciones en el vacı́o cuántico y, por lo tanto, habrı́a también manifestaciones del efecto Casimir. Además de lo dicho, el efecto Casimir es importante para la verificación de la ley de gravitación newtoniana a distancias muy pequeñas (del orden de nanómetros y menores), ası́ como en los sistemas microelectromecánicos y las nanoestructuras donde sus componentes pueden unirse mediante la fuerza de Casimir. Se abre también la especulación acerca de la relación entre este efecto y la sonoluminiscencia observado por primera vez por el fı́sico norteamericano Seth J. Putterman. En esa ocasión, Putterman observó que un a burbuja de gas en el seno de un lı́quido expuesta a un campo sonoro se expande y contrae emitiendo pulsos de luz del orden de picosegundos (1 ps = 10−12 s). Al final de este artı́culo damos más referencias acerca de este interesante efecto. 32. Efecto isotópico (1950) En 1950, el fı́sico norteamericano Emanuel Maxwell (1912–2000) e, independientemente, los también fı́sicos norteamericanos C. A. Reynolds, Bernie Serin, W. H. Wright y L. B. Nesbitt publicaron dos artı́culos en Physical Review 78, p. 477 y p. 487 intitulados, respectivamente, Isotope Effect in the Superconductivity of Mercury y Superconductivity of Isotopes of Mercury. En esos trabajos anotan que la temperatura crı́tica (Tc ) de los superconductores varı́a en razón inversa de cierta potencia de su masa isotópica; tal observación es conocida hoy como efecto isotópico. En 1950, los fı́sicos, el alemán Herbert Frölich (1905– 1992) y el norteamericano John Bardeen (1908–1991, premio nobel de fı́sica en 1956 y 1972) propusieron en dos trabajos distintos49 una teorı́a para explicar ese efecto, según el cual un estado de superconducción era debido a la interacción de dos electrones y a la vibración de los átomos en el cristal, interacción conocida desde entonces como interacción electrón–fonón. En lı́neas generales, un electrón al desplazarse en una red cristalina de iones positivos será atraı́da por éstos provocando una vibración 49 Frölich, H. 1950. Physical Review 79, p. 845. Bardeen, J. 1950. Physical Review 80, p. 567. ContactoS 82, 23–32 (2011) 32 en la red. Frölich mostró que la temperatura Tc varı́a en razón inversa del cuadrado de la masa isotópica. Este resultado teórico fue confirmado experimentalmente por Reynolds, Serin y Nesbitt con isótopos de mercurio en 1951.50 33. Efecto Pomeranchuk (1950) En 1938,51 los fı́sicos, el germanonorteamericano Hans Albrecht Bethe (1906–, premio nobel de fı́sica en 1967) y el norteamericano Charles Louis Critchfield (1910–1994) sugirieron la existencia del isótopo de helio 3 (32 He) al presentar su famosa cadena protón–protón como generadora de energı́a en las estrellas de masa semejante a la del Sol en reacciones del tipo (notación actual): 1 1H 1 1H 3 2 He +11 H → +21 D → +32 He → 52 2 + 1 D + e + νe 3 2 He + γ 4 1 1 2 He +1 H +1 H 3 2 He En 1949, encontraron el al estudiar el decaimiento beta del tritio (31 H), esto es: 3 1H (n → → 3 2 He + e− + ν e p + e− + ν e ) Una vez obtenido este isótopo 32 He del helio, el fı́sico ruso Isaak Yakovlevich Pomeranchuk (1913–1966), en 1950, publicó un trabajo en Zhurnal Eksperimental´noi i Teoretiskoi Fiziki 20, p. 919, con el tı́tulo K Teorii Zhsidkogo He3 , donde propone obtener bajas temperaturas solidificando, por compresión adiabática, el estado lı́quido de este isótopo. Nótese que, en esas fechas, aún no se habı́a obtenido helio lı́quido. Según Pomeranchuk, el helio lı́quido, por poseer espı́n fraccionario en su núcleo compuesto de dos protones y un neutrón serı́a un lı́quido fermiónico degenerado cuya entropı́a dependerı́a linealmente de la temperatura. Este proceso de enfriamiento es, desde entonces, conocido como efecto Pomeranchuk o enfriamiento Pomeranchuk. En 1951, el fı́sico alemán Heinz London (1907–1970) presentó la idea de que podı́an obtenerse temperaturas estables, en la región de los milikelvin usando un nuevo tipo de enfriamiento (refrigerador de dilución) con mezclas de 3 He y 4 He. Más tarde, en 1956,53 el fı́sico ruso Lev Davidovich Landau (1908– 1968, premio nobel de fı́sica en 1962) formuló su famosa teorı́a del lı́quido cuántico de Fermi para explicar las propiedades del 3 He. Nótese que, entre esas 50 Reynolds, C. A., Serin, B. y Nesbitt, L. B. 1951. Physical Review 84, p. 691. 51 Bethe, H. y Critchfield, C. L. 1938. Physical Review 54, p. 248. 52 Grilly, E. R., Hammel, E. F. y Sydoriak, S. G. 1949. Physical Review 75, p. 1103. 53 Landau, L. D. 1956. Zhurnal Eksperimental´noi I Teoretiskoi Fiziki 30, p. 1058. propiedades, anticipó que en la vecindad del cero absoluto (0 K) se darı́a la propagación de una única onda, llamada por él de sonido cero. Destaquemos que el fı́sico norteamericano David Morris Lee (1931–, premio nobel de fı́sica en 1996), en 1965, comenzó a construir una cavidad de Pomeranchuk para conseguir temperaturas cada vez más bajas. Fue también en 1965 que el fı́sico ruso Yuri D. Anufiryev anunció en Journal of Experimental and Theoretical Physics (JETP) Letters 1, p. 155, que habı́a construido una cavidad de Pomeranchuk con la cual logró una temperatura del orden de 20 mK. Concluimos esta Crónica precisando que, con este efecto, Lee y los fı́sicos norteamericanos Robert Coleman Richardson (1931–, premio nobel de fı́sica en 1996) y Douglas D. Osheroff (1945–, premio nobel de fı́sica en 1996) descubrieron la superfluidez del 32 He en 1972,54 a una temperatura de 2.7 mK. Referencias acerca del efecto Casimir 1. Caruso Neto, F., Svaiter, B. F. y Svaiter, N. F. 1991. Physical Review D43, p. 1300 y Modern Physics Letters A6, p. 1855. 2. Cougo–Pinto, M. V., Farina, C. y Tenorio, A. 1999. Brazilian Journal of Physics 29, p. 371. 3. Bordag, M., Mohideen, U. y Mostepanenko, V. M. 2001. Physics Reports 353, p. 1. 4. Milton, K. A. 2001. The Casimir Effect: Physical Manifestations of Zero-point Energy. World Scientific, Singapore. 5. Lambrecht, A. 2002. http://physicsweb.org/article/world/15/9/6. 6. Alves, D. T., Barone, F. A., Farina, C. y Tort, A. C. 2003. Physical Review A67, p. 022103. cs 54 Osheroff, D. D., Richardson, R. C. y Lee, D. M. 1972. Physical Review Letters 28, p. 885. Crónica de los efectos fı́sicos. Parte IV* José Marı́a Filardo Bassalo, Fundación Minerva, Prof. retirado de la Universidad de Pará www.bassalo.com.br * Traducción por J. L. Córdova, Depto. de Quı́mica, UAM– Iztapalapa. joseluiscordovafrunz@gmail.com ContactoS 82, 33-46 (2011) 34 Resumen En esta cuarta Crónica mostraremos los efectos fı́sicos descubiertos en la segunda mitad del siglo XX: Mössbauer (1956/1958), Aharanov–Bohm (1959), Josephson (1962), Kondo (1964), Schadt–Helfrich (1971), Hawking (1974), Fulling–Davies–Unruh (1973/1975/1976), efecto Zenón cuántico (Misra y Sudarshan, 1977), Sı́sifo (Cohen–Tannoudji, 1986/1987), efecto de magneto resistencia extraordinaria (Solin, 1995) y efecto reloj (Mashhoon, 1993/1999). 34. Efecto Mössbauer (1956/1958) En 1956, el fı́sico alemán Rudolf Ludwig Mössbauer (1929–, premio nobel de fı́sica en 1961) realizó un experimento como parte de su tesis doctoral en la escuela ETH “Eidgenössisdal Techinsche Hochschule”de Munich, Alemania, cuando observó que un núcleo excitado fuertemente en una red cristalina se desexcita sin retroceder, esta energı́a era, más bien, distribuida a todos los núcleos de la red. En su experimento utilizó un emisor de radiación γ de iridio 191 Ir77 donde el primer estado excitado presentaba una energı́a de 0.129 MeV. También observó que el haz de radiación γ emitido presentaba un componente de onda casi invariable, esto es, de una parte en 109 . Este descubrimiento, hoy conocido como efecto Mössbauer, fue publicado en la Zeitschrift für Physik 151, p. 124, en 1958, con el tı́tulo Kernresonzflureszenz von Gammastrahlun in Ir 191. Una de las aplicaciones más notables de este efecto se relaciona con una de las comprobaciones de la Teorı́a de Gravitación Einsteniana (TGE) de 1915. En efecto, esta teorı́a anticipa que una lı́nea espectral emitida bajo el efecto de un campo gravitacional (p.ej. la superficie de una estrella densa) presenta una desviación hacia el lado de los componentes de onda más largos (corrimiento hacia el rojo). En 1959, los fı́sicos norteamericanos Robert V. Pound y Glen A. Rebka Junior de la Universidad de Harvard presentaron un proyecto para medir esta desviación usando el efecto que describimos. Más tarde, en 1960, anunciaron haber medido el corrimiento gravitacional hacia el rojo ∆νG ν con el siguiente experimento: permitieron que una radiación γ de 14.4 keV emitido por un núcleo de hierro 57 F e26 por efecto Mössbauer cayese de una altura de 22.6 m, y midieron la frecuencia de absorción por un blanco de hierro. De esta manera encontraron ∆νG = (2.57 ± 0.26) × 10−15 ν en excelente acuerdo con el valor predicho por la TGE: 2.46 × 10−15 35. Efecto Aharonov–Bohm, (1959) ~ fueLas primeras ideas acerca del vector potencial A ron presentadas por el fı́sico alemán Franz Ernst Neumann (1798–1895) entre 1845 y 1847 cuando analizó el fenómeno de la inducción magnética en un circuito producida por el movimiento relativo de los magnetos respecto a los circuitos próximos. La idea de la existencia de ese potencial también fue analizada por los fı́sicos alemanes Wilhelm Eduard Weber (1804–1891) en 1848, y Gustav Robert Kirchhoff (1824–1887) en 1857. Si bien estos fı́sicos presentaron diversas expresio~ fue el fı́sico y manes analı́ticas para representar A temático escocés James Clerk Maxwell (1831–1879) quien lo conceptualizó. Veamos a continuación cómo lo logró. Entre 1861 y 1862, Maxwell comenzó a estudiar las lı́neas de fuerza de Faraday y, en general, los fenómenos electromagnéticos. Más tarde, en 1865, demostró que una perturbación electromagnética en un medio uniforme (para Maxwell el “eter”) se propaga como si fuese una onda cuya velocidad es la conocidad velocidad de la luz: 300,000 km/s. De esta suerte concluyó que la luz es una onda electromagnética. Maxwell prosiguió sus estudios acerca de los fenómenos electromagnéticos y ópticos, cuyos resultados fueron presentados en su famoso libro “Tratado de electricidad y magnetismo” publicado en 1873. En este libro Maxwell presenta sus célebres cuatro ecuaciones diferenciales, conocidas hoy como ecuaciones de Maxwell que expresan las leyes experimentales hasta entonces conocidas. Examinemos la segunda de ellas, la relacionada con el vector potencial; ésta describe el hecho experimental de que las ~ son cerralı́neas de fuerza del vector inducción B das, esto es, en notación actual: ~ =0 ∇·B Esta condición, conocido como solenoidal, llevó a Maxwell a considerar el concepto de vector poten~ En efecto, en 1871, cial A (en notación actual A). Maxwell demostró que la “convergencia”(hoy, divergencia ∇·) de la “rotación” (hoy, rotacional ∇×) de una función vectorial dada (F~ ) era nula, esto es: ∇ · (∇ × F~ ) = 0 Ası́, al aplicar ese resultado a su segunda ecuación, concluyó que (en notación actual): ~ =0→B ~ =∇×A ~ ∇·B Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo ~ Otros fı́sicos habı́an trabajado formalmente con A, por ejemplo, los fı́sicos Ludwig Valentin Lorenz, danés (1829–1891), en 1863. y Hendrik Antoon Lorentz, holandés (1853–1928, premio nobel de fı́sica en 1902), en 1895; sin embargo, no existı́a una interpretación fı́sica de este concepto. Fue el fı́sico inglés Paul Adrien Maurice Dirac (1902–1984, premio nobel de fı́sica en 1933) quien, en 1931, logró vislum~ al hacer predicciones brar la importancia fı́sica de A de los monopolos magnéticos a partir de la Mecánica Cuántica. Solamente en 1959 los fı́sicos, el israelı́ Yaki Aharanov y el norteamericano David Joseph Bohm (1917– 1992) mostraron claramente la importancia fı́sica de ~ mediante un fenómeno cuántico de interferencia A denominado efecto Aharanov–Bohm. En su artı́culo publicado en Physical Review 115, p. 485 titulado Significance of Electromagnetic Potentials in the Quantum Theory mostraron que el patrón de interferencia resultante de la difracción de un haz de electrones que atraviesa un obstáculo con dos rendijas (experimento tipo Young) puede ser desplazado por un campo magnético entre las aberturas y después de éstas; de este modo el campo es nulo en la trayectoria del haz de electrones después de la difracción producida por las rendijas. Según estos fı́sicos, se logra lo anterior con un largo solenoide de dimensiones transversales microscópicas. Ası́, una corriente estacionaria en el solenoide genera un flujo φ dado por: Z I ~ ~ · ~ℓ φ = B · d~s = A (1) donde C es cualquier circuito que contiene a un solenoide. Sin embargo, el cambo de inducción magnéti~ fuera del solenoide es nulo, y el vector potenca B ~ que satisface la expresión anterior debe percial A manecer finito en algún lugar a lo largo del circuito C. Es oportuno anotar que la expresión 1 es un invariante “gauge”(calibre), pues la integral de lı́nea ~ no se altera cuando se usa la sique incluye a A guiente transformación: ~′ = A ~ + ∇ψ A donde ψ es una función escalar. Este experimento propuesto por Aharonov y Bohm ~ es nulo y, por tanto, muestra que, si bien el campo B también es nula la parte magnética de la fuerza de Lorentz F~L correspondiente, esto es q ~ F~L = ~v × B c a lo largo de la trayectoria del haz de electrones ~ implica de carga q y velocidad ~v el potencial A 35 un significado cuántico especial que trasciende su “papel clásico” como mero artificio matemático para el cálculo de ese potencial, conforme consideró Maxwell. Obsérvese que este experimento fue rea- Figura 1. Efecto Aharonov–Bohm. lizado por R. G. Chambers en 1960 usando “whiskers”, esto es, cristales de hierro que crecen en forma de filamentos microscópicos que, cuando son magnetizados, se comportan como solenoides. Estos resultados experimentales motivaron muchos estudios teóricos a fin de explicarlos. Ası́, en 1960, los fı́sicos norteamericanos Wendell Hinkle Furry (1907– 1984) y Norman Foster Ramsey (1915–, premio nobel de fı́sica en 1989) analizaron el efecto EA–B con base en el principio de complementariedad y concluyeron que es de origen puramente cuántico. En 1962, P. D. Noerdilinger introdujo un nuevo aspecto para la comprensión del EA–B. En efecto, con~ es nulo en la región del siderando que el campo B haz de electrones, éstos sólo pueden interactuar con ese campo si se considera una teorı́a no local. Antes de proseguir es oportuna una breve discusión sobre las teorı́as locales y no locales. La localidad o separabilidad de una teorı́a dada significa que una acción realizada en un cierto punto no tiene efecto instantáneo en sistemas separados, o sea, que toda las interacciones entre los objetos materiales que se hacen sentir en el espacio tiempo son mediadas por señales locales que viajan a través del espacio y, por tanto, son limitadas por la velocidad de la luz en el vacı́o (c = 300, 000 km/s) según la relatividad restringida einsteiniana. Los siguientes son algunos ejemplos tı́picos de teorı́as locales, esto es, que incluyen solamente interacciones locales: 36 1. La Teorı́a Cuántica No Relativista expresada en la ecuación de Schrödinger con la interpretación borniana de función de onda ψ(~r, t) 2. La Teorı́a Relativista del electrón expresada por la ecuación de Dirac, 3. La teorı́a cuántica de campos Por otro lado, la no localidad o inseparabilidad significa que una acción realizada en un cierto lugar tiene efecto instantáneo, sin señal local, en sistemas separados; por eso la no localidad se interpreta como una “acción a distancia”. Hay dos ejemplos tı́picos de teorı́as no locales. Una clásica, la Teorı́a de Gravitación Newtoniana expresada en la ecuación de Newton; y la cuántica, la Mecánica Cuántica Bohmiana, expresada en la ecuación de Bohm. Regresemos, pues al EA–B. En 1962, el fı́sico norteamericano Bryce S. DeWitt (1923–) desarrolló una formulación no local de la Electrodinámica Cuántica que depende sólo de los campos electromagnéticos y, con ella, concluyó que era falsa la interpretación fı́si~ propuesta por EA–B. Esca del vector potencial A te resultado fue inmediatamente rebatido por Aharonov y Bohm, en 1962 y 1963, y por F. J. Belinfante, en 1962. Este fı́sico norteamericano mostró que la función de onda utilizada por DeWitt, considerada como invariante “gauge”, dependı́a realmente del camino de integración. Más tarde, en 1965, Feynman, Leighton y Sands mostraron que el EA–B podrı́a explicarse por una teorı́a no local considerando que el campo de induc~ actúa “a distancia” sobre el electrón que circión B cula fuera del solenoide. Ésta es una explicación semejante a la dada por la gravitación newtoniana cuando un cambio infinitesimal del Sol se refleja “instantáneamente” sobre la Tierra. La discusión sobre la interpretación fı́sica del EA–B prosiguió entonces con la participación de los fı́sicos norteamericanos (de origen chino) Tai Tsu Wu (1933– ) y Chen Ning Yang (1922–, premio nobel de fı́sica en 1957). Ası́, en 1957, introdujeron otra enti~ ni A ~ sino un factor de fadad fı́sica que no es ni B se no integrable, representado por un número complejo y que lleva información topológica de cada camino C considerado en la expresión 1. De este modo mostraron que la Electrodinámica es un invariante de “gauge” de ese factor y que, por tanto, el EA–B es de naturaleza topológica. Con todo, estos resultados han sido objeto de discusión por parte de P. Bocchiere y A. Loinger que, en una serie de artı́culos publicados entre 1978 y 1981, ContactoS 82, 33-46 (2011) criticaron el resultado fundamental de Aharonov– Bohm como es el de que “el electromagnetismo no está completamente descrito por los campos eléctrico y magnético sino por los potenciales electromagnéticos”. Para Bocchieri y Loinger la selección adecuada de un vector potencial para una transformación de “gauge” anuları́a el EA–B. Ahora bien, como ese potencial no obedece al teorema de Stokes la discusión sobre ese efecto continua, principalmente por la presentación de una nueva evidencia experimental de este efecto. Se dió en 1982 y se confirmó en 1986 en las investigaciones de los fı́sicos japoneses dirigidos por Akira Tonomura donde se usó holografı́a electrónica. Este resultado experimental llevó al propio Bohm, con la colaboración de C. Philippidis y R. D. Kaye, en 1982, a explicarlo usando el potencial cuántico bohmiano (VQ ). En la década de 1990 las nuevas investigaciones (experimentales y teóricas) han mostrado que EA–B puede explicarse sin usar el vector potencial. Por ejemplo, en 1992, B. E. Allman, A. Cimmino, A. G. Klein, G. I. Opat, H. Kaiser y S. A. Wermer realizaron un experimento sobre el efecto escalar del EA–B incluyendo neutrones, observaron que el campo electromagnético interactúa con el momento magnético del neutrón. Por otro lado, en 1996 y 1997, los fı́sicos brasileños Marcelo Octavio Caminha Gómez (1941– ), Horacio Oscar Girotti (1939– ), Jorge Mario Carvalho Mabouisson (1959– ) y Adilson José da Silva (1947– ) estudiaron el EA–B para partı́culas de spin 1/2, utilizando la teorı́a de campos que es una teorı́a local, conforme discutimos. Es oportuno decir que, en 1993, Boh, y B. J. Hiley reunieron en un libro los trabajos que realizaron en la década de 1980 sobre el carácter no local de la Mecánica Cuántica. 36. Efecto Josephson (1962) En 1911, el fı́sico holandés Heike Kamerlingh Onnes (1853–1923, premio nobel de fı́sica en 1913) descubrió el fenómeno de la superconductividad. En 1928, los fı́sicos, el ruso–norteamericano George Gamow (1904–1968), el norteamericano Edward Uhler Condon (1902–1974)y el inglés Ronald Wilfrid Gurney (1898–1953), y el alemán Lothar Wolfgang Nordheim (1899–1985) en trabajos distintos, descubrieron el efecto túnel, esto es, la capacidad de una partı́cula de vencer una barrera de potencial con una energı́a menor de la que tiene la altura de esa barrera. En 1957, el fı́sico japonés Leo Esaki (1925– , premio nobel de fı́sica en 1973) comenzó a estudiar el efecto túnel en un diodo de unión p − n de germanio Ge. De este modo, utilizando una unión muy estrecha, cerca de 100 angstroms, y dopada con una alta dósis de impureza, Esaki observó que ese diodo presentaba una polaridad opuesta a la de un dio- Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo 37 do normal y, por tanto, habı́a una región de “resistencia negativa”. Es oportuno aclarar que esta resistencia es “dinámica”; con todo, en esa misma región la resistencia “estática” es positiva. Este descubrimiento fue conocido como el diodo Esaki y se anunció en 1958. Conociendo el trabajo de Esaki, el fı́sico noruego–norteamericano Ivar Giaever (1929– , premio nobel de fı́sica en 1973) procuró hacer un maridaje entre el tunelamiento y la superconductividad. Ası́, en 1960, observó un tunelamiento de electrones en la unión entre un conductor y un superconductor. 37. Efecto Kondo (1964) De forma general, la resistencia eléctrica (ρ) de muchos metales, a la temperatura ambiente (300 K)está dominada por la colisión de electrones de conducción con los fonones (vibraciones térmicas) de una red; a bajas temperaturas (p.ej. la del helio lı́quido, aproximadamente 4 K) está dominada por las colisiones con átomos de impureza e imperfecciones mecánicas en la red. De este modo, la resistencia del metal que contiene átomos de impureza está dada por: En 1962, cuando hacı́a su trabajo de doctorado en la Universidad de Cambridge, Inglaterra, con uniones de superconductores, el fı́sico inglés Brian David Josephson (1940– , premio nobel de fı́sica en 1973) observó que además del tunelamiento de electrones observado por Giaever habı́a también un tunelamiento de pares de Cooper. Obsérvese que, en 1956, el fı́sico norteamericano Leon Neil Cooper (1930– , premio nobel de fı́sica en 1972) mostró que un electrón en las proximidades de un ion positivo de un cristal superconductor interactúa con ese ion, teniendo, por tanto, la vibración de la red cristalina y la consiguiente emisión de un fonón. De este modo, si pasa un segundo electrón por el mismo ion, absorberá ese fonón, modificando sus momentos lineares y los dos electrones caminarán juntos en el menor estado posible de energı́a, esto es lo que constituye el famoso par de Cooper. ρ = ρL + ρi La observación de Josephson lo indujo a predecir dos nuevas clases de fenómenos fı́sicos cuando una fina pelı́cula aislante se coloca entre dos superconductores. El primero de esos fenómenos es el paso de una supercorriente a través de la unión en ausencia de voltaje, es el efecto Josephson DC. El segundo es la aparición de corrientes oscilatorias de radiofrecuencia cunado un voltaje AC se aplica a través de la unión, éste es el efecto Josephson AC. Estas predicciones fueron anunciadas por Josephson en Physics Letters 1 p. 251 con el tı́tulo Possible New Effects in Superconductive Tunneling en 1962. Y fueron confirmadas experimentalmente en 1963 por los fı́sicos norteamericanos Philip Warren Anderson (1923– , premio nobel de fı́sica en 1977) y J. M. Rowell (efecto Josephson DC) y S. Shapiro (efecto Josephson AC). Posteriormente, en 1964, los también fı́sicos norteamericanos R. C. Jaklevic, J. Lambe, A. H. Silver y J. E. Mercerau mostraron que existen efectos cuánticos de interferencia y de difracción con superconductores; estos efectos fueron importantes en el desarrollo de los SQUID (Dispositivos superconductores de interferencias cuánticas). donde ρL es la resistencia causada por el movimiento térmico de la red cristalina y ρi es la causada por la dispersión de electrones por los átomos de impureza que distorsionan la periodicidad de la red. Si la concentración de impurezas de átomos es baja, ρ es independiente de la temperatura. A su vez ρL → 0 cuando T → 0 En 1950, D. K. C. MacDonald y K. Mendelssohn observaron un valor mı́nimo para la resistencia eléctrica (ρ) de varios elementos quı́micos, como por ejemplo, el magnesio (Mg) y del sodio (Na) a temperaturas de 5 K y 20 K respectivamente. Más tarde, en 1962, el mismo MacDonald, ahora con la colaboración de W. B. Pearson y M. I. Templeton, observó un aumento de la resistencia eléctrica a bajas temperaturas de aleaciones diluı́das de un ion magnético (impureza) en oro (Au) o en hierro (Fe). En 1964, el fı́sico japonés Jun Kondo publicó un artı́culo en Progress in Theoretical Physics 32, p. 37, intitulado Resistance Minimum in Dilute Magnetic Alloys en el cual presentó la explicación teórica entre el electrón de conducción y el ion magnético. Ası́, de acuerdo con Kondo, el ion de impureza no actua simplemente como un centro constante de dispersión sino, más bien, hay un acoplamiento antiferromagnético heisenbergiano de los momentos locales (J)de la impureza con los espines de los electrones de conducción. De esta manera, mostró que cuando disminuye la temperatura el acoplamiento crece logarı́tmicamente y, por tanto, impide el flujo de la corriente eléctrica. Nótese que la divergencia logarı́tmica fue el primero y, quizás, más simple ejemplo de la “libertad asintótica” en fı́sica. El mismo principio de la famosa teorı́a de Yang–Mills de 1954. Esta divergencia ocurre en la llamada temperatura Kondo EF EF TK ≈ exp − kB |J| donde EF es la energı́a de Fermi y kB es la constante de Boltzmann. Esa explicación fue conocida como efecto Kondo. 38 Es oportuno observar que, en 1988, Tai–Kai Ng y Patrick A. Lee e, independientemente, Leonid I. Glazman y Mikhail E. Raikh anticiparon la existencia del efecto Kondo en puntos cuánticos en los cuales los electrones son confinados en nanoestructuras semiconductoras; como los estados electrónicos de estos puntos parecen átomos naturales, son llamados algunas veces “átomos artificiales”. Al comienzo de la década de 1990, los nuevos trabajos teóricos fueron realizados sobre esa predicción con una de las primeras observaciones experimentales registradas por Daniel C. Ralph y Robert A. Buhrman, en 1994. En 2000, W. G. van der Wiel, S. De Franceschi, T. Fujisawa, J. M. Elzerman, S. Tarucha y L. P. Kouwenhoven y Elzerman, De Franceschi, D. Goldhaber–Gordon, van der Wiel y Kouwenhoven observaron el efecto Kondo en los puntos cuánticos semiconductores. Cerca del año 2000, Satoshi Sasaki, De Franceschi, Elzerman, van der Wiel, M. Eto, Tarucha y Kuwenhoven observaron una anomalı́a en el efecto Kondo pues, hasta entonces, tal efecto se consideraba ocurrı́a sólo en puntos cuánticos con un número impar de electrones (spin total = 1/2). En ese trabajo, observaron que el efecto ocurrı́a en puntos con número par de electrones (spin total = 0). Los mismos investigadores han realizado nuevos trabajos experimentales sobre el efecto Kondo en puntos cuánticos. 38. Efecto Schadt–Helfrich (1971) Sabemos que, de un modo general, la materia se presenta en tres estados: sólido, que tienen forma y volumen definido; lı́quido, que tiene volumen definido; y gaseoso, de volumen y forma indefinidos. Sabemos, también que en los sólidos sus átomos están próximos unos a otros y forman un conjunto rı́gido. Éstos son, frecuentemente, anisotrópicos, pues sus propiedades varı́an conforme la dirección según la cual se miden. En los lı́quidos, las moléculas no están fijas sino en constante movimiento debido a la agitación térmica. Pueden ser deformados con facilidad con fuerzas pequeñas y son isotrópicos ya que sus propiedades no varı́an, cualquiera que sea la dirección de medición. Para terminar, los gases son también desordenados, pero sus moléculas están mucho más alejados unas de otras que en los lı́quidos. La clasificación anterior es, obviamente, bastante resumida. Existen numerosos estados intermedios entre sólidos y lı́quidos. Por ejemplo, los cristales son sólidos que presentan una forma poliédrica regular, esto es, presentan un orden de largo alcance en sus redes. Los sólidos amorfos son no cristalinos y apenas presentan un orden de corto alcance en sus redes. En 1922, el fı́sico francés Georges Friedel (1865– 1933) estudió estos dos tipos de sólidos y nombró me- ContactoS 82, 33-46 (2011) somórfico al estado de la materia intermedio entre ellos. Es más, hizo una división adicional: los nemáticos cuyas moléculas alargadas forman haces paralelos en una misma dirección espacial pero cuya posición relativa no es fija; lo que les confiere cierta anisotropı́a y baja viscosidad; y los esmécticos en los cuales las moléculas están dispuestas en capas y el conjunto se muestra como una masa hojaldrada. Dentro de cada hoja las moléculas están paralelas entre sı́ formando un lı́quido bidimensional, pero guardan la libertad de desplazarse bajo la influencia de la agitación térmica. El nombre esméctico proviene del griego “sméktikos”, que significa jabón. Hoy, estos dos estados mesomórficos, son conocidos como cristales lı́quidos. En 1971, los fı́sicos alemanes Martin Schadt y Wolfgang Helfrich (1932– ) publicaron un artı́culo en Applied Physics Letters 18, p. 127, intitulado Voltage– Dependent Optical Activity of a Twisted Nematic Liquid Crystal, donde anunciaron el descubrimiento de que los cristles nemáticos tienen la propiedad de orientarse en una misma dirección cuando están bajo la acción de un campo eléctrico y de propagar la luz polarizada sin girar su plano de polarización, giro que ocurre cuando no hay campo eléctrico. Este descubrimiento, conocido actualmente como efecto Schad–Helfrich fue la base de desarrollo de las pantallas de cristal lı́quido, los famosos LCD (Liquid Cristal Display) en 1979, por T. Beica, S. Frunza, M. Giurgea, L. Matei, T. Serban y M. Voda. 39. Efecto Hawking (1974) El 27 de noviembre de 1783 el geólogo y filósofo natural inglés John Michell (1724–1793) discutió en la Royal Society of London la posibilidad de la existencia de estrellas suficientemente compactas que fueran oscuras. En 1795, el matemático y astrónomo francés Pierre Simon Marqués de Laplace (1749–1827) en su célebre tratado intitulado Exposición del Sistema del Mundo volvió a plantear esa posibilidad utilizando la mecánica celeste newtoniana. En 1915, Einstein formuló la Teorı́a General de la Relatividad y, al aplicarla al problema de la atracción gravitacional de los cuerpos llegó a la conclusión de que esta atracción resultaba de la curvatura del espacio–tiempo provocada por la presencia de la energı́a–materia que induce en el espacio–tiempo una geometrı́a no euclideana. Este resultado es presentado en la famosa ecuación de Einstein: Gµν = 8πG Tµν c4 donde Gµν es el tensor de curvatura de Einstein, Tµν es el tensor momento–energı́a, G es la constante gravitacional de Newton–Cavendish y c es la velocidad de la luz en el vacı́o. Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo En 1916, el astrónomo alemán Karl Schwarzschild (1873–1916) encontró una solución para la ecuación de Einstein que presentaba una célebre divergencia conocida como radio de Schwarzschild dado por: r= 2M G c2 donde M es la masa de una partı́cula puntual. Obsérvese que esa solución fue conocida como métrica de Schwarzschild. Más tarde, en 1937 y 1939, el fı́sico norteamericano Julius Robert Oppenheimer (1904–1964) en colaboración de los también fı́sicos norteamericanos Robert Serber (1909–1907), Hartland Snyder (1913–1962) y George Michael Volkoff (1914–2000) (de origen ruso) mostraron que cuando se agotan todas las fuentes termonucleares de energı́a de una estrella suficientemente pesada, se producirá una contracción gravitacional indefinidamente hasta su colapso total. Como ese colapso gravitacional se relaciona con el radio de Schwarzschild pasó a ser conocido como singularidad de Schwarzschild. En mayo de 1952, el fı́sico norteamericano John Archibald Wheeler (1911– ) se preparaba para enseñar la teorı́a de la Relatividad en el Departamento de Fı́sica de la Universidad de Princeton para el año lectivo 1953–1954. Allı́ comenzó a desarrollar la idea del geon (g de “gravitación”, e de “electromagnetismo” y on de la raı́z griega “partı́cula”), una “partı́cula” hecha de luz que podrı́a generar un campo gravitacional. Ası́, la luz, representaba un campo gravitacional formado completamente por el campo electromagnético, es decir, una entidad “masiva sin masa”. A continuación especuló acerca de la posibilidad de un fenómeno cuántico que pudiese modificar la naturaleza del geon y, en consecuencia, irradiarı́a energı́a. Posteriormente, Wheeler consideró que esa entidad podrı́a ser un estado de transición entre la “onda gravitacional einsteiniana” y el colapso gravitacional oppenheimeriano”. En agosto de 1967, la astrónoma irlandesa Susan Jocelyn Bell Burnell (1943– ), siendo estudiante del astrónomo inglés Antony Hewish (1924– , premio nobel de fı́sica en 1974) descubrió un objeto celeste en la nebulosa de Cangrejo que emitı́a vibraciones regulares de ondas de radio con un periodo de 1.337 s y que, jocosamente, llamó LGM (“Little Green Man”). En otoño del mismo año el fı́sico italiano Vittorio Canuto, entonces jefe administrativo del Goddard Institute for Space Studies de la National Aeronautics and Space Administration (NASA) con sede en Nueva York, invitó a Wheeler para una conferencia acerca de la posible interpretación de ese descubrimiento. En un cierto instante de la exposición, en la cual argumentaba sobre la posibilidad de que el centro 39 de tales objetos fuera un “objeto colapsado completamente por la gravedad” alguien del público sugirió un nombre más breve “¿Qué tal agujero negro?” Como Wheeler buscaba desesperadamente un nombre compacto para describir aquella situación fı́sica aceptó la sugerencia y la adoptó oficialmente en 29 de diciembre de 1967 en la conferencia realizada en la Sociedad Sigma X–Phi Beta Kappa también situada en Nueva York. En la literatura cientı́fica el nombre black hole (agujero negro) apareció en los artı́clos que Wheeler publicó en American Scholar 37 p. 248 y en American Scientist 56 p. 1, ambos en 1968. Antes de que esos objetos “colapsados por la gravedad” recibieran la denominación de agujeros negros, fueron motivo de investigación por parte de varios fı́sicos. Por ejemplo, en 1963, el matemático neozelandés Roy Patrick Kerr (1934– ) encontró un conjunto de soluciones de las ecuaciones de Einstein que representaban objetos colapsados en rotación (que poseı́an momento angular), sin carga, esas soluciones describı́an la métrica del espacio–tiempo en los alrededores de esos objetos. Obsérvese que la métrica de Kerr representa una generalización de la métrica de Schwarzschild. Más tarde, en 1964, los fı́sicos, el ruso Yakov Borisovich Zel’dovich (1914–1987) y el austronorteamericano Edwin Ernest Salpeter (1924– ), en trabajos independientes, mostraron que la acreción de materia en torno de esos objetos colapsados es una gran fuente de energı́a. En 1967, el fı́sico alemán canadiense Werner Israel encontró en las ecuaciones de Einstein una solución que indica que un objeto colapsado estático debe ser esférico. En 1969, el fı́sico inglés Roger Penrose (1931– ) encontró objetos colapsados kerrianos dentro de un horizonte de eventos a la vez que mostró que existe una región en torno de un agujero negro, conocida como ergosfera donde todo objeto que entre podrá sufrir dos efectos: o desaparecerá en su interior, o será rechazado con una energı́a mayor de la original. En 1970, el fı́sico griego Demetrios Christodoulou confirmó el proceso (o mecanismo) de Penrose mostrando cómo un agujero negro descargado y girante pierde parte de su masa. También en 1970, Wheeler y el fı́sico italiano Remo Ruffini presentaron la conjetura de que el agujero negro es un objeto extremadamente simple visto desde fuera ya que sólo puede influir en los objetos de su alrededor mediante su masa, carga y spin, y nada más. Esta conjetura fue demostrada en la década de 1970 y se conoció como el famoso teorema: “Un agujero negro no tiene cabello” según propuso Wheeler. ContactoS 82, 33-46 (2011) 40 A partir de esa década se obtuvieron nuevos e importantes resultados acerca de los agujeros negros. Ası́, en 1971, el astrofı́sico inglés Stephen William Hawking (1942– ) publicó dos trabajos donde demuestra que cualquier agujero negro kerriano tiene siempre un eje de simetrı́a y que la colisión de agujeros negros provoca emisión de radiación gravitacional. Ese mismo año de 1971, Zel’dovich mostró que un agujero negro kerriano podrı́a emitir bosones (partı́culas de spin entero) espontáneamente. En 1972, el fı́sico israelı́ Jacob D. Bekenstein (de origen mexicano) sugirió que el área del horizonte de eventos de un agujero negro serı́a una medida de la entropı́a de ese cuerpo celeste. Con todo, en 1973, James A. Bardeen, Brandon Carter y Hawking mostraron que, si un agujero negro tuviese entropı́a deberı́a poseer también una temperatura y, en consecuencia, por las leyes de la termodinámica, deberı́a irradiar lo que contradecı́a el propio concepto de ese objeto cósmico. De ese modo concluyeron que la entropı́a de un agujero negro es infinita. Como Zel’dovich demostró en 1971 los agujeros negros kerrianos podrı́an emitir bosones espontáneamente, conforme dijimos antes, él y el fı́sico ruso Aleksander Starobinsky sugirieron a Hawking, en septiembre de 1973, que esa emisión espontánea correspondı́a al principio de incertidumbre heisenbergiano básico de la mecánica cuántica. De este modo, procurando una relación entre la teorı́a de la relatividad general y la mecánica cuántica, en 1974, Hwaking publicó un artı́culo en Nature 248, p. 30, intitulado Black Hole Explosions? donde presentó la idea de que los agujeros negros podrı́an generar y emitir partı́culas tales como los neutrinos o fotones a una temperatura TH (temperatura de Hawking) expresada en kelvin (K) dada por: TH = h̄κ 2πckB (2) donde κ es la gravedad superficial del horizonte de eventos, kB es la constante de Boltzmann y h̄ es la constante de Planck (h) dividida por 2π. La emisión de partı́culas por parte de un agujero negro, hoy conocida como efecto Hawking o radiación de Hawking, fue una idea completada por él mismo en 1975, en un trabajo donde dedujo la célebre fórmula de entropı́a de un agujero negro SAN que, caso de simetrı́a esférica, es: kB G SAN = 4πM 2 (3) h̄c hoy conocida como fórmula de Bekenstein–Hawking. Nótese que esta fórmula muestra claramente que la entropı́a por unidad de masa SAN /M es proporcional a la masa M del agujero negro, lo que confirma la propuesta de 1974 de Hawking acerca de que un agujero negro puede irradiar. En este punto es oportuno presentar brevemente la polémica dada entre los fı́sicos acerca de la radiación de Hawking. Ésta, según Hawking, resulta de la siguiente hipótesis heurı́stica: según la mecánica cuántica (teorı́a cuántica de campos), se generan constantemente pares de partı́culas–antipartı́culas virtuales e inmediatamente aniquilados en el vacı́o. Con todo, cerca del horizonte de eventos de un agujero negro, debido a la atracción gravitacional, una de las partı́culas del par puede ser capturada por el agujero negro en tanto que la otra escapa como radiación. De aquı́, para Hawking, esa radiación ocurre aleatoriamente y es incapaz de llevar información. En 1996, Andrew Strominger y Cumrun Vafa publicaron un artı́culos donde, usando la teorı́a de cuerdas, estudiaron el origen microscópico de la expresión 3 considerando que los agujeros negros son cuerpos complejos, hechos de estructuras multidimensionales llamadas de p–branas. Ası́, según estos fı́sicos, la información que hay dentro del agujero negro está almacenada en ondas en aquellas estructura y puede acabar filtrándose. En 1997, Hawking y los fı́sicos norteamericanos John P. Preskill y Kip S. Thorne (1940– ) hicieron una apuesta. En tanto que Hawking y Thorne sostenı́an que toda la información de lo que cayese en un agujero negro estaba irremediablemente perdida, Preskill sostenı́a que algún mecanismo de la naturaleza permitirı́a recuperarla. La posición de Preskill también era defendida por los fı́sicos, el norteamericano Leonard Susskind y el holandés Gerardus’t Hooft (1946– , premio nobel de fı́sica en 1999). En febrero de 2004, Gary T. Horowitz y Juan Maldacena sugirieron que una partı́cula de un par virtual formado en el horizonte de eventos de un agujero negro, cuando escapa no es sólo masa pura sino también información puesto que, debido a la teorı́a cuántica de campos, está entrelazada con la partı́cula compañera que cae en el agujero negro que, a su vez, está entrelazada con un pedazo de materia. En consecuencia, ese proceso Horowitz–Maldacena es responsable, como radiación de Hawking, de la información deseada. Es oportuno anotar que Hawking aceptó finalmetne estar equivocado, en julio de 2004, en una Conferencia Internacional sobre Relatividad General realizada en Dublı́n, Irlanda. 40. Efecto Fullin–Davies–Unruh (1973/1975/1976) En el apartado anterior discutimos el efecto Hawking, en este trataremos un nuevo aspecto de ese mismo efecto. Para ello recordaremos que, en 1916, Sch- Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo warzcshild encontró una solución para la ecuación de Einstein (1915) que predecı́a el colapso de las estrellas masivas. En 1957, Kruskal discutió con Wheeler la idea de rodear la dificultad encontrada en el tratamiento matemático del espacio–tiempo en la región de la singularidad de Schwarzschild. En efecto, a medida que ocurre el colapso estelar la estrella llega a un tamaño crı́tico, conocido como radio de Schwarzschild de modo que, la luz se detiene encima de ella. Ası́, un volumen esférico en el espacio– tiempo trazado por ese rayo se conoce como horizonte de eventos del agujero negro. En 1963, Kerr encontró una nueva métrica (conocida como métrica de Kerr) que representaba a los objetos colapsados gravitacionalmente en rotación y descargados. En 1973, el fı́sico y matemático norteamericano Stephen A. Fulling investigó la teorı́a cuántica de campos en un espacio tiempo riemanniano. En esa discusión demostró que el estado de vacı́o y la densidad de energı́a de un campo libre en una caja con condiciones de frontera difieren de los asociados a una región del mismo tamaño pero en el espacio infinito y sin fronteras. De aquı́ concluyó que esta ambigüedad podrı́a ser de interés para un campo gravitacional. En 1974, Hawking descubrió la radiación de Hawking de los agujeros negros, esto es, las partı́culas emitidas aleatoriamente. En 1975, el fı́sico inglés Paul C. W. Davies (1946– ) estudió la producción de partı́culas escalares en métricas de tipo Schwarzschild y Rindler. En mayo de 1976, Davies, Fulling y el fı́sico canadense William George Unruh (1945– ) calcularon el tensor energı́a momento einsteiniano (Tµν ) en la proximidad de un agujero negro en evaporación, esto es, calcularon pares de partı́culas creadas fuera de su horizonte de eventos, siendo una dela partı́culas del par dotada de energı́a negativa y dirigida a un futuro horizonte de eventos, en tanto que la otra partı́cula del par contribuı́a al flujo térmico al infinito. Fue estudiando este tipo de evaporación que Unruh hizo un importante descubrimiento, según lo publicó en el artı́culo Notes on Black–Hole Evaporation de agosto de 1976 en Physical Review D14 p. 870. Este descubrimiento, conocido como efecto Fulling–Davies–Unruh (EF-D-U), significa que aquello visto como un vacı́o cuántico (compuesto de pares de partı́culas virtuales) por un observador inercial (en movimiento uniforme) es visto por un observador con aceleración propia (a) constante como un baño térmico de todas las partı́culas (ahora reales) cuya temperatura de Unruh (TU ) es análoga a la expresión 2, esto es: TU = h̄a 2πckB (4) 41 Esa radiación de Unruh representa un resultado equivalente al de la relativida restringida de Einstein pues, ası́ como en ésta espacio y tiempo dependen del observador, en aquélla el concepto de partı́cula elemental también depende del observador. Con todo, en cuanto al primer caso el observador es inercial, esto es, se halla en movimiento uniforme, en el segundo caso, el observador es no inercial, es decir, está uniformemente acelerado. Obviamente ese resultado fue recibido con gran escepticismo por la comunidad cientı́fica internacional pues indicaba que la existencia de partı́culas elementales depende del estado de movimiento del observador. Además los valores obtenidos por medio de la expresión 4 son inaccesibles en extremo por medios experimentales hasta el momento. A pesar de eso, el propio Unruh propuso en 1977, un método experimental de determinar su radiación. Una nueva propuesta experimental fue presentada, también por Unruh, en 1981, al mostrar que un espectro térmico de ondas sonoras, del mismo tipo que su radiación, puede observarse en el horizonte sóndico debido al flujo de un fluido transónico. La dificultad de observación de la radiación de Unruh puede ilustrarse con los siguientes valores de TU . 2 Para a = g = 9.81 m/s se tiene TU = 4 × 10−20 K; 2 20 para a = 10 m/s ≈ 1019 g se tiene TU < 1 K y pa2 ra a = 1026 m/s ≈ 1025 g se tiene TU = 4 × 105 K. Esta dificultad llevó a los fı́sicos brasileños Matsas y Daniel Augusto Turolla Vanzella (1975– ) a proponer, en 2001, un experimento mental para comprobar el EF–D–U utilizando la aceleración de protones. Veamos cuál es esta propuesta. Según el Modelo Estándar de Partı́culas Elementales, un neutrón libre (n) se desintegra, en poco menos de 15 minutos, en protón (p), electrón (e− ) y antineutrino del electrón (ν̄e ), esto es: n −→ p + e− + ν̄e En el artı́culo mencionado se calcula el tiempo de vida de ese decaimiento considerando un observador inercial y también se muestra que ese mismo tiempo de vida puede obtenerse en el referencial coacelerado con un protón utilizando un baño térmico resultante del EF–D–U. En efecto, un observador en reposo respecto al protón verá esta partı́cula interactuando con un baño térmico formado de pares de partı́culas, por ejemplo, e− , e+ , νe , ν̄e . Ası́, ese observador podrı́a ver un protón interactuando con un electrón y decayendo en nuetrón y neutrino del electrón: p + e− −→ n + νe o interactuando con un electrón y un antineutrino ContactoS 82, 33-46 (2011) 42 del electrón produciento un neutrón: p + e− + ν̄e −→ n Obsérvese que este experimento volvió a ser objeto de estudio por parte de Matsas y Vanzella en 2002 donde confirmaron la obligatoriedad del EF– D–U para mantener la consistencia de la teorı́a cuántica estándar de campos y que, también, Pierre Martinetti, en 2004, estudió la causalidad de ese efecto. 41. Efecto Zenón cuántico (Misra y Sudarshan, 1977) El desarrollo de la mecánica cuántica a partir de 1926 se expresa en la célebre ecuación de Schrödinger ih̄ ∂ψ(~r, t) ∂t b = p̂2 + V (~r, t) H 2m p̂ b r, t) = Hψ(~ = −ih̄∇ que muestra la función de onda del electrón de un átomo que se encuentra aislado está representada por la superposición de autoestados con energı́a bien definida y denominados estados estacionarios. Con todo, si el átomo considerado sufre la influencia del ambiente por campos externos, pero sus autoestados no afectan a las fuentes de ese campo, se dice que tal átomo representa un sistema cerrado pero no aislado. Un ejemplo simple de este tipo de sistema es un átomo en el cual incide un campo electromagnético (un haz de quantums de luz o de radiofrecuencia). En este caso, un autoestado de este átomo no es estacionario pues puede absorber uno de esos quantum y saltar a otro autoestado energético con determinada probabilidad. La mecánica cuántica muestra que esa probabilidad de transición aumenta con el tiempo. En 1957, el fı́sico ruso Leoni A. Khalfin discutió la idea de que las transiciones entre autoestados de un átomo referidas anteriormente podrı́an ser inhibidas si las mismas fuesen observadas frecuentemente. Sin embargo, fue en 1977, que los fı́sicos indios Baidyanath Misra y Ennackel Chandy George Sudarshan (1931– ) (naturalizado norteamericano) presentaron un estudio teórico sobre esa inhibición, en el artı́culo publicado en Journal of Mathematical Physics 18, p. 756, intitulado The Zeno’s Paradox in Quantum Theory. En ese artı́culo muestran que las transiciones espontáneas o inducidas entre estados cuánticos de un sistema dado, debidas a medidas frecuentes permanecen inhibidas por cierto intervalo de tiempo, esto es, el sistema permanece “con- gelado” en el estado inicial. Por estas razones esa inhibición pasó a ser conocida como efecto (paradoja) Zenón cuántico (EZQ). En 1977 y, posteriormente, en 1982, Misra y Sudarshan, ahora con la colaboración de C. B. Chiu, volvieron a discutir ese efecto, esta vez examnando la evolución de un sistema inestable como, por ejemplo, el decaimiento del protón. Este mismo estudio fue realizado por Khalfin, también en 1982. Veamos como ocurre el “congelamiento” anticipado por el EZQ. Representemos un observable (energı́a) b de un sistema con el operador hamiltoniano (H) S que es monitoreado continuamente a partir del b : |ψn i. Considerado las medin−autoestado de H ciones continuas del sistema S como casos lı́mite de mediciones discretas separadas por un intervalo de tiempo τ , la función de onda de ese sistema en el instante inmediatamente anterior a la primera medición, en t = τ será: ! b Hτ | ψn (~r, t = τ ) = exp |ψn (~r, 0)i ih̄ !2 b b Hτ 1 Hτ ≈ 1 + + + . . . |ψn (~r, 0)i ih̄ 2 ih̄ Utilizando la expresión anterior, la probabilidad (P ) para el sistema S que permanece en el mismo autoestado tendrá la siguiente forma: Pnn = |hψn (~r, 0)|ψn (~r, τ )i|2 τ 2 b 2 ≈ 1 − 2 ∆H h̄ donde: b ∆H representa la n−autoestado. 2 = = 2 b H nn 2 (∆E) variancia de (5) 2 b − H nn energı́a E del Después de k mediciones en el tiempo total tT = kτ la expresión 5 tomará la forma: k Pnn k (kτ )τ 1 − 2 (∆E)2 h̄ k k tT τ 2 = 1 − 2 (∆E) h̄ k = (6) Como consideramos la observación contı́nua (durante largo tiempo) del sistema S en el n−autoestado y que, también, esta observación es el caso lı́mite Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo de una sucesión de medidas instantáneas, la probabilidad del sistema de permanecer “congelado” en ese autoestado se obtendrá en el lı́mite de la expresión 6 cuando k → ∞ y τ → 0; obsérvese que: x n = exp(x) lı́m 1 + n→∞ n De ese modo se obtiene: k lı́m Pnn (τ ) = k→∞ → tT τ exp − 2 (∆E)2 h̄ k lı́m Pnn (tT ) = 1 τ →0 El resultado anterior indica que cuando un observable relativo a un sistems S con espectro discreto es monitoreado con una precisión infinita permanece “congelado” en su estado inicial. Sin embargo, el EZQ puede ocurrir con transiciones espontáneas o inducidas, en éstas, con todo, tal efecto podrı́a ser más fácilmente observado experimentalmente, según propuso R. J. Cook en 1988. Analicemos su propuesta. Considere un ion atrapado que puede realizar solamente transiciones de su estado fundamental (|1i) a un estado excitado metaestable (|2i) (donde el decaimiento espontáneo (|2i) → (|1i) es despreciable), o bien realiza la transición por un pulso óptico (|3i). La función de onda es la proyectada por la medida de la diferencia de energı́a entre los dos primeros estados (niveles) por medio de un pulso resonante π de duración τ = π/Ω (Ω es la frecuencia de Rabi, proporcional al cuadrado de la amplitud del campo aplicado). Si al comienzo de esa medición el ion es proyectado al nivel (|1i) ocurre un ciclo entre los niveles (|1i) y (|3i) y emite una serie de fotones hasta que sea encerrada la medida; por otro lado, si fuera proyectado al nivel (|2i), no emite fotones. En ese caso, se dice que el pulso óptico causa el “colapso de la función de onda” en este nivel. En resumen: si una medición encuentra al ion en el nivel (|1i), regresa a ese nivel al térmno de la misma de un intervalo de tiempo aproximadamente igual a la vida media del nivel (|3i). Si, por el contrario, la medición encuentra al ion en el nivel (|2i), el ion nunca deje ese nivel durante la medición o sea que está “congelado” en ese nivel. De este modo Cook sostenı́a que si se realizara un experimento de este tipo se podrı́a comprobar el EZQ. En 1990, los fı́sicos Wayne M. Itano, D. J. Heinzen, J. J. Bollinger y David J. Wineland, usaron un ion de berilio (9 Be+ ) para efectuar ese experimento. Es oportuno destacar que la interpretación del “colapso de la función de onda” dada por esos fı́sicos ha sufrido un a serie de crı́ticas que ellos han respondido en 1991. Como el EZQ se relaciona con el pro- 43 blema de la medición en la mecánica cuántica ha sido objeto de mucho debate. 42. Efecto Sı́sifo (Cohen–Tannoudji, 1986/1987) En 1976, Ennio Arimondo y G. Orriols por un lado, y G. Alzetta, Adriano Gozzini, L. Mol y Orriols, por otro, descubrieron un nuevo método de captura de átomos por laser, la transparencia inducida electromagnéticamente (CPT, por las siglas Coherent Population Trapping). Según este método, los átomos más lentos son colocados en un “estado oscuro” que los vuelve “transparentes” al laser empleado, esto es, no absorben fotones. En 1976, los fı́sicos rusos Vladelin S. Letokhov, Vladimir G. Minogin y B. D. Pavlik sugirieron un método general para modificar la frecuencia de un haz laser (conocido más tarde como chirrido de frecuencia) para interactuar con todas las partı́culas (átomos o moléculas) de un haz y permanecer en resonancia solamente con lo que serı́an enfriados. En 1978, Ashkin aisladamente y luego con auxilio de John E. Bjorkholm, Richar R. Freeman y D. B. Pearson, desarrolló una técnica de captura de átomos por presión de radiación resonante, técnica conocida como pinzas ópticas. En 1978 el fı́sico norteamericano William D. Phillips (1948– , premio nobel de fı́sica en 1997) se encontraba en el NBS (National Bureau of Standards) cuando comenzó a interesarse en las técnicas de enfriamiento de iones, principalmente la de “pinzas ópticas”. Con todo, el percibió que estas técnicas solamente aprisionaban iones, no átomos neutros. Ası́, con la colaboración de Harold J. Metcalf y John V. Prodan, Phillips desarrolló la técnica conocida como enfriamiento Zeeman usando un campo magnético para cambiar los niveles de energı́a (“niveles Zeeman”) de un átomo manteniéndolo en resonancia con una laser de frecuencia fija. Con esta técnica consiguió, en 1982, enfriar átomos de sodio (Na) a la temperatura de 70 mK. A su vez, en 1985, los fı́sicos norteamericanos Steven Chu (1948– , premio nobel de fı́sica en 1997), Leo Hollberg, Bjorkholm, Alex Cable y Ashkin desarrollaron un nuevo mecanismo de enfriamiento usando seis haces de laser opuestos en pares y dispuestos en tres direcciones perpendiculares entre sı́. De esta forma, un haz de átomos de Na fue desacelerado por un laser opuesto a su movimiento y, enseguida, fue dirigido a una región interceptada por dos laseres; éstos funcionaban como un lı́quido viscoso, llamada “melaza óptica”que enfriaba a los átomos. De esta manera se formó una nube del tamaño de una lenteja con átomos a una temperatura cercana a 240 µK, lo que corresponde a una velocidad de ≈ 30 cm/s. Es- 44 te mecanismo de enfriamiento es conocido como enfriamiento Doppler. A pesar del éxito de la “melaza óptica” habı́a dificultades pues no se conseguı́a capturar los átomos por más de medio segundo. En vista de ello los fı́sicos norteamericanos David E. Pritchard, Eric L. Raab, Carl E. Wieman (1951– , premio nobel de fı́sica en 2001), Richard N. Watts (1957–1996) y el brasileño Vanderlei Salvador Bagnato (1958– ), sugirieron en 1986 que el aprisionamiento de los átomos neutros podrı́a realizarse usando una combinación de campos externos magnéticos o eléctricos. En 1986, el fı́sico francés Claude N. Cohen– Tannoudji (1933– , premio nobel de fı́sica en 1997) y algunos de sus colaboradores (Christophe Salomon, Jean Dalibard, Alain Aspect y Metcalf) comenzaron a investigar un nuevo mecanismo de enfriamiento estudiando el movimiento de un átomo en un haz intenso de un laser estacionario. Ası́, analizando la correlación entre las modulaciones espaciales de los “átomos dispuestos” y las modulaciones espaciales de las emisiones espsontáneas entre esos mismos estados atómicos, observaron que el átomo considerado, al absorber un fotón podı́a subir una barrera de potencia, pero luego perdı́a energı́a por la emisión espontánea de un fotón más energético del anterior; volvı́a entonces a subir, al recibir un nuevo fotón, y luego caı́a como en el caso anterior y ası́ sucesivamente. Ası́, puesto que en cada caı́da el átomo perdı́a más energı́a de la que recibı́a en el ascenso, el resultado final era un enfriamiento. En analogı́a con el ser mitológico griego Sı́sifo, que rodaba cuesta encima una piedra, Cohen– Tannoudji dio a ese mecanismo el nombre de efecto Sı́sifo. Este tipo de enfriamiento, conocido como enfriamiento Sı́sifo fue presentado por los cinco fı́sicos mencionados en el artı́culo intitulado Channeling Atoms in a Laser Standing Wave, publicado en Physical Review Letters 59 p. 169, en 1987. Es oportuno enfatizar que hay otros mecanismos de enfriamiento semejantes, como es el caso del enfriamiento sub–Doppler y el enfriamiento por gradiente polarizado que fueron logrados por Phillips y sus colaboradores en 1988 y por Chu y su equipo en 1989. A pesar del éxito del enfriamiento Sı́sifo este, con todo, presentaba un lı́mite de aplicabilidad devido al retroceso espontáneo de los fotones absorsor y emisor. Para rodear esa dificultad, se propusieron otros dos tipos de enfriamiento del tipo subretroceso. El primero de éstos, conocido como VSCPT Velocity Selective Coherent Population Trapping, fue propuesto por Cohen–Tannoudji y sus colaboradores en 1988 y 1989, y más elaborada en 1995 y 1997. Con esta técnica consiguieron obtener temperaturas ContactoS 82, 33-46 (2011) en el orden de los nanokelvin (1 nK = 10−9 K). El segundo, conocido como enfriamiento Raman fue elaborado por Chu y su equipo en 1992. Los resultados obtenidos con el enfriamiento átómico y algunas de sus aplicaciones (p.ej. el reloj atómico de cesio (Cs) se encuentran en www.nobel.se/physics/ laureates). 43. Efecto magnetoresistencia extraordinaria (Solin, 1995) En 1857, el fı́sico inglés Sir William Thomson (Lord Kelvin) (1842–1907) descubrió que la resistencia eléctrica de un material variaba con la aplicación de un campo magnético. Esta modificación fue conocida como magnetoresistencia (MR) y resultó insignificante para los metales. Por otro lado, el descubrimiento de los semiconductores, a partir de 1927, mostró que ese cambio también es pequeño en ellos. Con todo, las investigaciones sobre transporte de electrones en estructuras periódicas formadas de conductores, semiconductores y superconductores monocristalinos (super redes) de las décadas 1960 y 1970 llevaron al descubrimiento de nuevos efectos relacionados con grandes magnetoresistencias. Los primeros datos sobre la existencia de grandes MR se presentaron en 1975 por el fı́sico francés Michel Jullière al estudiar el tunelamiento entre pelı́culas ferromagnéticas. Midió la magnetoresistencia de un sandwich de dos pelı́culas de hierro y cobalto con una capa intermedia de germanio (Fe–Ge–Co) en dos situaciones: con magnetización de las pelı́culas en sentido paralelo y en antiparalelo. Puesto que hay un efecto de tunelamiento de los electrones de conducción de las pelı́culas magnéticas a través de la capa intermedia, la MR medida por Jullière llegó a nombrarse como TMR “túnel magnetoresistencia”. Albert Fer y sus colaboradores (Mario N. Baibich, J. M. Broto, F. Nguyen Van Dau, F. Petroff, P. Eitenne, G. Creuzet, A. Friedrich y J. Chazelas) encontraron, en 1988, nuevas evidencias acerca de la existencia de grandes MR al estudiar la magnetoresistencia de un sandwich de dos capas de hierro (001)Fe y cromo (001)Cr con una capa de metal nomagnético. Observaron que para una capa de 9 angströms de espesor (9 × 10−8 cm) de Cr a una temperatura de T = 2.4K, la resistividad bajaba en un factor de 2 aproximadamente en un campo magnético de 2 teslas. Esta GMR también fue descubierta, independientemente, por G. Binasch, Peter A. Grünberg, F. Saurenbach y W. Zinn en 1989 al usar capas de Fe–Cr–Fe con material antiferromagnético entre ellas. Obsérvese que tanto el TMR como el GMR se explican con la polarización del spin de los electro- Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo 45 nes de conducción entre las capas. En efecto, cuando las dos capas ferromagnéticas tienen magnetización en paralelo, el electrón de conducción con spin en paralelo con la magnetización pasa por la capa intermedia, en tanto que los electrones de spin antiparalelo no pasan. Con todo, cuando la magnetización de las dos capas es antiparalela, los dos tipos de electrones de conducción no pasan. Es un fenómeno semejante al paso de la luz por poları́metros. MR miles de veces mayor que cualquier otra medida hasta entonces a esa temeperatura. Para vencer el desafı́o de estudiar la EMR en nanoestructuras, el equipo de Solin se unió al de J. Shen Tsai y Y. A. Pashkin, especialistas, respectivamente, en conducción eléctrica en nanoestructuras y en métodos de litografı́a por haz de electrones. Los primeros resultados de los nanosensores de campo magnético se obtuvieron en 2003. El interés de los efectos TMR y GMR en aplicaciones tecnológicas están, principalmente, como sensores de campos magnéticos usados en las unidades de disco de computadoras, lo cual ha aumentado la investigación en magnetoresistencias gigantes. Ası́, en 1994, el fı́sico chino Sung–Ho Jin y su equipo (T. H. Tiefel, M. McCormack, R. A. Fastnacht, R. Ramesh y L. H. Chen) de los Laboratorios Bell anunciaron el descubrimiento de una colosal magnetoresistencia (CMR)en un cristal de manganita (La 0.7 Ca 0.3 MnO 3 ). Observaron que la aplicación de un campo magnético reducı́a la resistencia del cristal debido a la transformación del material no magnético lantano y calcio en ferromagnético; esta transformación ocurrı́a a temperaturas menores de 150 K y con campos magnéticos de varios teslas. Para terminar, una nueva modalidad de MR fue descubierta en 1999 por N. Garcı́a, M. Muñoz y Y. W. Zhao al estudiar la resistencia de nanocontactos de nı́quel (Ni) a temperatura ambiente bajo un campo magnético de cien oersteds. El efecto de este campo es consecuencia de la trayectoria balı́stica de los electrones de conducción a lo largo del nanocontacto (a diferencia del transporte difuso de electrones en las otras MR) la magnetoresistencia medida fue cerca de 280 % mayor; a este efecto se le conoce como magnetoresistencia balı́stica o BMR. Sin embargo, a partir de 2003 los resultados han sido cuestionados. Con todo, en 1995, hubo un descubrimiento sorprendente relacionado con la MR. Solin y M. Lee estudiaban la resistencia eléctrica de un súper–red semiconductora o heteroestructura constituida de arseniuro de galio y arseniuro de galio y aluminio (GaAs − Ga 0.7 Al 0.3 As) en un sandwich. Analizaron de qué manera el espesor de las capas determinaba que una super–red se comportara como un metal o como aislante. Al colocar el sistema en un campo magnético se sorprendieron del aumento de resistencia de la super–red al aumentar el campo magnético. Observaron, pues, un GMR de materiales no magnéticos. Este resultado fue presentado con el tı́tulo Temperature Dependence and Angular Dependence of the Giant Magnetoresistance in GaAs– AlGaAs Superlattices publicado en Materials Science and Engineering: Solid State Materials for Advanced Technology B31, p. 147, en 1995. Debido a la singularidad anterior Solin y sus colaboradores (J. M. Bennett, Jean J. Heremans, Tineke Thio, D. R. Hines, M. Kawano, N. Oda, M. Sano, y T. Zhou) comenzaron a estudiar este nuevo efecto que pasó a ser conocido como efecto magnetoresistencia extraordinaria o EMR, en algunos tipos de heteroestructuras. Por ejemplo, en 1998, construyeron una heteroestructura de antimio, indio y oro ( In Sb–Au), al ponerla bajo un campo magnético de cinco teslas y a temperatura ambiente, midieron una 44. Efecto reloj (Mashhoon, 1993/1999) En 1687, el fı́sico y matemático inglés Sir Isaac Newton (1642–1727) publicó su famoso libro intitulado Philosophie Naturalis Principia Mathematica “Principios matemáticos de filosofı́a natural” donde presentó su célebre ley de gravitación universal: “La gravedad opera. . . proporcionalmente a la cantidad de materia. . . y propaga su virtud para todos lados a distancias inmensas, decreciendo siempre con el inverso del cuadrado de la distancia”. A su vez, en 1785, el fı́sico francés Charles Augustin Coulomb (1736–1806) demostró que: “La fuerza de atracción o repulsión entre dos cargas eléctricas es directamente proporcional al producto de sus cantidades de cargas eléctricas, inversamente proporcional al cuadrado de la distancia que separa sus centros, y se sitúa en la misma dirección que la recta que une sus centros”. Esta semejanza formal entre las leyes de Newton y de Coulomb llevó a una descripción de la teorı́a de gravitación newtoniana en términos de un campo gravitoeléctrico. Con todo, el desarrollo del electromagnetismo durante el siglo XIX uscitó una nueva descripción de esa teorı́a, esta ocasión, incluyendo al magnetismo, y que fue presentada por lso fı́sicos, el alemán G. Holzmüller, en 1870, y el francés F. Tisserand, en 1872. Ambos postularon la existencia de un campo gravitomagnético solar. Es oportuno subrayar que ese tipo de campo fue usado al intentar explicar la anomalı́a de la precisión del perihelio de Mercurio, anomalı́a observada por el astrónomo francés Urbain Jean Joseph Le Verrier (1811– 1877) en 1859. ContactoS 82, 33-46 (2011) 46 El éxito de la explicación de esa anomalı́a por Einstein, en 1915, con su teorı́a de la relatividad general, formulada ese mismo año, sugirió a los fı́sicos austrı́acos Joseph Lense y Hans Thirring, en 1918, la idea de que esa teorı́a también podrı́a explicar un efecto gravitomagnético como es la precesión de un giróscopo fijo dentro de un cuerpo esférico masivo giratorio semejante a la Tierra. Este precesión fue conocida como efecto Lense–Thirring (EL–T). Posiblemente la misma dificultad de observar el EL– T llevó al estudio del gravitomagnetismo durante la década de 1950. En ese entonces se realizó un completo tratamiento relativı́stico en el que los componentes gravitoeléctrico y gravitomagnético del tensor curvatura fueron comparados con la fuerza lorentziana. Con todo, la diferencia de carácter spinorial de los campos gravitacional (spin 2) y electromagnético (spin 1) llevó al fı́sico iranı́ Bahram Mashhoon a analizar cómo el gravitomagnetismo afecta a la estructura espaciotemporal en la relatividad general einsteiniana. Ası́, dentro de los diversos aspectos de ese análisis, estudió el efecto gravitomagnético en giróscopos y, también en partı́culas puntiformes que se mueven en una misma órbita geodésica ecuatorial circular pero en sentidos opuestos, alrededor de una masa central giratoria. Ahora bien, el efecto gravitomagnético sobre relojes patrón en órbita alrededor de un cuerpo astronómico giratorio, más tarde conocido como efecto reloj (ER) sólo comenzó a ser estudiado por Mashhoon, en colaboración de Jeffrey M. Cohen, en un artı́culo intitulado Standard Clocks, Interferometry and Gravitomagnetism publicado en Physics Letters A181, p. 353, en 1993. En 1997, Mashhoon volvió a estudiar ese efecto, aunque fue hasta 1999 que, junto con Frank Gronwald y Herbert I. M. Lichtenegger, preparó un artı́culo más elaborado intitulado Gravitomagnetism and the Clock Effect en Lectures Notes in Physics 562, p. 83, donde mostraron detalladamente que la diferencia en los periodos propios de los relojes patrones en órbitas geodésicas ecuatoriales circulares y en sentidos contrarios está dada por: τ+ − τ− ≈ 4πa c (7) donde τ+ y τ− indican, respectivamente, el periodo de movimiento en sentido del cuerpo rotatorio (progrado) y en sentido contrario (retrógrado), a = j/M c siendo J y M , respectivamente el momento angular y la masa del objeto giratorio, responsable del efecto gravitomagnético. Recalquemos que la diferencia expresada en 7 es relativa a un observador para el cual 2GM r≫ c2 donde G es la constante gravitacional de Newton– Cavendish. Concluyamos esta crónica destacando que desde la formulación del ER por Mashhoon ha propuesto, con sus colaboradores, diversos experimentos para su comprobación. Conclusión y agradecimientos A manera de conclusión quiero advertir al lector que no incluı́ en esta Crónica de los Efectos Fı́sicos todos los conocidos, p.ej. los presentados en el sitio: http:\\scienceworld.wolfram. com/physics/topics/Effects.html ni otros más que este sitio omite. La selección de los 44 efectos descritos en estas 4 crónicas ha sido puramente personal. Para realizar estas Crónicas conté con la colaboración de varios amigos, algunos por su lectura crı́tica, otros por el acceso a algunos artı́culos aquı́ citados. De este modo quiero agradecer a: Alexandre Guimarães Rodrigues, Ângela Burlamaqui Klautau Crispino, Antonio Boulhosa Nassar, Breno César de Oliveira Imbiriba, Célia Coelho Bassalo, Danilo Teixeira Alves, Francisco Caruso Neto, Jill Young Coelho, José dos Santos Oliveira, José Pizarro de Sande Lemos, José Wadih Maluf, Karlúciio Heleno Castro Castello Branco, Luis Carlos Bassalo Crispino, Mauro Sérgio Dorsa Cattani, Osvaldo Pessoa Junior y Petrus Agripino de Alcântara Junior. Debo también un agradecimiento especial a José Luis Córdova Frunz por la lectura crı́tica y la versión en español de estas Crónicas publicadas en la Revista Contactos de la Universidad Autónoma Metropolitana de México. cs Crónica del Oscilador Armónico* José Marı́a Filardo Bassalo, Fundación Minerva, Prof. retirado de la Universidad de Pará www.bassalo.com.br * Traducido por el Dr. Eleuterio Castaño Depto. de Fı́sica, UAM-I. ContactoS 82, 47–52 (2011) 48 Resumen En este artı́culo estudiamos la evolución histórica del Oscilador Armónico desde los primeros estudios realizados durante la primera mitad del siglo XVIII, hasta el momento presente. Uno de los primeros estudios matemáticos sobre osciladores armónicos simples (OAS) fue realizado por el fı́sico y matemático suizo Leonhard Euler (17071783), en 1739,1 al resolver la ecuación diferencial: mẍ + kx = 0, k = ω02 m, (1) donde ω0 es la frecuencia natural del OAS, por medio de un método de cuadraturas. En ese mismo trabajo Euler redescubrió el fenómeno de resonancia al obtener, por el mismo proceso de cuadraturas, la solución del oscilador armónico forzado (OAF): mẍ + kx = F sen (ωα t), (2) y observar que la solución resulta en oscilaciones forzadas que se vuelven cada vez mayores conforme la frecuencia natural ωo se aproxima a la frecuencia externa de forzamiento, ωα , y sus amplitudes tienden a infinito. Otra cuestión también ligada al OA se refiere al problema de obtener su ecuación de movimiento a partir del Lagrangeano. Este problema comenzó con los trabajos de Euler y del matemático francés Joseph Louis Lagrange (1736-1813); en estos trabajos se buscaba encontrar la ecuación de movimiento de un sistema fı́sico cualquiera a partir de un principio de mı́nima acción. Veamos cómo. El matemático francés Pierre de Fermat (1601-1665) formuló, entre 1653 y 1662,2 el famoso principio del tiempo mı́nimo, según el cual la luz, al propagarse entre dos puntos de su trayectoria, escoge un camino cuyo tiempo de recorrido es mı́nimo. En lenguaje moderno este principio dice que la integral J= Z t2 t1 dt = Z P2 P1 ds , v del principio de Fermat, enunció su famoso principio de mı́nima acción. Como en aquella época habı́a una controversia con respecto a la velocidad de la luz, entre que ésta era proporcional al ı́ndice de refracción (n), tal como aseguraban el filósofo y matemático francés René du Perron Descartes (1596-1650) y el fı́sico y matemático inglés Sir Isaac Newton (1642-1727), o que era inversamente proporcional, como aseguraba Fermat, Maupertuis abandonó la idea del tiempo mı́nimo y utilizó otra cantidad llamada ACCIÓN, definida como el producto de la masa (m), por la velocidad (v) y por la distancia (s) recorrida por una partı́cula dada. [Es oportuno destacar que además de razones fı́sicas, Maupertuis (y el propio Euler) daban razones teológicas para su principio, pues, decı́an ellos, que las leyes del comportamiento de la naturaleza poseen una perfección digna de la creación de Dios.] Por lo tanto, según Maupertuis, se tenı́a que: mvs = acción ≡ mı́nimo . Ese mismo año de 1744,4 Euler escribió el principio de la mı́nima acción de Maupertuis de la siguiente forma: Z Z δ v ds = δ v 2 dt = 0 (5) expresión que indicaba que la acción de Maupertuis era mı́nima para movimientos de partı́culas a lo largo de curvas planas. Es muy desafortunado que a pesar de que Euler haya esbozado esta primera interpretación dinámica del principio de Maupertuis, el crédito del uso del principio de mı́nima acción en la Mecánica sea atribuido a Lagrange. Éste, en 1760-1761,5 partiendo del principio de mı́nima acción de Euler, formuló entonces su principio de mı́nima acción y lo aplicó a un conjunto de partı́culas. Su principio es definido ası́: δ Apenas comenzó el siglo XVIII los matemáticos ya poseı́an varios ejemplos de que la Naturaleza tiende maximizar o minimizar algunas cantidades importantes. De manera semejante, el matemático francés Pierre Louis Moureau de Maupertuis (1698-1759), en 1744,3 trabajando con la teorı́a de la luz y partiendo Z t2 T dt = 0, (6) t1 (3) toma un valor mı́nimo cuando la luz, con velocidad v, viaja entre los puntos P1 y P2 . (4) donde T , la energı́a cinética de un sistema de partı́culas, está dada por: T = X1 i 2 mi vi2 = X1 i 2 mi ẋ2i (7) Partiendo de este Principio, y considerando la condición adicional de que la energı́a total de un sistema de partı́culas, esto es, T + V (siendo V la energı́a potencial) es constante para caminos muy cercanos Crónica del Oscilador Armónico. José Marı́a Filardo Bassalo. entre sı́, considerados entre dos configuraciones fijas, Lagrange usó el actualmente conocido Cálculo de Variaciones, que ya habı́a sido desarrollado por Euler, a partir de 1734,7 y demostró la famosa Segunda Ley de Newton:8 mi ẍ2i = − ∂V = Fi . ∂xi 49 183511 Hamilton enunció su Principio, desde entonces conocido como Principio de Hamilton, y que toma la siguiente forma: Z t2 L(qi , q̇i , t)dt = 0, (11) δ t1 (8) Al estudiar, en 1782, sistemas de n masas puntuales, Lagrange introdujo el concepto de coordenadas generalizadas (pi , qi ), como cualquier conjunto de coordenadas que puede, sin ambigüedades, definir la configuración de estos sistemas. Entonces, a partir de esta consideración, en su Mécanique Analytique, publicada en 1788, Lagrange presentó el Principio de Mı́nima Acción de Maupertuis-Euler en términos de estas coordenadas y usando, una vez más el método variacional obtuvo la ahora famosa Ecuación de Euler-Lagrange: d ∂T ∂T ∂V − + =0 (9) dt ∂ q̇i ∂qi ∂qi Otra gran contribución al estudio del Principio de Mı́nima Acción aplicado a la Mecánica fue dada por el matemático francés Siméon Denis Poisson (1781-1840), en 1809.9 De manera semejante, partiendo de la Ecuación de Euler-Lagrange, la modificó introduciendo el ahora llamado lagrangeano L = T − V . Veamos cómo. Utilizando V (qi ) y T (q̇i ) como funciones de las coordenadas generalizadas, la expresión (9) puede ser escrita en la forma conocida como Ecuación de Euler-Lagrange-Poisson: d ∂L ∂L − =0 (10) dt ∂ q̇i ∂qi Antes de terminar el Siglo XIX, otra modificación fue propuesta por el matemático irlandés Sir William Rowan Hamilton (1805-1865). Como resultado, entre 1824 y 1832,10 Hamilton estudió la óptica con el objetivo de darle una estructura matemática dentro de los moldes que Lagrange utilizara para la Mecánica. De manera similar, y observando que para algunos fenómenos la Naturaleza maximiza su acción en lugar de minimizarla, Hamilton prefirió entonces hablar de un Principio de Acción Estacionaria. Aun más, Hamilton observó que el Principio de Euler-Lagrange-Poisson se referı́a tan sólo a sistemas conservativos, esto es, aquéllos para los cuales el potencial V es solamente una función de las coordenadas qi , es decir que V = V (qi ). De este modo, Hamilton generalizó entonces este Principio con el objetivo de incluir sistemas no-conservativos, para los cuales V = V (qi , q̇i , t). De tal manera que en donde L = T −V es la llamada función lagrangeana, que fue introducida, conforme vimos, por Poisson, en 1809. A partir de este Principio, y aplicando el Cálculo de Variaciones de Euler-Lagrange, Hamilton reobtuvo las Ecuaciones de Euler-LagrangePoisson. Las Ecuaciones de Euler-Lagrange-Poisson conforman las ecuaciones de movimiento de un sistema cualquiera caracterizado por la función lagrangeana L [vea la expresión (10)]. Para el caso del OAS, cuyo L vale: 1 2 1 mq̇ − mω02 q 2 , (12) 2 2 estas ecuaciones llevan a la siguiente ecuación: L=T −V = q̈ + ω02 q = 0 (13) que es, justamente, la ecuación de movimiento del OAS. Conforme vimos anteriormente, la obtención de la ecuación de movimiento del OAS [expresión (13)] fue relativamente fácil, porque fue posible escribir a función lagrangeana L de este tipo de oscilador [expresión (12)]. En contraste, el caso del Oscilador Armónico Amortiguado (OAA) como lo es, por ejemplo, un péndulo oscilando en un medio disipativo, es un problema que se torna más complicado, pues, hasta el presente momento, no ha sido posible encontrar L. Varias tentativas para encontrar L han sido realizadas, conforme veremos en los párrafos siguientes. Una primera tentativa para salvar esta dificultad fue presentada, probablemente por primera vez, por el fı́sico inglés John William Strutt, Lord Rayleigh (1842-1919; PNF, 1904) en su libro The Theory of Sound, publicado en 1877-1878, al introducir en forma ad hoc en las Ecuaciones de EulerLagrange-Poisson [expresión (10)] un término relacionado con una función disipativa F, esto es (en el caso unidimensional):12 d ∂L ∂L ∂F − + =0 (14) dt ∂ q̇ ∂q ∂ q̇ De este modo, tomando una función disipativa F del tipo proporcional a la velocidad (caracterı́stica del OAA), es decir: F = 1 2 λq̇ , 2 (λ = constante ) (15) ContactoS 82, 47–52 (2011) 50 más el lagrangeano del OAS [expresión (12)], la expresión (14) reproduce la ecuación de movimiento del OAA unidimensional: λ (16) q̈ + γ q̇ + ω02 q = 0, γ= m En vista del resultado anterior, Ray afirmó que LBCK (HBCK ) no representaba a los sistemas disipativos, pero sı́ a los sistemas fı́sicos de masa variable en el tiempo, como, por ejemplo, un balde de agua oscilando en un región donde existe una precipitación de agua que hace que la masa M del agua del balde varı́e siguiendo la expresión: donde γ es la llamada constante de amortiguamiento. A pesar de que la ecuación de Euler-LagrangePoisson-Rayleign reproduce la ecuación de movimiento de sistemas disipativos, es apenas una descripción fenomenológica de estos sistemas, ya que no hay ningún lagrangeano ni ningún principio variacional que hayan sido involucrados. Las primeras tentativas para enfrentar esta dificultad fueron presentadas por H. Bateman, en 1931,13 P. Caldirola, en 1941,14 y Y. Kanai, en 1948,15 al presentar el siguiente lagrangeano 1 2 1 LBCK = eγt (17) mq̇ − mω02 q 2 , 2 2 conocido desde entonces como lagrangeano de Bateman-Caldirola-Kanai (LBCK ), y la respectiva acción de Bateman-Caldirola-Kanai (SBCK ): Z t LBCK dt′ . (18) SBCK = M = meγt . Una dificultad de LBCK señalada por Ray en el trabajo arriba referido antes,17 se relaciona con el momento canónico (pBCK ) dado por: pBCK = HBCK ∂LBCK − LBCK = pq̇ − LBCK = ∂ q̇ 1 2 1 (19) mq̇ + mω02 q 2 , = eγt 2 2 es aparentemente dependiente del tiempo, no representa, de un modo general, los sistemas disipativos. Como resultado, en 1979,16 J. R. Ray usó la solución de la ecuación de movimiento del OAA [expresión (16)], dada por: − γt 2 q(t) = Ae r cos(ωt), γ2 ω = ω02 − , 4 A = q(0) 1 mω02 A. 2 (25) Una tentativa novedosa para enfrentar las dificultades de LBCK lo es el tratamiento del OAA fue presentada por L. Herrera, L. Nuñez, A. Patiño y H. Rago, en 1986,19 los cuales proponen la siguiente acción SHN P R : SHN P R = Z t dt′ exp(λt′ )L(q, q̇), (26) 0 donde L(q, q̇) está dado por la expresión (12), y la correspondiente Ecuación de Euler-LagrangePoisson está dada por: ∂ λt d λt ∂L e − (e )L = 0 (27) dt ∂ q̇ ∂q reproduce la ecuación de movimiento del OAA representada por la expresión (16). Por otro lado, como el lagrangeano de Herrera et al. es el mismo de la Mecánica Hamiltoniana, el hamiltoniano correspondiente también permanecerá el mismo que el de esa Mecánica, el cual es: H = pq̇ − L = 1 2 1 mq̇ + mω02 q 2 ≡ T + V, 2 2 (28) (20) (21) (22) y demostró que la energı́a total media del OAA es una constante, la cual es: E= ∂LBCK = eγt mq̇, ∂ q̇ que es diferente del momento linear mq̇ y, por lo tanto, viola el principio de incertidumbre de Heisenberg.18 0 Muy afortunadamente cuando LBCK es llevado a la expresión (10) (en el caso unidimensional, esto es: i = 1) reproduce la expresión (16), y el correspondiente Hamiltoniano HBCK : (24) (23) y su valor medio sobre cualquier perı́odo es una función decreciente del tiempo indicando, de este modo una disipación. Es oportuno observar que, en tanto la acción SHN P R preserva el lagrangeano clásico, SBCK cambia este lagrangeano tradicional. Además de la obtención del lagrangeano (y su correspondiente acción), otro problema relacionado con los sistemas disipativos (el caso del OAA) es el que se refiere al de su cuantización. Una de las maneras de Crónica del Oscilador Armónico. José Marı́a Filardo Bassalo. cuantizar un sistema fı́sico es obtener su hamiltoniano en función del momento canónicamente conju∂ , en el caso unidimengado p y substituirlo por ih̄ ∂q sional. De manera que, ya obtenida la ecuación de Schrödinger20 resultante de este proceso de cuantización, resta resolverla. Una de las maneras de obtener la solución de esta ecuación es a partir del principio de mı́nima acción cuántica formulado por el fı́sico norteamericano Richard Philips Feynman (19181988; PNF, 1965), en 1948:21 La amplitud de transición entre los estados |ai y |bi de un sistema mecánico cuántico es la suma de las contribuciones elementales de cada una de las trayectorias que pasa por |ai al tiempo ta y por |bi al tiempo tb . Cada una de estas trayectorias tiene la misma magnitud, pero su fase es la acción clásica Scl de la trayectoria seguida. Z a b i exp[ Scl (b, a)D(q, t)] h̄ (29) donde: Scl (b, a) = Z b L(q, q̇, t)dt (30) a es la acción clásica, y D(q, t) es la medida de Feynman. Esta última indica que debemos realizar la integral sobre todas las trayectorias que conectan los puntos (a, ta )y (b, tb ). La integral que define K(b, a) es la llamada integral de trayectoria (“path integral”), o propagador de Feynman.22 Ya obtenido este propagador, la función de onda ψ(q, t), solución de la ecuación de Schrödinger, está dada por:23 Z ∞ K(q, t; q0 , t0 )ψ(q0 , t0 )dq0 . (31) ψ(q, t) = −∞ En 1951,24 el fı́sico norteamericano Julian Seymour Schwinger (1918-1994; PNF, 1965) formuló otro Principio de Mı́nima Acción Cuántica, con el siguiente enunciado: Si se realizan variaciones en un sistema mecánico cuántico, el correspondiente cambio de la amplitud de transición entre los estados |ai y |bi es (i/h̄) veces el elemento de matriz que conecta los estados de la variación de la acción clásica Scl . Este principio de Schwinger se traduce en la siguiente expresión: i δhb|ai = h̄ Z tb L(q, q̇, t)|aidt, (32) ta donde a y b son un conjunto de números cuánticos escogidos entre los tiempos ta y , tb respectivamente.25 A modo de conclusión de esta Crónica del Oscilador Armónico, destacamos que el tratamiento cuántico de este ente fı́sico ha sido abordado en varios artı́culos que se encuentran en el Handbook of Feynman Path Integrals, de C. Grosche y F. Steiner [Springer Tracts in Modern Physics 145 (1998)]. Notas y referencias Este principio se traduce en la siguiente expresión: K(b, a) = 51 1. Euler, L. 1739. Commentarii Academiae Scientiarum Petropolitanae 11, 128. 2. Fermat, P. 1679. Oeuvres. 3. Maupertuis, P. L. M. 1744. Mémoires de l’Académie des Sciences, Paris. (Vea el excelente texto sobre Maupertuis y su Principio, en: Moreira, I. C. 1999. Revista Brasileira de Ensino de Fı́sica 21, 172.) 4. Euler, L. 1744. Methodus Inveniendi Lineas Curvas Maximi Minimive Proprietate Gaudentes. 5. Lagrange, J. L. 1762. Miscellanea PhilosophicaMathematica Societatis Privatae Taurinensis 22 (1760-1761), 196. 6. En la época de Lagrange, era usado mi vi2 , lo cual era denominado como fuerza-viva, en lugar de mi vi2 /2. Se sabe que el concepto de fuerza-viva fue introducido por el filósofo y matemático alemán Gottfried Wilhelm Leibniz (1646-1746), en 1686. En alguna ocasión, él llegó a afirmar que, cuando un cuerpo cae, su “fuerza-viva” se transforma en “fuerza-muerta”, representada por su peso; en su afirmación (la cual es un poco más larga) al caer y chocar con el suelo, el cuerpo transmitı́a su movimiento a las partı́culas invisibles del suelo mismo. Por otra parte, fue el fı́sico francés Gustav Gaspard Coriolis (1792-1843), en 1829, quien observó que para el movimiento de un cuerpo era importante la mitad de la “fuerzaviva” de Leibniz, dándole entonces el nombre de energı́a cinética. (KLINE, M. 1972. Mathematical Thought from Ancient to Modern Times. Oxford University Press.) 7. Bassalo, J. M. F. 1998. Crónicas da Fı́sica, Tomo 5. Edufpa; Kline, op. cit. 8. Yourgrau, W. and Mandelstam, S. 1979. Variational Principles in Dynamics and Quantum Theory. Dover Publications, Inc. 9. Poisson, D. S. 1809. Journal de l’Ecole Polytechnique 8, 266. ContactoS 82, 47–52 (2011) 52 10. Kline, op. cit. 11. Hamilton, W. R. 1835. Philosophical Transactions of the Royal Society of London Part I, 95. 12. Goldstein, H. 1980. Classical Mechanics, Addison-Wesley Publishing Company. 13. Bateman, H. 1931. Physical Review 38, 815. 14. Caldirola, P. 1941. Nuovo Cimento 18, 393. 15. Kanai, Y. 1948. Progress of Theoretical Physics 3, 440. 16. Ray, J. R. 1979. American Journal of Physics 47, 626. 17. En 1986, D. H. Kobe, G. Reali y S. Sieniutycz publicaron un trabajo (American Journal Physics 54, 997) en el cual demuestran que la igualdad H = Y (energı́a total) propuesta por Ray (op. cit.) sólo se aplica a los sistemas conservativos. Para sistemas disipativos, como el OAA, ellos proponen que: H = eγt E. En esta expresión, γ representa la constante de amortiguamiento arriba referida y, para llegar a esta expresión, estos fı́sicos partieron del LBCK . 18. Este principio fue formulado por el fı́sico alemán Werner Karl Heisenberg (1901-1976; PNF, 1932), en 1927 (Zeitschrift für Physik 43, 172) con el siguiente enunciado: - “Es imposible obtener exactamente los valores simultáneos de dos variables, a no ser dentro de un lı́mite mı́nimo de exactitud”. Para el caso de la posición (x) y del momento linear (px ) de una partı́cula desplazándose en la dirección x, este principio se traduce en la expresión: ∆px ∆x ≥ h̄ , 2 donde ∆px y ∆x miden, respectivamente, los errores de las medidas del momento linear y de la posición de la partı́cula referida. 19. Herrera, L., Nuñez, L., Patiño, A. and Rago, H. 1986. American Journal of Physics 54, 273. 20. En 1926, en trabajos publicados en los Annales de Physique Leipzig 79, 361; 489; 734; 747, el fı́sico austrı́aco Erwin Schrödinger (18871961; PNF, 1933) desarrolló su famosa Mecánica Cuántica Ondulatoria, cuyo principal resultado principal es la ahora famosa ecuación de Schrödinger: Ĥψ(q, t) Ĥ p̂ = ih̄ ∂ ψ(q, t), ∂t p̂2 + V (q, t), 2m ∂ = −ih̄ . ∂q = 21. Feynman, R. P. 1948. Reviews of Modern Physics 20, 367. 22. En 1997, los fı́sicos brasileños Antonio Boulhosa Nassar (n.1953), José Maria Filardo Bassalo (n.1935), Paulo de Tarso Santos Alencar (n.1940), Luis Sergio Guimarães Cancela (n.1946) y Mauro Sergio Dorsa Cattani (n.1942) publicaron un trabajo en Physical Review E 56, 1230, en el cual dedujeron un propagador de Feynman con una acción cuántica, usando la Mecánica Cuántica de de Broglie-Bohm. 23. Feynman, R. P. and Hibbs, A. R. 1965. Quantum Mechanics and path Integrals. McGraw-Hill Book Company. 24. Schwinger. S. 1951. Physical Review 82, 914. 25. En 1988, Nassar, Bassalo, Henrique Santos Antunes Neto (1952-1989) y Alencar publicaron un artı́culo en el Journal of Physics A: Mathematical and General 21, L451, en el cual demostraron que los principios de Feynman y de Schwinger dan resultados idénticos cuando, al menos, son aplicados a acciones cuadráticas no locales. cs ¿Habrá un paralelo entre la fı́sica y el arte de la pintura? José Marı́a Filardo Bassalo,* Fundación Minerva, Prof. retirado de la Universidad de Pará www.bassalo.com.br * Texto presentado en el Instituto de Artes do Pará el 18 de marzo de 2004, con la participación del fotógrafo Luiz Braga y del profesor de la UFPA, Fábio Castro. 54 En un artı́culo que escribı́ en 1991 [1], preguntaba si serı́a posible trazar un paralelo entre el mundo de las ciencias y el de las artes. En ese artı́culo resalté dos momentos en los cuales, a mi entender, lo hubo. Los momentos escogidos fueron el final del siglo XIX y la década de 1920. Antes de tratarlos en detalle, me gustarı́a esbozar lo ocurrido en la Edad Media y el Renacimiento, épocas en las que, supongo, también lo ha habido.1 ContactoS 82, 53–57 (2011) Wolfgang von Goethe (1749-1832), probablemente por 1810, año en que escribió su Teorı́a del color.2 El primero trata de la pintura del italiano Giotto de Bondone [1266/1267 (1276)-1337], quien introdujo la tridimensionalidad en la pintura. Además de esa innovación, Giotto pintó el cielo de azul, cuando lo tradicional era el color dorado. Ası́, “el cielo perdió su carácter sagrado de casa de Dios. Deja de ser objeto de adoración y puede ser objeto de estudios empı́ricos” [2, 3]. Uno de los ejemplos de la originalidad y novedad de Giotto son los frescos pintados por él para la Capilla Arena, en Padua, Italia, alrededor de 1305, figura 1. Figura 2. Il Battesimo dei Neofiti, Masaccio. Figura 1. Fresco de Giotto, ca. 1305 en Padua, Italia. Es oportuno subrayar que el artista e inventor italiano Leonardo de Vinci (1452-1519) intentó explicar fı́sicamente el azul cielo cerca del 1500, al observar que el humo de la quema de madera, cuado es vista con un fondo oscuro y es iluminada por la luz solar, presenta un color azulado. Una observación análoga fue hecha por el poeta alemán Johann 1 Para otros ejemplos de la influencia recı́proca entre la historia del pensamiento y la historia de la civilización véase: Salmeron, R. A. 2004. Matéria, Mitologia, Pensamento e Abstração. El segundo momento trata de la relación entre la Óptica Geométria y la Perspectiva. Durante la Edad Media, el estudio de esa parte de la óptica estaba ı́ntimamente ligada a la de la Perspectiva, pues ésta, antes de recibir su primera teorización por parte de los pintores y arquitectos del Quattrocento era designada como “Ciencia de la óptica” [4]. Ası́ se explica que varios libros con tı́tulo de Perspectiva, trataran también la óptica geométrica. Por ejemplo, el cientı́fico polaco Vitello (ca.1225–ca.1275) en su libro intitulado Perspectiva (libro basado en los trabajos del astrónomo griego Claudio Ptolomeo (85– 165) y del fı́sico persa Al–Hazen (ca.965–1038), escrito por el 1274, además de presentar una primera percepción del espacio, describe también sus experimen2 El azul del cielo reulta de la dispersión de la luz solar por la atmósfera terrestre. Para mayores detalles véase: Bassalo, J. M. F. 1992, Crônicas da Fı́sica, Tomo 3, EDUFPA ¿Habrá un paralelo entre la fı́sica. . . ? José Marı́a Filardo Bassalo 55 Figura 3. Pintura con perspectiva, Perugino (ca. 1450–1523). tos ópticos de dispersión de la luz blanca por un prisma hexagonal y por esferas de vidrio llenas de agua con los que abordó el problema de los colores del arco iris. La óptica geométrica a través de la perspectiva también fue objeto de estudio por parte de Blas de Parma en su libro intitulado Quaestiones Perspectivae, escrito aproximadamente en 1390, y por parte del matemático florentino Paolo Toscanelli (1397– 1482) en su libro Della Prospettiva, de 1420. Nótese que la geometrización de la pintura, marcada por la perspectiva, es evidente en los pintores italianos como Masaccio (Tommaso di Giovanni di Simone Guidi) (1401–1428) figura 2, Piero della Francesca (ca1420– 1492), Antonio del Pollaiuolo (1432/1433– 1498), Perugino (Pietro di Cristoforo Vannuci) (ca1450–1523) figura 3 y Raffaello Sanzio (1483–1520), entre otros. Veamos ahora los dos momentos del supuesto paralelo entre la fı́sica y la pintura. En el último cuarto del siglo XIX, una serie de fenómenos (radiación del cuerpo negro, efecto fotoeléctrico, rayas espectrales, etc.) se resistı́an a ser explicados con las teorı́as fı́sicas vigentes, representadas por la Mecánica Newtoniana, el electromagnetismo lorentziano– maxwelliano y por la mecánica estadı́stica boltzmanniana, esto es, lo que se ha convenido llamar en el siglo XX como fı́sica clásica, caracterizada por tener la energı́a como variable continua. Ahora bien, a fines del siglo XIX, el 14 de diciembre de 1900, el fı́sico alemán Max Karl Ernste Ludwig Planck (1858–1947, premio nobel de fı́sica en 1918) formuló su famosa teorı́a cuántica con el postulado fundamental de que la energı́a es una variable discreta; gracias a esta idea los fenómenos pudieron ser explicados posteriormente. La teorı́a cuántica representó un rompimiento con el academicismo de la fı́sica clásica. También en ese último cuarto del siglo XX ocurrió también una ruptura del pintura moderna con el academicismo oficial. En efecto, el desarrollo de la óptica durante el siglo XVII mostró que la visión depende del estı́mulo de la retina,3 y que la luz blanca resulta de una mezcla de todos los colores.4 3 En 1604, el astrónomo alemán Johannes Kepler (1571- 1630) en su libro Ad Vitellionem paralipomena (Suplemento a la óptica de Vitello) expuso su teorı́a de que la visión ocurre por el estı́mulo en la retina provocado por las rayos coloreadas del mundo visible y después transmitido al cerebro. 4 Una comprobación experimental de esta mezcla fue presentada por el fı́sico y matemático infglés, Sir Isaac Newton (1642–1727), en 1666, con el hoy célebre disco de Newton. Se trata de un disco de papel donde se han pintado todos los colores y que, al girar, aparece blanco. ContactoS 82, 53–57 (2011) 56 Ası́, los pintores de la escuela impresionista (manifestada de 1874 a 1886) ampliaron estos dos principios con su propia experiencia. Propusieron que el ojo capta las formas en el espacio debido a la variación en la intensidad de la luz y del color. Para ellos los objetos son, encima de todo, elementos que modifican la absorción y la refracción de la luz por la atmósfera entre un objeto dado y el pintor que lo está retratando. Figura 5. Le Moulin de la Galette, Renoir, 1876. Su caracterı́stica central es la descomposición tonal mediante minúsculas pinceladas nı́tidamente separadas, figura 6. Puede decirse que la pintura de esta escuela está completamente hecha a partir de puntos (como ocurre con la televisión) y no con pinceladas continuas. Figura 4. Pintura impresionista de Claude Monet (1840– 1926). De esta suerte, el lı́mite entre el objeto y el espacio es difuso e imperceptible. A partir de esta nueva visión, los principales pintores del impresionismo francés Edouard Manet (1832–1883), Claude Monet (1840– 1926) figura 4, Berthe Morisot (1841–1895), Mary Cassatt (1844–1926), Paul Cézanne (1839–1906), Hilaire- -Germaine–Edgar Degas (1834–1917), Jean– Baptiste–Armand Guillaumin (1841–1927), Eugene– Henri–Paul Gauguin (1848– 1903), Camille Pissarro (1830–1903), Georges Seurat (1859– 1891), Paul Signac (1863–1935), Alfred Sisley (1839–1899), Pierre Auguste Renoir (1841–1919)figura 5 y Henry de Toulouse– Lautrec (1864–1901) marcaron una ruptura del arte moderno con el academicismo oficial. Las caracterı́sticas principales de esa escuela son la percepción inmediata y no intelectualizada, un caracter fragmentario y fugaz, y un énfasis en el color y la luminosidad, tal como puede apreciarse en sus cuadros pintados al aire libre. De este modo, los impresionistas salieron del interior (ambiente cerrado) al exterior (sitios abiertos, avenidas, calles, plazas, etc.). Es oportuno destacar que, a mediados de la década de 1880, surgió el movimiento pictórico pos– impresionista conocido como puntillismo, reacción al propio impresionismo y la pintura oficial. El otro momento en que puede trazarse un paralelo entre la fı́sica y la pintura es la década de 1920 cuando el fı́sico francés, el prı́ncipe Louis–Victor de Broglie (1892–1987, premio nobel de fı́sica en 1929) presentó en 1924 su tesis de doctorado en la Sorbona, donde propone el caracter dual de la materia. Consecuencia de esta idea, los fı́sicos, los alemanes Max Born (1882–1970, premio nobel de fı́sica en 1954), Ernst Pascual Jordan (1902–1980) y Werner Karl Heisenberg (1901– 1976, premio nobel de fı́sica en 1932), el austriaco Erwin Scrhödinger (1887–1961, premio nobel de fı́sica en 1933) y el inglés Paul Adrien Maurice Dirac (1902–1984, premio nobel de fı́sica en 1933) desarrollaron la mecánica cuántica entre 1925 y 1926 que, de cierta manera, completó la teorı́a cuántica planckiana. En esa ocasión, el pintor español Pablo Ruiz y Picasso (1881- -1973), a partir de 1925, comenzó su famosa etapa abstraccionista5 en la cual sus pinturas de cuerpos y cabezas quedan dislocadas, dando la impresión de ser imágenes dobles, figura 7. 5 Según Caruso y Araújo [3] hubo una etapa anterior en la pintura de Picasso, el cubismo, a partir de 1907, donde rompe con la rigidez de la geometrı́a euclideana. Es oportuno resaltar que esa etapa ocurre en la misma época en que Einstein ((1879–1955), premio nobel de fı́sica en 1921) comienza a desarrollar la Relatividad General, culminada en 1915 con su famosa teorı́a de la relatividad general que abandona la rigidez euclideana al sustituirla por la geometrı́a riemanniana. ¿Habrá un paralelo entre la fı́sica. . . ? José Marı́a Filardo Bassalo Figura 6. Parade de Cirque, Georges Seurat, 1889. Esto, sin embargo, no nos lleva a concluir esta etapa de Picasso presentase un carácter dual análogo al de la mecánica cuántica [5]. Ahora bien, aunque no se pueda trazar un paralelo objetivo entre la fı́sica y la pintura, fue encontrado subjetivamente por el brasileño Mario Schenberg (1914– 1990) quien además de ser un importante fı́sico teórico en el escenario internacional fue, también, un respetado crı́tico de arte. Agradecimientos Algunas de las ideas presentadas en este ensayo fueron sugeridas por mi esposa Celia, profesora de Teorı́a Literaria, y por mi estimado amigo Francisco Caruso Neto, profesor de fı́sica del Instituto de Fı́sica de la Univesidad del Estado de Rı́o de Janeiro, investigador del Centro Brasileño de Investigación en Fı́sica. No puedo dejar de agradecer ese momento mágico, ocurrido el primer dı́a del primer mes de 1983, cuando Internet comenzó su funcionamiento. Gracias a ella (entonces accesible, desafortunadamente, a unos cuantos) pudimos tener acceso a las maravillas del arte pictórica realizadas en cualquier sitio, en cualquier tiempo, de nuestro planeta Tierra. 57 Figura 7. Pintura abstraccionista de Picasso (1881– 1973). Referencias bibliográficas 1. Bassalo, J. M. F. 1991. O Liberal, 15 de noviembre 1994. 2. Caruso, F., Araújo, R. M. X. 1999. Fı́sica e Arte: Dois momentos de geometrização do mundo. Imagens da Transformação 6, p. 38. 3. Caruso, F., 2001. O Espaço na Fı́sica e na Arte. En: Martins, A. M. M. y Carvalho, M. de (Orgs.) Novas Visões: Fundamentando o Espaço Arquitetônico e Urbano, Booklink/PROARQ/FAU/UFRJ. 4. Thuillier, P. 1984. Espace et Perspective au Quattrocento. La Recherche 169, p. 1384. 5. Segré, E. 1980. From X–Rays to Quarks. W. H. Freeman and Company. cs Newton y las leyes de Kepler * José Marı́a Filardo Bassalo, Fundación Minerva, Prof. retirado de la Universidad de Pará www.bassalo.com.br * Traducción: Julio Solı́s, Depto. de Matemáticas, UAM–I. Newton y las leyes de Kepler. José M. Filardo Bassalo Introducción Para mı́, y probablemente para algunos lectores, debido a una interpretación equivocada sobre las lecturas hechas en algunos textos didácticos y de divulgación cientı́fica, parecı́a un hecho histórico incuestionable que el fı́sico y matemático inglés Sir Isaac Newton (1642–1717) habı́a demostrado las Leyes de Kepler usando un nuevo método matemático, el método de las fluxiones (hoy conocido como el Cálculo Diferencial), que él mismo habı́a creado (vea, por ejemplo, [3] p. 85). No obstante, esto no es cierto, conforme mostraremos en este artı́culo. Pero, primero haremos una revisión histórica de dichas Leyes. Antecedentes históricos Entre los años 151 y 157 de nuestra era, el astrónomo griego Claudio Ptolomeo (85–165) retomó y sistematizó los modelos planetarios geocéntricos, tales como el de las esferas concéntricas, formulado por los astrónomos griegos Eudoxo de Cnido (c. 408–c. 355) y Calipo de Cı́sico (c. 370–c. 300), y el modelo de epiciclo–deferente–excéntrica–ecuante que habı́a sido desarrollado por los griegos, el matemático Apolonio de Perga (c. 261–c. 190) y el astrónomo Hiparco de Nicea (c. 190–c. 120). Esa sistematización fue presentada por Ptolomeo en su célebre Hé Mathématiké Syntaxis (Una Compilación Matemática), para poder explicar el movimiento de los planetas y sus irregularidades. Esa obra, compuesta de 13 libros, fue traducida a la vuelta del siglo IX por los árabes, recibiendo entonces el nombre de Almagesto, que es una corruptela del nombre hispano–árabe Al–Magesti (El Gran Tratado). 59 las órbitas de los planetas, y en particular la del planeta Marte. Dentro de los seguidores de Copérnico, se encontraba el astrónomo alemán Johannes Kepler (1571–1630) quien, al aprender sobre el heliocentrismo copernicano de su maestro, el astrónomo Michael Maestlin, proporcionó una demostración matemática para el mismo. Esa prueba la obtuvo en virtud de que era un buen conocedor de toda la obra del gran matemático griego Euclides de Alejandrı́a (323–285), que se halla reunida en su famoso libro de geometrı́a intitulado Elementos. Con base en el modelo copernicano, con el Sol en el centro, Kepler colocó entre los espacios de las esferas que contenı́an a los seis planetas entonces conocidos (Mercurio, Venus, Tierra, Marte, Júpiter y Saturno), los cinco “sólidos perfectos” de la antigüedad (sólidos que tienen todas sus caras iguales: tetraedro, hexaedro, octaedro, dodecaedro e icosaedro), cada uno encajado dentro del siguiente. Ası́, disponiendo de dichos sólidos en el orden correcto, los diámetros de las esferas acabarı́an por presentar casi las mismas proporciones que las órbitas de los planetas. Ese primer modelo planetario de Kepler fue publicado en el libro intitulado Mysterium Cosmographicum (Misterio Cosmográfico), editado en 1596. El modelo de Ptolomeo se mantuvo aceptado durante muchos años, hasta que fue cuestionado y rechazado por el astrónomo polaco Nicolás Copérnico (1473–1543) en el famoso libro De Revolutionibus Orbium Coelestium (Las Revoluciones de los Cuerpos Celestes), publicado en 1543, en el que consolidó el modelo eliocéntrico para nuestro sistema planetario, aunque debemos comentar que su primera formulación fuera presentada por el astrónomo griego Aristarco de Samos (c. 320–c. 250). El heliocentrismo de Copérnico tuvo seguidores y detractores, y entre estos últimos destacó el astrónomo danés Tycho Brahe (1546–1601). Partiendo de la observación de que los planetas giraban en torno al Sol y, además, al no observar los paralajes estelares, Tycho Brahe formuló su propio modelo. En este modelo, los planetas giraban en torno al Sol, y éste, en conjunto con la Luna y todo el manto de las estrellas fijas, giraban en torno a la Tierra inmóvil. A pesar de esta concepción errónea del sistema solar, Tycho Brahe hizo grandes contribuciones a la astronomı́a, principalmente con sus observaciones sobre Al recibir ese libro de manos de Kepler, Tycho Brahe quedó impresionado con el contenido matemático del 60 ContactoS 82, 58-62 (2011) mismo, aún cuando no estuviera de acuerdo con el modelo heliocéntrico ahı́ presentado. Ası́ mismo, invitó a Kepler a trabajar con él en Praga, donde entonces residı́a. Al llegar a esa ciudad, en enero de 1600, Kepler recibió de Tycho la tarea de calcular la órbita de Marte. Al analizar las observaciones que Tycho hiciera de ese planeta, pensó que en poco tiempo halları́a la forma de la órbita marciana. No obstante, le tomarı́an varios años de arduo trabajo para encontrarla, como veremos a continuación. do al Sol como uno de sus focos. Al descubrir las leyes que rigen los movimientos de los planetas, Kepler se dispuso a determinar la relación entre las distancias y los periodos de tales movimientos. Después de algunas tentativas que relacionaban potencias de las distancias y los periodos, Kepler llegó finalmente a su tercera ley, presentada en el libro Harmonices Mundi (Armonı́a del Mundo), publicado en 1619, y que enunciamos a continuación: En sustitución de Tycho Brahe, que murió repentinamente el 24 de octubre de 1601, Kepler consiguió en 1602 ser designado matemático imperial de Rodolfo II (1552–1612), Rey de Hungrı́a y Bohemia, y Emperador del Sacro Imperio Romano, con sede en Praga. En vista de eso, y con algunas dificultades, Kepler consiguió “arrancar”de los herederos de Tycho los preciosos datos que éste habı́a recopilado del sistema planetario, primero en el observatorio de Uraniborg, en la isla de Hveen (hoy Ven) en Dinamarca, y después en Praga. Un primer análisis de las observaciones de Tycho llevaron a Kepler, en 1602, a enunciar su hoy conocida: Ley de los Periodos: La relación entre el cuadrado del periodo de revolución de un planeta y el cubo de su distancia media al Sol es una constante. El último trabajo de Kepler fue el libro Tabuloe Rudolphine (Tablas Rudolfinas), publicado en 1627, en homenaje de su antiguo protector, el Emperador Rodolfo II, y dedicado a la memoria de Tycho Brahe. Ese libro, que contenı́a las observaciones de Tycho Brahe y del mismo Kepler sobre los movimientos planetarios, fue durante un siglo un clásico y, para su confección, Kepler usó un nuevo método de cálculo matemático –los logaritmos– que habı́an sido inventados por el matemático escocés John Napier (1550–1617), en 1614. Ley de las áreas: El rayo vector que liga un planeta al Sol describe áreas iguales en tiempos iguales. Por otra parte, las observaciones de la órbita de Marte realizadas por Tycho indicaban que en cuanto más lejos ese planeta se encontraba del Sol, más lento era su movimiento y, por tanto, menor era su velocidad, además de indicar una pequeña excentricidad en su órbita. En virtud de esto, Kepler intentó, inicialmente, una serie de combinaciones de cı́rculos para la órbita de ese planeta. Pero, como encontró una diferencia de 8 minutos de arco y bajo el supuesto de que su maestro no hubiera cometido tal error, Kepler pasó a considerar órbitas ovaladas, después de experimentar, sin éxito, que cada esfera caracterı́stica de un planeta era en realidad un cascarón esférico de espesura suficiente como para explicar la excentricidad orbital. Después de realizar setenta ensayos para ajustar los datos de Tycho al modelo de Copérnico y del mismo Tycho, Kepler llegó finalmente a concebir la órbita elı́ptica. (Cabe mencionar que la idea de una órbita elı́ptica no era completamente nueva, dado que ya habı́a sido sugerida por el astrónomo árabe–español Azarquiel (Al–Zarqali) de Toledo (c. 1029–1100), en 1081, para explicar los movimientos de Mercurio.) Ası́, en el libro intitulado Astronomia Nova (Una Nueva Astronomı́a), publicado en 1609, además de enunciar su Ley de las áreas, obtenida en 1602, conforme ya vimos, Kepler enunció también la: Ley de las órbitas: Los planetas se mueven en torno del Sol en órbitas elı́pticas, tenien- Las contribuciones de Newton A partir de ahora, trataremos las contribuciones de Newton. Nacido el 25 de diciembre de 1642 en Woolsthorpe, perteneciente a la aldea de Colsterworth, cerca de 11 km al sur de Grantham, Licolnshire, en Inglaterra. Hijo de una pequeña familia de hacendarios y huérfano de padre a los dos meses de edad, Newton estaba destinado a seguir la vocación agrı́cola. Empero, en la Escola Real de Grantham fue un infante extraño, pues su mayor interés se centraba en los intrumentos mecánicos que él mismo fabricaba. El director de esa escuela, quien era además su tı́o materno, el Reverendo William Ayscough, y miembro del Trinity College, en Cambridge, convenció a la madre de Newton que éste debı́a estudiar en aquella universidad. Llegó a dicha universidad el 5 de junio de 1661, donde obtuvo el grado de Bachiller en Letras, sin distinción, en 1665. No obstante, cuando se preparaba para defender su maestrı́a, tuvo que abandonar Cambridge por dos años (1665–1666), y regresar a Woolsthorpe, debido a la peste bubónica que azotaba entonces en Londres. Durante ese periodo, Newton elaboró los fundamentos de su obra en Matemáticas, óptica y Astronomı́a. (Vea, para la vida de Newton [4].) Según su misma afirmación ([4] p. 39), Newton inventó los métodos directo e indirecto de fluxiones, entre noviembre de 1665 y mayo de 1666. Esa nueva técnica matemática era el modo de afrontar con grandes variaciones, como las que ocurren Newton y las leyes de Kepler. José M. Filardo Bassalo en el caso de las velocidades variables de los planetas, conforme indica la Ley de las áreas, enunciada por Kepler. Newton no empleó dicha técnica matemática para llegar a su Ley de Gravitación Universal, sino básicamente usó la Ley de los Periodos de Kepler, como él mismo expresa : “[. . . ] en el mismo año (1666), comencé a pensar en la gravedad como la que mantiene atada la órbita de la Luna (después de descubrir cómo calcular la fuerza con que un globo que gira dentro de una esfera presiona la superficie de la misma) a partir de la regla de Kepler de que los periodos de los planetas están en una proporción sesquiáltera con sus distancias al centro de sus órbitas, deduje que las fuerzas que mantienen los planetas en sus órbitas debı́an variar, en forma recı́proca, con el cuadrado de su distancia al centro en torno al cual giran: y a partir de eso, comparé la fuerza necesaria para mantener la Luna en su órbita con la fuerza de gravedad en la superficie terrestre, y descubrı́ que embonan perfectamente”([4] p. 39). Esos primeros cálculos realizados por Newton le permitieron pensar en la hipótesis de una ley universal que rigiera el movimiento de los planetas en torno del Sol. Empero, todavı́a quedaba mucho trabajo por hacer para que esa hipótesis se transformase en una realidad. En efecto, a comienzos de la década de 1680, un grupo de fı́sicos estaba interesado en el desarrollo de las novedosas ciencias matemático–experimentales; y se reunı́an para relatar sus propios hallazgos y proponer nuevos problemas. Ası́, para tres de los fı́sicos de ese grupo, los ingleses Robert Hooke (1635–1703), Sir Christopher Wren (1632–1723) y Edmundo Halley (1656–1742), entre los problemas que discutı́an, uno les resultaba particularmente intrigante: “¿Qué tipo de fuerza lleva a un planeta a describir una órbita elı́ptica en torno al Sol?”. A pesar de que Kepler habı́a sugerido que una fuerza de tipo magnética (anima motrix) e inversamente lineal, que emanada del Sol, era la responsable del movimiento planetario, ésta no era aceptada por los tres fı́sicos ingleses referidos anteriormente. Ası́, en una reunión de la Royal Society of London, en enero de 1684, Halley llegó a la conclusión de que la fuerza que actúa sobre los planetas varı́a en una razón inversa al cuadrado de su distancia, pero no fue capaz de deducir de esa hipótesis las Leyes de Kepler, principalmente la Ley de las órbitas. En febrero de 1684, Halley, Sir Wren y Hooke se reunieron y concordaron en tal hipótesis. Hooke llegó a decir en esa ocasión que ya habı́a considerado el que se demostrara con la misma todas las leyes del movimiento celeste. En virtud de esto, Sir Wren ofreció un premio para que Hooke, Halley o cualquier otro fı́si- 61 co escribiera un libro sobre ese tema. Como tal libro no fue escrito, en agosto de 1684 Halley resolvió ir a Cambridge y consultar a Newton. Al preguntarle sobre cuál serı́a la curva descrita por los planetas sobre los que actúa una fuerza de tipo inverso al cuadrado de la distancia, recibió de Newton la respuesta de que “era una elipse”. Pero, aunque Newton ya habı́a concebido tal respuesta, no contaba con una demostración en ese momento, por lo que prometió a Halley enviársela posteriormente. Estimulado por la visita de Halley, Newton retomó los cálculos que hiciera de las órbitas de los planetas hacı́a 20 años. Ası́, en otoño de 1684, Newton presentó una serie de conferencias en la Universidad de Cambridge, en las que fueron abordadas sus ideas sobre el movimiento de los cuerpos en general, sobre los conceptos de fuerza, masa, tiempo, además de su famosa ley de la gravitación universal. En noviembre de 1685, Newton envió a Halley un pequeño trabajo intitulado De Motu Corporum in Gyrum (Del Movimiento de los Cuerpos en una órbita), en el que reunı́a aquellas conferencias, cumpliendo ası́ la promesa que le hiciera en agosto del año anterior. En ese pequeño trabajo de nueve páginas, Newton habı́a demostrado que una fuerza inversamente proporcional al cuadrado implicaba una órbita cónica, misma que era una elipse para velocidades por debajo de cierto lı́mite ([4] p. 159). Incentivado por Halley, Newton comenzó a enriquecer el De Motu y, a la vuelta de noviembre de 1685, lo transformó en un tratado de dos volúmenes al que dió el nombre de De Motu Corporum (Del Movimiento de los Cuerpos). En éste, se halla la demostración de un resultado muy importante para su teorı́a de la gravitación universal, a saber, que la acción de una esfera homogénea sobre una partı́cula exterior es la misma que se tendrı́a si toda la masa de la esfera estuviese situada en su centro. Ası́, para Newton, todas las partı́culas sobre la vasta Tierra se combinarı́an para atraer tanto una manzana1 situada a unos cuantos pies de su superficie, como a la misma Luna. Ese tratado se transformó en el famoso Philosophiae Naturalis Principia Mathematica (Principios Matemáticos de Filosofı́a Natural), editado en 1687, 1 Según la versión de John Conduitt, esposo de Catherine, sobrina de Newton, éste llegó a la idea de la gravitación universal cuando observó, en 1666, en el manzanal de su casa de Lincolnshire, la caı́da de una manzana. De esa observación, se le ocurrió la idea de que el poder de la gravedad terrestre (que derrumba una manzana) no estaba limitado a una cierta distancia de la Tierra, sino que deberı́a de extenderse más allá de lo que se acostumbraba aceptar y, quien sabe, tal vez hasta la Luna ([4] p. 50). ContactoS 82, 58-62 (2011) 62 después de que Newton extendió el principio de gravitación universal, inicialmente aplicado al movimiento de la Luna, a todos los cuerpos celestes. El Principia está compuesto de tres libros. En el primer libro, Newton trata del movimiento de los cuerpos en el vacı́o, incluyendo el de los movimientos en órbitas elı́pticas, parabólicas e hiperbólicas, debido a fuerzas centrales, ocasión que aprovecha para probar las Leyes de Kepler. Además, al inicio del Libro I, se dan las formulaciones de las famosas Leyes de Newton: Ley de Inercia, Ley de la Fuerza y Ley de Acción y Reacción. En el Libro II, encontramos el estudio de los cuerpos en medios resistentes y la teorı́a de las ondas. Además, en ese libro, Newton demostró que, si los movimientos periódicos de los planetas se desarrollaran en torbellinos (vórtices) de materia fluida, siguiendo la hipótesis presentada por el matemático y filósofo francés René du Perron Descartes (1596–1650), en 1644, esos movimientos no satisfarı́an las Leyes de Kepler. Por último, en el Libro III, Newton usó algunos resultados obtenidos en los libros anteriores, principalmente la Ley de Gravitación Universal, para demostrar una “estructura del sistema del mundo”. Ası́, dentro de las proposiciones demostradas en el Libro III, destacan: la explicación del movimiento kepleriano de los satélites de la Tierra, de Júpiter y de Saturno; el cálculo de la forma de la Tierra (achatada en los polos y alargada en el ecuador); una explicación del fenómeno de las mareas (atracción gravitacional del Sol y de la Luna sobre las aguas de los océanos); y la precesión de los equinoccios (observada por primera vez por el astrónomo babilonio Kiddinu (f.c. 397 a.n.e.)) como debido a la diferencia entre la fuerza de gravitación solar y lunar actuando en el plano ecuatorial alargado de la Tierra [2]. Comentarios Finales A manera de conclusión de este artı́culo, haremos algunos comentarios sobre las demostraciones geométricas hechas por Newton de las Leyes de Kepler. Para la demostración de la Ley de las áreas, Newton consideró que el movimiento de un planeta en torno del Sol es el resultado de una competencia entre la tendencia del mismo a seguir una lı́nea recta con movimiento uniforme, como si ninguna fuerza actuase sobre él (Ley de Inercia), y el movimiento debido a la fuerza central de gravitación ejercida por el Sol. De ese modo, mediante algunos teoremas de geometrı́a plana, principalmente los relacionados con semejanzas y áreas de triángulos, llegó a aquella demostración. Por otra parte, Newton obtuvo la demostración de la Ley de las órbitas en varias etapas, con el uso de al- gunas propiedades de las secciones cónicas2 . Inicialmente, demostró que, cuando un cuerpo se mueve en una órbita elı́ptica bajo la acción de una fuerza centrı́peta dirigida a uno de los focos de esa cónica, dicha fuerza varı́a como el inverso del cuadrado de la distancia. Enseguida, probó que, si el mismo cuerpo se mueve en una hipérbola o una parábola bajo la acción de una fuerza centrı́peta dirigida a uno de los focos de la cónica considerada, dicha fuerza también varı́a como el inverso del cuadrado de la distancia. Por último, probó el problema inverso, a saber, si un cuerpo se mueve sujeto a una fuerza centrı́peta que varı́a como el inverso del cuadrado de la distancia, la trayectoria del cuerpo tiene que ser una cónica: elipse, parábola o hipérbola. Finalmente, como una aportación de este artı́culo, resulta importante remarcar que la hipótesis de que una fuerza centrı́peta variaba como el inverso del cuadrado de la distancia, usada por Newton en la demostración de la Ley de las órbitas, conforme vimos antes, le fue sugerida al observar que la Ley de los Periodos de Kepler se ajustaba muy bien en el caso particular de una órbita circular. Bibliografı́a 1. David L. Goodstein y Judith R. Goodstein. A Licão Esquecida de Feynman: O Movimento dos Planetas em Torno do Sol. Gradiva, (1997). 2. I. Newton. Principios Matemáticos de Filosofı́a Natural. Técnos, (1987). 3. Colin A. Ronan. História Ilustrada da Ciência (III), Jorge Zahar Editor, (1987). 4. Richard Westfall. A Vida de Isaac Newton. Editora Nova Fronteira, (1995). cs 2 Debido a que no pudo entender bien esas demostraciones, el fı́sico norteamericano Richard Philips Feynman (1918– 1988) preparó en 1964 una demostración geométrica de la Ley de las órbitas de Kepler. Esa prueba está magnı́ficamente “explicada” en el libro intitulado Una Lección Esbozada de Feynman: El Movimiento de los Planetas en Torno del Sol, de D. Goodstein y J. Goodstein [1]. (Aprovecho la oportunidad para agradecer al Profesor José Acácio de Barros, del Departamento de Fı́sica de la Universidad Federal de Juiz de Fora, por llamar mi atención para ese libro y sugerirme la lectura de ese artı́culo. Agradezco también al Profesor Vı́tor Facanha Serra, del Departamento de Fı́sica de la Universidad Federal de Pará, por haberme ofrecido un ejemplar de dicho libro). El papel de las intuiciones en el descubrimiento y la invención en fı́sica* José Marı́a Filardo Bassalo, Fundación Minerva, Prof. retirado de la Universidad de Pará www.bassalo.com.br * Traducción por J. L. Córdova, Depto. de Quı́mica, UAM– Iztapalapa. joseluiscordovafrunz@gmail.com ContactoS 82, 63-72 (2011) 64 Resumen Cuando jóvenes, sea por libros de texto o de divulgación, llegamos a conocer las admirables historias de algunos descubrimientos e inventos cientı́ficos, por ejemplo, la de Arquı́mides que corriendo por las calles de Siracusa gritaba “Eureka, eureka” (¡Lo encontré, lo encontré!) al descubrir que se volvı́a menos pesado al entrar en la tina llena de agua; hecho del cual formuló el Principio de flotabilidad. Otro caso es el de Newton, quien al ver caer una manzana en la finca de Woolsthorpe inició su reflexión que culminó en la Teorı́a de la Gravitación. O bien de Kekulé, que al soñar con una uroboro (la cobra que muerde su propia cola), intuyó la estructura hexagonal del benceno. O los descubrimientos accidentales de Roentgen y Becquerel de los rayos X y a la radioactividad, respectivamente. Todas esas anécdotas (y otras más que analizaremos en este artı́culo), aunque extravagantes, están vinculadas a algo más profundo que los filósofos y psicólogos llaman intuición. En este artı́culo mostraremos mediante diversos ejemplos el papel creador de la intuición en los descubrimientos e invenciones en fı́sica. La intuición es una de las etapas del proceso creativo y, en consecuencia, es común a la ciencia y al arte (incluyendo al humor). Bronowski afirma que, siendo la naturaleza llena de una variedad infinita, el hombre creativo, debe proponer semejanzas, estructuras comunes a toda esa variedad a fin de encontrar “la unidad en la diversidad”. De hecho, su definición de “belleza” “unidad expresada en la variedad” es la misma propuesta por Samuel Taylor Coleridge (1772–1834). Por otro lado, el filósofo norteamericano George Frederick Kneller (1908–) en su libro “Arte y ciencia de la creatividad”, después de estudiar un gran número de textos acerca de la creatividad, concluye que cada persona “constituye un patrón singular de potencialidades” y que, por consiguiente, cada persona debe ser educada para el desarrollo de sus propias potencialidades. Para ello, prosigue Kneller, el alumno debe combinar el conocimiento adquirido con el que ha obtenido en otras áreas de experiencia”. Ası́, una persona, al estudiar determinado asunto, en vez de apenas juntar las nuevas ideas con las ya estudiadas de una misma disciplina, debe inventar nuevos patrones de ideas o activar ideas inertes, como propone el matemático y filósofo Alfred North Whitehead (1861–1947). Para ser creativo, afirma Kneller, deben vincularse las ideas mediante la intuición. La creatividad El cientı́fico y filósofo polaco Jacob Bronowski (19081974) en su libro El sentido del futuro, afirma que “un hecho es descubierto” y que “una teorı́a o un instrumento son inventados”; para que haya “creación” en un descubrimiento o invención, es necesario que haya una profunda participación personal del descubridor o inventor. Para ilustrar esta opinión, Bronowski acude a diferentes ejemplos. Para él, el descubrimiento de las Indias Occidentales en 1492 por Colón (1451–1506) y la invención del teléfono en 1876 por Alexander Graham Bell (1847–1922) no son actos creativos pues las Indias ya existı́an antes de Colón y los hechos básicos para la invención del teléfono, también. En el caso del teléfono, Bronowski sostiene1 que si el teléfono no hubiese sido inventado por Bell lo habrı́a sido por otro; en cambio el “Otelo” de William Shakespeare (1564–1616) y el “quantum de energı́a” (1900) de Max Planck (1858– 1947) son genuinas creaciones por ser profundamente personales. Ahora bien, la proporcionalidad entre la energı́a E y la frecuencia ν ya habı́a sido propuesta por William Rowan Hamilton (1805–1865) entre 1828 y 1837 pero no existı́a ninguna evidencia experimental de la discontinuidad de la energı́a de forma que podemos suponer, por éstos y otros datos históricos que se habrı́a desarrollado la teorı́a cuántica sin Planck. La creatividad fue estudiada también por el filósofo y novelista Alfred Koestler (1905–1983) en su libro “El acto creativo”. Para él, los procesos creativos revelados en el humor, el arte y la ciencia, participan de un mismo patrón: la bisociación, esto es, la conexión simultánea de niveles de experiencia que surgen de esquemas de pensamiento o de comportamiento: las matrices. Para Koestler el acto creativo en ciencias ocurre de la fusión de dos matrices de pensamiento2 hasta entonces no relacionadas, resultando una nueva sı́ntesis que lleva a otras. Para demostrar su tesis, Koestler describe varios casos de bisociación cientı́fica. Por ser sumamente didáctica, usaremos la invención de la imprenta de tipos móviles (ca. 1438) por Johannes Gensfleich Zur Lade, más conocido como Gutenberg (1397–1468). Como sabemos por sus cartas, pretendı́a un método de producción de libros más rápido que el labrado en bloques de madera de cada letra a fin de hacer la matriz de madera para cada página. Al principio consideró la idea de fundir letras, como las usadas en los sellos de cambio, lo que permitirı́a su uso repetido; sin embargo, se percató de que una letra fundida de tal manera no producirı́a una impresión satisfactoria en el papel. Con todo, cierto dı́a que observaba el funcionamiento de una prensa de vino tuvo la 1 Basado en los trabajos de Isaac Asimov y Peter Wymer. 2 Henri Poincaré explica en términos análogos su descubrimiento de las funciones fuchsianas en su libro “Ciencia y método”. El papel de las intuiciones en el descubrimiento. . . José M. Filardo Bassalo 65 intuición crucial. Dos órdenes de pensamiento —uno asociado a la prensa de vino, el otro al sello— convergieron en una letra fundida como un sello y prensada contra un papel lográndose mayor nitidez. Esta cita se encuentra ampliamente documentada en el libro de G. F. Kneller Arte e Ciência da Criatividade, Instituiçao Brasileira de Difusão Cultural, S. A. IBRASA, 1978. Surge una pregunta acerca de la conceptualización mencionada ¿existirá un patrón en el acto de creatividad? En otras palabras ¿existen procesos similares caracterı́sticos de la creatividad? Entre los estudiosos del tema se acepta ampliamente que el proceso creativo está constituido básicamente por cuatro etapas:3 1. Preparación. 2. Incubación. 3. Iluminación. 4. Verificación. Para Kneller, estas etapas deben ser precedidas por otra llamada primera aprehensión si bien Abraham Antoine Moles, en su libro “La creación cientı́fica” (1971) propone una etapa anterior: la formulación. Ası́, una persona al tener una idea (primera aprehensión) sobre determinado asunto debe, en primer lugar, familiarizarse con otras ideas relacionadas aunque no sean cercanas a aquélla. En otras palabras, la etapa de “preparación” puede llamarse “documentación”. Después de haber trabajado conscientemente hay un periodo de actividad inconsciente o subliminal (como afirma Poincaré en el libro referido) llamado “incubación”. Por otro lado, la etapa, más bien momento, de “iluminación” constituye el clı́max del proceso creativo; es el instante en que se percibe que se ha encontrado la solución del problema; es el instante de la intuición y la inspiración. Puesto que ésta es falible el proceso creativo debe ser completado, tal como propone Karl Raimund Popper4 “la intuición, sin lugar a dudas, es tan importante para el cientı́fico como para el poeta; sin embargo, lo mismo puede llevarlos al éxito que al fracaso”. Un ejemplo al respecto es la falsa predicción del planeta Vulcano, localizado según Urbain Jean Joseph Le Verrier (1811–1877) entre Mercurio y el Sol. Tanto Le Verrier como el astrónomo inglés John Couch 3 Es interesante anotar que también fueron propuestas por Graham Wallas en 1921 a partir de los escritos de Hermann Ludwig von Helmholtz (1821–1894). 4 La sociedad abierta y sus enemigos (1945). Adams (1819–1892) habı́an demostrado teóricamente que las perturbaciones de la órbita del planeta Urano se debı́an a otro planeta. Tal hipótesis fue confirmada en 1846 con el descubrimiento de Neptuno por Johann Gottfried Galle (1812–1910). Por lo anterior, Le Verrier intuyó que la precesión del perihelio de Mercurio se debı́a a un cinturón de asteroides interno, parte del cual era Vulcano (1855). Las anomalı́as mencionadas fueron explicadas por la Teorı́a de la Relatividad General de Einstein en 1915. Pero regresemos a las cuatro etapas del proceso creativo. La “iluminación” es condición necesaria, pero no es suficiente. Para completar el proceso creativo se requiere la “verificación”, en la cual las ideas intuidas son elaboradas conscientemente o modificadas y, finalmente, formalizadas. Como norma, esta etapa es la más larga y difı́cil; puede durar varios años de intentos de verificación, incluso con nuevas intuiciones, hasta dar forma final a la obra. La necesidad de verificar las intuiciones es narrada por John Karl Friedrich Gauss (1777–1855): “Logré el resultado, pero no sé como demostrarlo”. La lentitud y dificultades de esta etapa se ejemplifican con la conocida frase del inventor Thomas Alva Edison (1847–1931): “Invención: 1 % de inspiración y 99 % de transpiración”. En esta fase de verificación, además de una intensa actividad lógico– racional, el creador debe ejercitar su espı́ritu crı́ti- 66 ContactoS 82, 63-72 (2011) co; lo cual obliga a reformular el concepto inicial o. . . a abandonar la obra. En “Los sonámbulos” (1961), Koestler describe los intentos de Johannes Kepler (1571–1630) por obtener las leyes que describen los movimientos planetarios alrededor del Sol; las formulaciones finales casi nada conservan de las ideas iniciales. Por otro lado, Kneller ejemplifica con poemas de Coleridge que retienen sólo algunas frases de la inspiración inicial. De lo expuesto podemos decir que la creatividad tiene caracterı́sticas dionisı́acas (intuitivas) y apolı́neas (lógico–racionales). Después de esta disgresión sobre la creatividad regresemos al tema principal de este artı́culo: la intuición. Platón (ca. 428–ca. 348) la consideraba fuente de conocimiento y distinguı́a la “intuición espiritual” de la “intuición sensible”; para él las ideas son percibidas inmediata y espiritualmente por la razón. Se trata, de una intuición estrictamente racional. La distinción entre ambas es clara; por la intuición sensible percibimos las formas y apariencias de los cuerpos; es sólo por la intuición espiritual que distinguimos un objeto azul de uno verde o uno esférico de otro cilı́ndrico. Por ser el conocimiento una relación entre sujeto y objeto, conforme enseña Johannes Hessen (Teorı́a del conocimiento, 1973), se ve que la intuición sensible es inherente a todo sujeto y establece una relación directa entre él y el objeto, sin intervención del intelecto. Por otro lado, la intuición espiritual exige un pensamiento por parte del sujeto para relacionarse con el objeto. 1. Pensamiento, ligado a la razón. 2. Sentimiento, ligado a la emoción. 3. Voluntad, ligado a la volición. La intuición emotiva como forma de conocimiento fue reconocida por varios filósofos y sintetizada por el matemático francés Blas Pascal (1623–1662) en su célebre aforismo: “El corazón tiene razones que la razón desconoce”. Por otro lado, todo objeto presenta tres aspectos: esencia, valor y existencia, vinculados respectivamente a las dimensiones apuntadas. Una cuestión que surge naturalmente es ¿existe una intuición volitiva? Uno de los primeros filósofos en plantearla fue el alemán Johann Gottlieb Fichte (1762–1814) al observar que la existencia del Universo y la misma existencia del sujeto dependen de una afirmación voluntaria del propio sujeto, lo que significa que el sujeto al afirmarse a sı́ mismo, o al afirmar la existencia de un objeto, lo hace por un acto de la voluntad y no por el pensamiento. Uno de los puntos cimeros de esta intuición volitiva la encontramos en Wilhelm Dilthey (1833–1911) quien afirma que la existencia de las cosas no puede ser demostrada por la razón, ni puede ser descubierta por el pensamiento; debe ser intuida por nuestra voluntad pues antes de ser entes de pensamiento, deseamos, queremos y tenemos apetitos.5 Lo expuesto acerca de la intuición puede resumirse ası́: por medio de la intuición racional o intelectual el sujeto percibe la presencia del objeto; por medio de la intuición emotiva el sujeto percibe el valor del objeto; por medio de la intuición volitiva percibe la existencia del objeto. Hasta aquı́ hemos sostenido que la intuición proporción conocimiento, sea por la razón o por la emoción; con todo, la estructura psı́quica del sujeto está constituida por tres dimensiones cognitivas: En el rápido bosquejo que hicimos del proceso creativo vimos que la intuición es una etapa del mismo. Vimos, también, que la intuición nos proporciona conocimiento de diferentes dimensiones, racio- La intuición platónica de las ideas fue retomada por el filósofo egipcio Plotino (205–270) quien la sustituyó por la intuición del nous cosmico, la cual no es una contemplación puramente racional sino que está fuertemente impregnada de elementos emocionales. Esta intuición tiene gran impulso con San Agustı́n (354–430) quien sustituye al nous cosmico por el dios del cristianismo. A pesar de que San Agustı́n afirma que las verdades y conceptos superiores provienen de la iluminación divina admite el conocimiento empı́rico. 5 La idea está desarrollada en “Fundamentos de filosofı́a”, Manuel Garcı́a Morente, 1970. El papel de las intuiciones en el descubrimiento. . . José M. Filardo Bassalo 67 construir lógicamente el proceso creativo”. De modo análogo, Einstein (1879–1955) afirmaba: “Ningún camino lógico lleva de las leyes elementales a las generales; pienso que hay una intuición que se desarrolla paralelamente a la experiencia”. También Pyotr Leonidovich Kapitza (1894–1984) sostiene la etapa no–lógica de la solución de problemas cientı́ficos. En una de sus conferencias expresó: “La capacidad del cientı́fico para resolver problemas importantes sin acudir a una estructura lógica definida en ese proceso es lo que llamo intuición”. El descubridor de la superfluidez del helio afirma que las caracterı́sticas primordiales del pensamiento creador son imaginación y audacia, “en ciencias hay cierta etapa de desarrollo de los conceptos básicos; la erudición no es esencial, pero sı́ la imaginación, el pensamiento concreto y, sobre todo, la audacia”. El fı́sico brasileño Mario Schenberg (1914–) tiene el mismo punto de vista: “Un gran fı́sico no es el que sabe más fı́sica que otro sino el que tiene más imaginación”. nal, emocional, volitiva, de lo cual surge la pregunta ¿cuál predomina en la creatividad cientı́fica? Varios filósofos y fı́sicos que han estudiado este tema coinciden en afirmar que la solución de problemas cientı́ficos está precedida por una etapa no lógica, no consciente y atemporal. Por ejemplo, Jacob Bazarian, en su libro “Intuición heurı́stica: un análisis cientı́fico de la intuición creadora” (1973) distingue dos formas de intuición, la intuición de evidencia por la cual el sujeto verifica la autenticidad de un determinado hecho o relación al presentir la claridad de una idea o un postulado, y la intuición heurı́stica6 por la cual el sujeto presiente o adivina la solución de un problema o descubre algo nuevo. Para Bazarian esta última forma de intuición sólo entra en acción cuando el conocimiento empı́rico y abstracto no puede resolver el problema que nos preocupa; sus caracterı́sticas son: repentina, inmediata, no consciente y, lo más importante, emerge sin suficientes datos. Por otro lado, Karl Popper coincide en “La lógica de la investigación cientı́fica”(1934) con el filósofo francés Henri Bergson (1859–1941) acerca de la no racionalidad de la intuición creadora: “no hay un método lógico de concebir ideas nuevas o de re6 Del griego heuriskein “encontrar, hallar”. Si bien Kapitza y Schenberg enfatizan el papel de la imaginación, como sinónimo de intuición, hay cientı́ficos que le dan otro significado. Gerald Holton, por ejemplo, al estudiar el famoso experimento de Millikan le da un sentido mucho más amplio; no la considera como una etapa del proceso creativo sino como todo un mecanismo usado por el cientı́fico en su trabajo creativo. Ası́, para Holton, el estudio de los descubrimientos cientı́ficos es una búsqueda de modelos de imaginación. Por otro lado, Bronowski resalta otro aspecto de la imaginación como puede ser la idealización de situaciones como experimento mental. Nuestra opinión al respecto es que los experimentos mentales siempre serán inaccesibles a la experiencia real aunque pueden conducir al conocimiento efectivo; Bronowski, en cambio, sostiene que nada de lo que imaginamos puede ser transformado en conocimiento efectivo hasta que lo convirtamos en realidades; el examen de la imaginación es la experiencia tanto en la ciencia como en el arte; en la ciencia el experimento imaginario es examinado con la experiencia fı́sica; en el arte, con la experiencia humana. A pesar de que los filósofos y fı́sicos aceptan la existencia de una etapa no–lógica poco aportan acerca de la naturaleza de tal etapa, esto es, si es racional, emotiva o volitiva. La cuestión, a decir verdad, puede extenderse a la creación artı́stica. La relación entre genio y locura ya se afirmaba entre los filósofos antiguos, Demócrito, Platón, Aristóteles, Horacio, quienes veı́an la creación poética como una forma de demencia. Los filósofos románticos conservaron la idea de este vı́nculo pero, al libe- 68 rarse el arte del principio de imitación de la realidad, comienza a prevalecer la personalidad del artista en el acto creador; la atención se desplaza del objeto al sujeto pues el ideal artı́stico ya no es la imitación de la naturaleza sino la expresión de los sentimientos, deseos y aspiraciones del artista. Para el poeta francés Louis Charles Alfred de Musset (1810– 1857) la teorı́a expresiva de la creación poética consiste en enfatizar la emoción como fuente primordial “es el corazón el que habla y suspira, la mano sólo escribe”. Musset enfatiza la relación entre belleza y sufrimiento: “los [versos] más desesperados son los más bellos; los [poemas] inmortales nacen de sollozos”. Hoy se acepta que la creación artı́stica es una mezcla de pensar, sentir y querer, a pesar del énfasis dado por los poetas románticos al sentir y que otros restringen el sentir al espectador de la obra de arte. De este parecer es el poeta brasileño João Cabral de Melo Neto quien afirma: “El poema salió de mı́ como de quien se lava las manos”. El pensamiento creativo se da tanto en ciencias como en artes. Si el cientı́fico busca descubrir hechos y principios (o la aplicación de teorı́as), el artista busca interpretar imaginativamente objetos, relaciones o valores; ambos viven la emoción de la creación, ambos tienen un periodo de incubación antes de que sus pensamientos se aclaren a partir del chispazo de la intuición. En nuestro parecer, ambas crea- ContactoS 82, 63-72 (2011) ciones son una mezcla de las tres intuiciones: racional, emotiva y volitiva y, en lo que sigue, daremos ejemplos de la historia de la fı́sica después de una clasificación provisional de estas intuiciones: Intuiciones emocionales son las que resultan de ideas aisladas y que, la mayorı́a de las veces, están más allá de la comprensión del sujeto y fuera del paradigma cientı́fico vigente. En estos casos el sentir es más fuerte que el pensar. Intuiciones racionales, aquéllas que parten de trabajos conscientes sobre determinado problema y que, frecuentemente, ocurren fuera del ambiente de trabajo. En estos casos la razón predomina sobre el sentimiento y, a veces, sobre la voluntad. Intuiciones volitivas, aquéllas que resultan de accidentes verificados en el ambiente de trabajo, hacia los cuales estaba dispuesta la atención del cientı́fico. A partir de la existencia del fenómeno inesperado surgen nuevas ideas relacionadas. Como afirma Bronowski “sólo una mente atenta puede transformar un accidente en un acto providencial” y antes lo habı́a hecho Jenofonte (s. V a.n.e.) “Quien no espera lo inesperado jamás lo percibirá”. Existen varios ejemplos históricos de intuiciones emotivas que, según Schenberg, son comunes en ma- El papel de las intuiciones en el descubrimiento. . . José M. Filardo Bassalo temáticas y se deben a una actividad inconsciente altamente operativa (como las califica Piaget). El más famoso es el de Pierre Fermat (1601–1665) quien propuso en 1637: La ecuación xn + y n = z n no tiene solución para valores enteros de x, y y z si n > 2 Conocido como “último teorema de Fermat” fue objeto de estudio de varios matemáticos célebres quienes sólo lograron demostraciones particulares del mismo hasta que el matemático inglés Andrew Wiles y su ex–estudiante Richard Taylor, utilizando complejos de la geometrı́a algebraica, desarrollaron una prueba publicada en 1995 en los Annals of Mathematics. Existen otros ejemplos de intuiciones emocionales o aisladas en matemáticas, tal como muestra Carl B. Boyer en A History of Mathematics (1968). Son famosas las propuestas por David Hilbert (1872–1943) en el 2o. Congreso Mundial de Matemáticas de 1900. Después de analizar las tendencias de las investigaciones matemáticas del s. XIX, Hilbert propuso 23 problemas en aritmética, topologı́a, ecuaciones diferenciales, cálculo de variaciones, etc. que deberı́an ocupar la atención de los matemáticos del siglo XX. Entre las conjeturas de Hilbert más importantes están las relativas a la consistencia de la aritmética: dado un número finito de axiomas ¿será siempre posible deducir cualquier postulado? En otras palabras, a partir de un número finito de pasos basados en un conjunto de axiomas de la aritmética ¿nunca llegaremos a resultados contradictorios? El matemático checo Kurt Goedel (1906–1978) demostró en 1931, usando la teorı́a de los números, que un sistema matemático lógico tiene proposiciones que no pueden ser demostradas —la famosa prueba de Goedel— el problema de la consistencia, con todo, permanece aún abierto. 69 También en fı́sica hay ejemplos célebres de intuiciones emocionales o aisladas. Newton fue pródigo en tales intuiciones, en su libro “Óptica” (1704) revela su intuición sobre la naturaleza eléctrica de las fuerzas dentro de un átomo en una época que ignoraba todo acerca de la electricidad y de los átomos. Su hipótesis fue confirmada más de 200 años después con la teorı́a atómica. Si bien Newton propuso una teorı́a corpuscular de la luz, el aspecto ondulatorio de la misma no le era desconocido. En el libro referido habla de los experimentos del fı́sico italiano Francesco Maria Grimaldi (1618–1663) de difracción de la luz, publicados sólo después de la muerte de Grimaldi. También habla de los experimentos del médico danés Erasmus Bartholinus (1625–1698) sobre la doble refracción. Para poder interpretar la difracción, Newton intuyó que las regiones claras y oscuras del patrón de difracción resultarı́an del paso o no de los corpúsculos por la ranura. Para explicar la doble refracción del espato de Islandia propuso que los corpúsculos tuvieran lados con lo que intuyó la idea de transversabilidad de la luz. Esta idea fue tomada por el médico inglés Thomas Young (1773–1829) en 1871 cuando ya no habı́a dudas de la naturaleza ondulatoria de la luz gracias a los experimentos de interferencia del mismo Young (1801) y los de polarización de Étienne Louis Malus (1775–1812) de 1808. Al estudiar la historia de la electricidad y del magnetismo encontramos muchos ejemplos de intuiciones emocionales. Ası́, el médico y fı́sico inglés William Gilbert (1544–1603), al hacer los primeros estudios sobre estos temas tuvo la intuición de las fuerzas eléctrica y magnética a fines del siglo XVI, una época en que el mismo concepto de fuerza estaba por elaborarse. Decı́a Gilbert que cuando un cuerpo electrizable era frotado se extraı́a de él un fluido eléctrico o humor, las propiedades atractivas y repulsivas del cuerpo se explicaban por un efluvio eléctrico. La explicación actual de un electrón arrancado por el frotamiento y del efluvio como campo eléctrico resultante de la carga positiva no es muy lejana a la propuesta original. Para Gilbert no existı́a el humor magnético pues los imanes ya poseı́an el efluvio magnético; la observación de que no se podı́an aislar polos (humores) magnéticos fue hecha por Petrus Peregrinus de Maricourt (ca. 1240–?) alrededor de 1269. André Marie Ampère (1775–1836) repitió en 1820 los experimentos del fı́sico danés Hans Christian Oersted (1777–1851) acerca del efecto magnético de la corriente eléctrica, notó que un hilo enrollado en espiral (el actual solenoide) se comportaba como un imán al paso de la corriente eléctrica. También observó que las fuerzas entre los alambres conducto- 70 res eran atractivas para corrientes en el mismo sentido y repulsivas para el sentido opuesto. En 1822, Ampere tuvo la intuición emocional de que el magnetismo natural resultaba de corrientes circulares diminutas, como si fuesen fluidos eléctricos dentro de los átomos. Las hoy conocidas como corrientes amperianas estarı́an orientadas en las sustancias no– magnéticas de forma que su efecto total fuese nulo. El desarrollo de la teorı́a atómica de la materia, basada en el modelo de electrones girando alrededor de un núcleo7 mostró lo correcto de la intuición de Ampere. El estudio de las propiedades magnéticas de la materia nos da otro ejemplo de intuición emotiva. En 1895, en su tesis de doctorado, el fı́sico francés Pierre Curie (1859–1906) mostró que la susceptibilidad magnética de un material paramagnético (v.gr. el oxı́geno) variaba en razón inversa de su temperatura absoluta, la hoy conocida ley de Curie, y que una sustancia ferromagnética se comporta como una paramagnética cuando se sobrepasa una temperatura crı́tica, la hoy conocida temperatura de Curie. Tales leyes no tenı́an una explicación teórica hasta que Paul Langevin (1872–1946) en 1905, intuyó que los materiales paramagnéticos presentaban momentos magnéticos permanentes con lo cual logró demostrar la ley de Curie. Su hipótesis de partida era que el material paramagnético a cierta temperatura colocado en un campo magnético externo presentaba sus momentos magnéticos permanentes distribuidos espacialmente según la distribución de Boltzmann. La importancia de esta intuición emocional de Langevin se desprende del resultado que obtendrı́a de la teorı́a clásica lorentziana de los electrones (1892) 7 El modelo planetario tuvo entre sus creadores a Jean Baptiste Perrin (1870–1942) y Hantaro Nagaoka (1865–1950) en 1904. ContactoS 82, 63-72 (2011) pues habrı́a llegado a un resultado nulo, mostrando que el paramagnetismo es incompatible con la mecánica y el electromagnetismo clásicos. Lo que Langevin intuyó fue que el momento magnético del átomo o de la molécula tiene un valor fijo con lo que, sin saberlo, estaba cuantizándolo. Esta cuantización fue determinada experimentalmente en 1922 por los fı́sicos alemanes Otto Stern (1888–1969) y Walther Gerlach (1899–1979) al observar la desviación de un haz de átomos de plata moviéndose a través de un campo magnético inhomogéneo; con ello se mostró que los electrones atómicos no podı́an tomar cualquier orientación espacial (como fue intuido por Langevin) sino sólo algunas. Es oportuno decir que la fórmula de Langevin fue modificada por el fı́sico francés León Nicolás Brillouin (1889–1969) en 1927 utilizando la mecánica cuántica. Una de las más notables intuiciones emocionales es la de lı́nea de fuerza de Faraday (1791–1867) aproximadamente en 1837. En ese tiempo, las fuerzas eléctrica, magnética y gravitacional eran consideradas acciones a distancia, esto es, actuaban en los cuerpos a través del espacio vacı́o. Faraday, al observar las figuras formadas por las limaduras de hierro (también observadas por Petrus Peregrinus en 1269) las interpretó como tubos de hule que se extendı́an más allá de los alambres conductores, de los imanes, o de los cuerpos electrizados. Para Faraday las lı́neas de fuerza eléctrica eran debidas a la polarización eléctrica del medio y al espacio dotado de estas lı́neas lo llamó “campo de fuerzas”. Con estas ideas explicó la aparición de una corriente inducida cuando un tubo de fuerza magnética cortaba a un alambre conductor e, inversamente, el movimiento de los tubos de fuerza eléctrica hacı́a aparecer campos magnéticos. La formalización de la intuición de Faraday (quien no estaba muy dotado en matemáticas) fue hecha por el fı́sico y matemático escocés James Clerk Maxwell (1831–1879) entre 1864 y 1873 con su Teorı́a del Campo Electromagnético cuyo principal resultado fue la unificación de la óptica, la electricidad y el magnetismo. En 1865, Maxwell demostró que las ondas electromagnéticas se propagan en el vacı́o a la velocidad de la luz. En el campo de la mecánica una de las más conocidas intuiciones emocionales es la de Galileo Galilei (1564–1642), descrita en su libro “Diálogo acerca de dos principales sistemas del mundo” (1632). Galileo discute el resultado de los experimentos mentales acerca del movimiento ascendente y descendente de los cuerpos en planos inclinados lisos. Al observar que un cuerpo, en un plano inclinado, retrasa su movimiento ascendente y acelera el descendente infirió que se moverı́a a velocidad constante en un plano horizontal. Galileo tuvo la intuición del con- El papel de las intuiciones en el descubrimiento. . . José M. Filardo Bassalo cepto de “inercia”; sin embargo, influido por la concepción griega de la perfección del movimiento circular, pensó que el movimiento inercial serı́a circular y no rectilı́neo. La formulación correcta del principio de inercia fue dada, en 1644, por el filósofo y matemático francés René Descartes (1596–1650) en su libro Principia Philosophiae, al afirmar que un cuerpo no puede alterar por sı́ mismo su estado de movimiento, a no ser por la acción de otro objeto. Es oportuno recordar que en ese libro introduce el concepto de “cantidad de movimiento” (masa × velocidad) y su ley de conservación: “El Universo no tiene hoy ni más ni menos cantidad de movimiento que cuando fue creado”. Otro ejemplo notable de intuición emocional es el que tuvo el matemático francés Pierre Simón de Laplace (1749–1827) acerca de los hoyos negros. En 1795, propuso la invisibilidad de una estrella con masa extraordinaria y densidad enorme partiendo de la teorı́a gravitacional de Newton y de la óptica. Tal invisibilidad resultaba del hecho de que la velocidad de escape en la superficie de la estrella serı́a superior a la velocidad de la luz. Sin embargo, en 1783, John Michell (1724–1793) ya habı́a aventurado tal idea. La demostración matemática de esta intuición fue lograda por el astrónomo alemán Karl Schwarzchild (1873–1916) al obtener una solución de las ecuaciones de relatividad generalizada de Einstein, que una estrella, en su proceso evolutivo, podı́a sufrir un colapso gravitacional volviéndose tan masiva que la radiación luminosa serı́a incapaz de salir de su interior. 71 Concluiremos la parte referente a las intuiciones emocionales considerando dos ejemplos de cientı́ficos brasileños. Al estudiar Mario Schenberg en 1941 la teorı́a de los mesones, intuyó que las interacciones fuertes de estas partı́culas sugerı́an una violación de la paridad. Propuesta por el fı́sico húngaro Eugene Paul Wigner (1902–1995) la conservación de la paridad era un dogma por lo cual el trabajo de Schenberg no fue considerado, a pesar de que existı́an evidencias de tal violación, como los experimentos con electrones emitidos por sustancias radiactivas (decaimiento β) de Cox, McIlwraith y Kerrelmeyer de 1928 y los de Chase en 1929. Puesto que la asimetrı́a no se verificó al usarse electrones procedentes de filamentos incandescentes, aquéllos experimentos fueron olvidados. La idea de la violación de la paridad, ahora en interacciones débiles, fue retomada en el trabajo teórico de Cheng Ning Yang y Tsung Dao Lee en 1956. La confirmación experimental se tuvo en 1957 con los trabajos independientes de C. S. Wu y sus colaboradores, L. Lederman y asociados, y J. I. Friedman y V. L. Telegdi. Los experimentos del grupo de la señora Wu se relacionaban con el decaimiento β, el de los dos últimos grupos con el decaimiento de muones. Ese mismo año, Lee y Yang recibieron el premio nobel de fı́sica. El otro ejemplo brasileño de intuición aislada o emocional es el de José Leite Lopes. El fı́sico italiano Enrico Fermi (1901–1954) habı́a formulado en 1934 la teorı́a del decaimiento β según la cual el neutrón, por desintegración, se transforma en un protón por la emisión de un electrón (o partı́cula β) más una partı́cula que Pauli habı́a propuesto en 1930, el neutrino, nombre dado por Fermi. De aquı́ Fermi postuló la existencia de una nueva fuerza de la naturaleza responsable de la desintegración del neutrón; la llamó débil por ser mucho menos intensa que la fuerza electromagnética entre partı́culas cargadas. El fı́sico inglés Paul Adrien Maurice Dirac (1902–1984) logró en 1927 la cuantización de esta última fuerza proponiendo al fotón como quantum mediador de estas interacciones electromagnéticas en la conocida como electrodinámica cuántica. La teorı́a de Fermi del decaimiento β fue extendida a los mesones µ (posteriormente nombrados muones por Fermi) ya que, como los electrones, estos mesones también se desintegraban por interacción débil. Para Leite Lopes, la asignación de spin 1/2 a los muones, en un trabajo realizado por Jayme Tiomno y John Archibald Wheeler, en 1949, fue fundamental para el inicio de la universalización de la teorı́a propuesta por Femi, conocida como interacción universal de Fermi después de los trabajos de Yang y Tiomno de 1950. 72 ContactoS 82, 63-72 (2011) Esta anticipación recuerda a la del mesón neutro, hecha por Nicholas Kemmer en 1937 al examinar la independencia de la carga en la teorı́a de los mesones cargados. Un razonamiento semejante llevó a Leite Lopes a su predicción. Un artı́culo de Richard Phillips Feynman y Murray Gell-Mann de 1958 produjo la siguiente intuición en Leite Lopes: los bosones vectoriales responsables de las interacciones débiles y los fotones (también bosones vectoriales) responsables de las fuerzas electromagnéticas deberı́an pertenecer a la misma familia, formar un multipleto y, en consecuencia, las constantes de acoplamiento de ambas interacciones deberı́an ser iguales gw ≈ e de donde Leite Lopes obtuvo el orden de 50 GeV para la masa de los bosones vectoriales cargados, partı́culas mediadoras en las interacciones débiles. En el artı́culo que Leite Lopes publicó en 1958 en Nuclear Physics presenta un resultado inesperado en el mundo cientı́fico internacional: la predicción de un bosón vectorial neutro mediador de la interacción débil y con una masa del mismo orden que la de los bosones vectoriales cargados. La unificación de las fuerzas electromagnéticas y débil, implı́cita en los trabajos de Klein y Leite Lopes, fue formalizada en 1967 por el fı́sico norteamericano Steven Weinberg (1933–) y, en forma independiente, por el paquistanı́ Abdus Salam (1926–1996). Según esta teorı́a la fuerza electrodébil está mediada por cuatro quanta: el fotón, mediador de la interacción electromagnética y los bosones vectoriales W + , W − y Z o de masas respectivas 75 y 90 GeV, mediadores de la interacción débil. Estas tres últimas partı́culas fueron detectadas en 1983 en el CERN por dos equipos dirigidos por el fı́sico italiano Carlo Rubbia (1934–) y el ingeniero holandés Simon van der Meer (1925–). Glashow, Salam y Weinberg recibieron el nobel de fı́sica en 1979 y Rubbia y van der Meer en 1984. Hasta aquı́ hemos visto algunos ejemplos de intuiciones aisladas o emocionales que intervienen en la creatividad cientı́fica. cs