Versión PDF - UAM-I

Anuncio
82,OCTUBREDI
CI
EMBRE2011
82
Contenido
ContactoS No. 82, Octubre–Diciembre 2011
Editorial
3
¿Habrá un paralelo entre la fı́sica y el
arte de la pintura?
José Marı́a Filardo Bassalo.
5
Newton y las leyes de Kepler.
José Marı́a Filardo Bassalo.
58
Crónica de los efectos fı́sicos. Parte I.
José Marı́a Filardo Bassalo.
13
El papel de las intuiciones en el descubrimiento y la invención en fı́sica.
José Marı́a Filardo Bassalo.
63
Crónica de los efectos fı́sicos. Parte II.
José Marı́a Filardo Bassalo.
Crónica de los efectos fı́sicos. Parte III.
José Marı́a Filardo Bassalo.
23
Crónica de los efectos fı́sicos. Parte IV.
José Marı́a Filardo Bassalo.
33
Crónica del Oscilador Armónico.
José Marı́a Filardo Bassalo
47
53
Nuestra portada
José Marı́a Filardo Bassalo.
Contraportada
Collage de fotografı́as.
Tercera de forros
Estereograma.
cs
ContactoS en la WEB
Lea los artı́culos publicados en ContactoS en
http://www.izt.uam.mx
con la entrada:
Publicaciones, Contactos.
Editorial
En 1988 Contactos recibió la primera contribución de Brasil. El autor, José Marı́a Filardo Bassalo, hoy
profesor retirado de la Universidad de Pará, inició entonces una continua y fecunda lı́nea de contribuciones
a nuestra revista. El Doctor y Maestro (ası́, con mayúsculas) Bassalo, con los sugestivos tı́tulos de Crónicas, Curiosidades, Premios Nobel, Orı́genes, Paradojas, ha dado muestra de generosidad y curiosidad; sobre
todo, ha aumentado nuestra curiosidad y visión cientı́fica con sus documentados y rigurosos artı́culos. Este
número 82 de Contactos contiene exclusivamente una antologı́a de sus contribuciones como agradecimiento
y homenaje.
La frase de Leibniz “Más importante que las ideas es el origen de las ideas”, es justo epı́grafe de sus
contribuciones en un tiempo que se enorgullece de ignorar al tiempo: al pasado y al futuro. Al pasado porque
lo considera ajeno al presente. Al futuro porque considera sólo valioso el aquı́ y el ahora en sus múltiples
manifestaciones: confort, despilfarro, falta de ideales, oportunismo, medianı́a. Y no es porque a quienes
deciden les falte inteligencia. No, lo que falta es honestidad intelectual.
Vale recordar las sabias palabras de Gandhi: “El planeta puede satisfacer las necesidades de todos sus
habitantes. Pero no la codicia de unos cuantos”. Ası́ como la Humanidad creyó hasta Copérnico que el Sol y
las estrellas giraban a su alrededor, los poderosos creen que el Universo gira para ellos. Un hombre vale no
por lo que recibe sino por lo que da, afirmó Einstein.
Sólo una visión histórica permite conocer el origen de los problemas y su eventual solución, y ésta ha
sido la constante en los artı́culos del Maestro Bassalo, una visión que resalta el aspecto creativo y artı́stico
de la actividad cientı́fica pues, cuando sólo se deja el resultado, el procedimiento, se garantiza el desinterés y
la esterilidad del tema. ¿Por qué, entonces, es tan poco frecuente en el aula la aproximación histórica? Una
parte de la respuesta se encuentra en la falta de material de calidad, de aquı́ el gran valor de los artı́culos
recibidos de la Universidad de Pará. Otra parte de la respuesta se halla en el intrı́nseco mimetismo de la
naturaleza humana. Y otra parte más: lo urgente no deja tiempo para lo importante. El resultado es que la
enseñanza de ciencias se autoperpetúa: los maestros enseñan la ciencia que aprendieron y asi la enseñarán
los futuros maestros.
Si la enseñanza se reduce a la mera trasmisión de datos, si no se comparte la excitación y el asombro, si
los profesores son recipientes pasivos de información y no creadores de nuevas ideas ¿qué esperanza hay para
los estudiantes? Enseñar un conocimiento porque es “importante para la vida diaria” es falaz. No se enseña
a leer y escribir para llenar formularios burocráticos. Debemos enseñar ciencias como arte de argumentar, y
ésta es una habilidad básica: permite lograr otras (ası́ como la lectoescritura). Si el universitario no puede
argumentar con los conceptos relativamente simples de las ciencias ¿qué podrá hacer con cuestiones complejas
como: sustentabilidad, derecho, justicia, cultura?
Como afirma Konrad Lorenz, el hombre no es un ser inteligente sino uno educable. De aquı́ que los
universitarios debamos estar muy atentos a la educación impuesta por la moda y los medios. La exaltación
de la noticia, de las novedades tecnológicas y de la desesperanza social ocultan que los cambios mundiales de
los últimos 100 años han involucrado: crecimiento poblacional, acumulación de poder ideológico, centralismo
del poder financiero, economı́a basada en servicios, sobreexplotación de recursos naturales, etcétera.
Concluyamos con una más de las aportaciones de la visión histórica: muestra a la ciencia como una gran
empresa humana. Con ello queremos decir: se manifiesta lo más noble y, sı́, lo más mezquino de las personas.
Pero, como afirma Carl Sagan: la ciencia es la única vela que tenemos. . . ante la oscuridad que se avecina.
Información para autores
ContactoS es una Revista de Educación en Ciencias e
Ingenierı́a dirigida a profesores y a estudiantes de estas disciplinas; está registrada en Latindex, Sistema Regional de Información en Lı́nea para Revistas Cientı́ficas de América Latina, el Caribe, España y Portugal. Los
trabajos deberán ser originales y accesibles a un público amplio con formación media superior, o universitaria pero no especializada: los temas deberán presentarse
en forma amena y autocontenida. Cada colaboración debe incluir figuras, diagramas, ilustraciones, fotografı́as,
etc., que hagan más accesible la presentación. Las secciones que la constituyen son:
1.
Divulgación. Artı́culos que presentan temas cientı́ficos con enfoques novedosos y accesibles (15 cuartillas).
2.
Educación Cientı́fica. Enfoques originales en la enseñanza de temas particulares (15 cuartillas).
3.
Artı́culos Especializados. Reportes breves de investigación, relacionados con una problemática concreta (15 cuartillas).
4.
Crónicas. Historia y desarrollo de conceptos cientı́ficos, ası́ como teorı́as alternativas (15 cuartillas).
5.
Divertimentos. Juegos y acertijos intelectuales (5
cuartillas).
6.
Noticias breves. Información de actualidad en el
mundo de la ciencia (4 cuartillas).
7.
Los laureles de olivo. Los absurdos de la vida cotidiana y académica (4 cuartillas).
En todos los casos se debe incluir los nombres completos
de los autores con su adscripción, dirección, teléfono y
dirección de correo electrónico. Las colaboraciones a las
secciones 1 a 4 deberán ajustarse a las siguientes normas:
1. Un resumen breve escrito en inglés.
2.
Cuando se incluya una abreviatura debe explicarse
por una sola vez en la forma siguiente: Organización
de los Estados Americanos (OEA). . .
3.
Cuando se utilice un nombre técnico o una palabra caracterı́stica de una disciplina cientı́fica deberá aclararse su significado de la manera más sencilla posible.
4.
Las citas textuales deberán ir de acuerdo al siguiente ejemplo: En cuanto a la publicación del placebo
se asevera que “el efecto placebo desapareció cuando los comportamientos se estudiaron en esta forma” (Núñez, 1982, p. 126).
5.
Las referencias (no más de 10) se marcarán de
acuerdo al siguiente ejemplo: Sin embargo, ése no es
el punto de vista de la Escuela de Copenhague (Heisenberg, 1958), que insiste en. . .
6.
Al final del artı́culo se citarán las referencias por orden alfabético de autores. Pueden añadirse lecturas recomendadas (no más de 5).
7.
Cada referencia a un artı́culo debe ajustarse al siguiente formato: Szabadváry, F. y Oesper, E. E.,
Development of the pH concept, J. Chem. Educ.,
41[2], pp.105–107, 1964.
8.
Cada referencia a un libro se ajustará al siguiente
formato: Heisenberg, W., Physics and Philosophy.
The Revolution in Modern Science. Harper Torchbooks, Nueva York, 1958, pp.44–58.
9.
Los tı́tulos de reportes, memorias, etcétera., deben
ir subrayados o en itálicas.
El envı́o del artı́culo en archivo electrónico, ya sea en
código ASCII, ANSI, WORD o TEX facilita el arbitraje
y la edición; en el caso de ilustraciones por computadora
(BMP, JPG, TIFF, etc.), envı́e los archivos por separado;
el material es recibido en:
Revista Contactos, UAM–Iztapalapa, E–317,
cts@xanum.uam.mx, telfax 5804–4606,
S. Rafael Atlixco 186, C. P. 09340,
México, D. F. A. P. 55–534.
El Comité Editorial utiliza un sistema de arbitraje anónimo que requiere de dos a tres meses. Se entiende que los
autores no han enviado su artı́culo a otra revista y que
dispondrán de un plazo máximo de dos meses para incorporar las observaciones de los árbitros.
La decisión final de publicar un artı́culo es responsabilidad exclusiva del Comité Editorial. Después de la publicación del artı́culo los autores recibirán 3 ejemplares
gratuitos.
cs
Crónica de los efectos fı́sicos. Parte I*
José Marı́a Filardo Bassalo,
Fundación Minerva, Prof. retirado de la Universidad de Pará
www.bassalo.com.br
* Traducción por J. L. Córdova, Depto. de Quı́mica, UAM–
Iztapalapa. joseluiscordovafrunz@gmail.com
6
Resumen
En esta Crónica presentaremos la evolución histórica y conceptual de algunos de los más importantes efectos fı́sicos; además de describirlos, hablaremos de quién hizo qué, cómo y cuándo (cual corresponde a una crónica) y presentaremos algunos detalles matemáticos para su mejor comprensión.
En esta primera parte trataremos algunos de los efectos fı́sicos descubiertos en el siglo XIX: Seebeck
(1821), Peltier (1834), Joule (1841), Doppler–
Fizeau (1842/1848), Faraday (1845), Thomson (1856), Joule–Thomson (1862), Tyndall
(1868/1869), Kerr (1875), Hall (1879), piezoeléctrico (Pierre y Paul Curie, 1880) y termoiónico (Edison, 1883). En la segunda parte de la Crónica describiremos someramente los efectos fotoeléctrico (Hertz, 1887; Stoletov, 1889), Zeeman (1896) y otros descubiertos en el siglo XX.
1. Efecto Seebeck (1821)
En 1821, el fı́sico ruso alemán Thomas Johann
Seebeck (1770–1831) colocó una placa de bismuto
(Bi) sobre una placa de cobre (Cu) y las unió con
alambres de cobre a un “meridiano magnético”,
nombre entonces dado al galvanómetro inventado
por el fı́sico francés André Marie Ampère (1775–
1836). Al sujetar con una mano los alambres sobre las placas notó que el “meridiano” registraba
una “polarización magnética”, esto es, una corriente eléctrica.1 Al sustituir el bismuto por antimonio
(Sb), Seebeck observó que la “polarización” cambiaba de sentido; relacionó el fenómeno con el calor de
su mano por lo que lo llamó “efecto termomagnético”; hoy es conocido como efecto Seebeck o efecto
termoeléctrico. Afinó sus experimentos con un termoelemento consistente en un rectángulo con cintas metálicas soldadas entre sı́ en sus extremos, donde una aguja magnética era desviada cuando las cintas se sometı́an a una diferencia de temperatura. Interpretó erróneamente sus resultados al afirmar que
los puntos de unión eran magnetizados por el gradiente de temperatura.
Es interesante decir que para febrero de 1822
Seebeck habı́a establecido una serie de tensiones termoléctricas, más tarde reconocidas como fuerzas electromotrices termoeléctricas gracias a las investigaciones de los fı́sicos Wilhelm Gottlieb
Hankel (1814-1899) en 1844 y William Thomson (1824–1907) en 1855. Hoy es sabido que
1 La idea de corriente eléctrica habı́a sido trabajada por
Ampère, pero su concepto actual, carga eléctrica por unidad
de tiempo, fue introducido por George Simon Ohm (1787–
1854) en sus experimentos de 1825.
ContactoS 82, 5–12 (2011)
la aparición de una fuerza electromotriz térmica E (base de los termopares) se puede calcular
mediante
E = a + bt + ct2 + dt3
donde las constantes a, b, c y d dependen del material
de cada termopar.
Los primeros experimentos realizados por Seebeck
en ese nuevo fenómeno fı́sico fueron publicads en Abbandlungen der Königlichen Akademie der Wissenschaften en Berlı́n, 1822–1823, p. 265, con el tı́tulo: Magnetische Polarisation der Metalle und Erze durch Temperatur–Differenz. Otros experimentos
realizados por Seebeck sobre ese efecto fueron publicados en los Annalen der Physik 73, pgs. 115 y 430,
en 1823. Hablaremos más de este efecto, cuando tratemos del efecto Thomson.
2. Efecto Peltier (1834)
En 1834, el fı́sico francés Jean Charles Athanase Peltier (1785–1845) observó que una unión de dos metales, bismuto y cobre se calentaba cuando circulaba una corriente en el sentido del bismuto al cobre y se enfriaba en el caso contrario.2 A este efecto se le conoce como efecto electrotérmico o efecto Peltier.
Peltier llegó a este descubrimiento estimulado por
el trabajo del fı́sico italiano Leopoldo Nobili (1784–
1835) quien investigó dos tipos de corriente eléctrica: la que ocurre cuando hay un gradiente de temperatura en un conductor y la que se genera en una pila eléctrica; concluyó que, en ambos casos, la corriente eléctrica era debida a un “flujo de calórico” y ası́ lo publicó en Annales de Chimie, 34, p.
280 (1827) y otros dos números de la misma revista.
Charles Peltier construyó un galvanómetro muy sensible para medir la conductividad del antimonio y del
bismuto para bajas corrientes eléctricas. El comportamiento térmico anómalo presentado por esos materiales lo llevó a construir un termoscopio termoeléctrico y a medir la distribución de la temperatura en un termopar Bi-Cu. La sustitución del termoscopio por un termómetro de gas le pemitió a Peltier hacer el descubrimiento referido.
Es oportuno destacar que los experimentos iniciales con Sb y Bi produjeron una elevación de temperatura en todas las partes de los conductores de
igual diámetro. Con todo, él estaba más interesado en el aumento de temperatura que en la cantidad de calor involucrada en el proceso por lo
que no llegó a relacionar ésta con la intensidad
2 De aquı́ que el efecto Peltier se use en refrigeración a
pequeña escala.
Crónica de los efectos fı́sicos. Parte I. José M. Filardo Bassalo
de la corriente eléctrica. Esta relación sı́ fue hallada por el fı́sico inglés James Prescott Joule (1818–
1889) en 1841 y conocida como efecto Joule; de éste
hablaremos más adelante.
Los experimentos de Peltier relacionados con el efecto que lleva su nombre fueron publicados en los Annales de chimie 56, p. 371, en 1834, con el tı́tulo:
Nouvelles expériences sur la caloricité des courants
électriques. Tema que saldrá nuevamente cuando tratemos del efecto Thomson.
3. Efecto Joule (1841)
Las investigaciones desarrolladas entre 1798 y
1799 por el fı́sico anglonorteamericano Sir Benjamı́n Thompson, conde Rumford (1753–1814) y por
el quı́mico inglés sir Humprhy Davy (1778–1829)
acerca de la producción de calor por frotamiento indicaban que el calor era producido por el movimiento (trabajo mecánico) y que podı́a ser convertido en éste. Estos trabajos fueron publicados en Philosophical Transactions of the Royal Society of London 88, p. 80 (1798); 89, p. 179
(1799), y los de Davy fueron descritos en el libro intitulado Physical and Medical Knowledge, Principally from the West of England, publicado en 1799.
A finales de 1840, Joule partió de ese principio
para poder explicar la pila de Volta (también conocida como baterı́a o columna eléctrica). Ası́, midió el calor Q producido por unidad de tiempo
t en un alambre conectado en las terminales de
la pila y lo relacionó con la intesidad de corriente I; encontró que esa cantidad era proporcional
a la resistencia eléctrica del alambre R multiplicada por el cuadrado de la intensidad de corriente.
En lenguaje actual, este efecto o ley de Joule se
representa con la expresión:
Q = ARI 2 t
donde A = 1/J y J es el equivalente mecánico del
calor, medido posteriormente por el médico y fı́sico
alemán Julius Robert Mayer (1814–1878) y por el
mismo Joule en los primeros años de la década de
1840.
Los resultados de los experimentos de Joule relacionados con ese efecto fueron publicadas en The
Philosophical Magazine 19, p. 260, en 1841, con el
tı́tulo: On the Heat Evolved by Metallic Conductors
of Electricity and in the Cells of a Battery During
Electrolysis.
4. Efecto Doppler–Fizeau
En 1840, el fı́sico austrı́aco Christian Johann Doppler (1803–1853) fue elegido miembro asociado de
7
la Königliche Böhmische Gesellschaft der Wissenchaften, en Praga; en 1841 fue escogido como profesor de matemática elemental y geometrı́a práctica en la Academia Técnica Estatal. Debido a los
exámenes requeridos por esa institución fue que presentó su famoso descubrimiento de que el tono de un
sonido emitido por una fuente sonora que se desplaza hacia un observador parece más agudo que el emitido por una fuente que se aleja, en cuyo caso el sonido se va haciendo más grave. Fue el 25 de mayo de 1842 que Doppler presentó públicamente este descubrimiento, aplicable también a una onda luminosa, en una sesión del Königliche.
La primera versión del efecto Doppler solamente relacionaba el movimiento de la fuente sonora (o luminosa) o del observador; la extensión al caso de movimiento simultáneo de ambos fue completada por
Doppler en 1846. Fue también la ocasión en que explicó el color aparente de las estrellas dobles y las
fluctuaciones de las estrellas variables y de las novas. Supuso que todas las estrellas eran intrı́nsecamente blancas y que su color era debido a su velocidad en relación a la Tierra.
El artı́culo de Doppler sobre su descubrimiento
fue publicado en los Abhandlungen der Königliche
Böhmische Gesellschaft der Wissenchaften 2, p. 465,
en 1842, con el tı́tulo: Ueber das farbige Licht der
Doppelsterne und anderer Gestirne des Himmels. La
extensión a los movimientos de la fuente y del observador fue publicada en los Annalen der Physik und
Chemie 68, p. 1, en 1846.
Resulta interesante anotar que el efecto Doppler acústico fue comprobado por el meteorologista holandés Christoph Hendrik Diederik Buys Ballot (1817–1890) en 1845 a lo largo del ferrocarril Utrecht–Maarsen: el tono producido por un
trompetista en la plataforma del tren en movimiento se oı́a más alto para un observador al
cual se aproximaba y se hacı́a más grave cuando
el tren se alejaba.
Destaquemos que, para el caso acústico, el efecto
Doppler tiene la siguiente representación analı́tica:
v
1 ± obs
vson
f = f0 vfuen
1∓
vson
donde f y f0 representan respectivamente las frecuencias aparente y verdadera, Vson , Vobs , Vfuen , indican respectivamente las velocidades del sonido, del
observador y de la fuente y los signos superiores (inferiores) indican aproximación (alejamiento).
ContactoS 82, 5–12 (2011)
8
Ya referimos que Doppler consideró que el mismo
efecto ocurrı́a con las ondas luminosas, sin embargo, fue el fı́sico francés Armand Hippolyte Louis Fizeau (1819–1896) quien, en 1848, sugirió que el efecto Doppler acústico podrı́a aplicarse a las ondas luminosas para determinar las velocidades relativas de
las estrellas que estuvieran en la misma lı́nea espectral, razón por la que pasó a ser conocido como efecto Doppler–Fizeau.
Por otro lado, la revista Izvestiya Imperatorskoi akademii nauk 13 (5), p. 461 (1900), contiene un artı́culo del fı́sico ruso Aristarkh Appolonovich Belopolsky
(1854-1934) que describe un aparato para demonstrar el efeito Doppler–Fizeau.
Además, el desarrollo de la Teorı́a de la Relatividad
Restringida de Einstein (1905) mostró que el efecto Doppler–Fizeau puede ser obtenido directamente; con ello la expresión analı́tica anterior se transforma en:
f = γf0 (1 − β cos φ)
donde:
γ
=
β
=
1
(1 − β 2 )− 2
V
c
y φ es el ángulo entre el rayo de luz de frecuencia
f0 y la dirección de los ejes x(x′ ), V la velocidad
relativa entre esos ejes y c la velocidad de la luz en
el vacı́o.
5. Efecto Faraday o efecto magneto–óptico
(1845)
El fı́sico y quı́mico inglés Michael Faraday (1791–
1867) inició sus experimentos en electricidad y magnetismo en 1821 al estudiar la conversión de energı́a
eléctrica en mecánica. En esa ocasión incubó sus primeras ideas sobre las lı́neas de fuerza magnéticas
tal como aparecen publicadas el 21 de octubre de
1821 en el Quarterly Journal of Science. Recordemos que la pasión de Faraday por la Ciencia despertó en él por primera vez con la lectura del artı́culo “Electricity” de la Encyclopaedia Britannica.
En la década de 1820 Faraday intentó relacionar los
fenómenos magnético y luminoso, lo que posteriormente caracterizarı́a al efecto Faraday, sin lograr éxito. Abandonó esa idea y trabajó en problemas de
electricidad, magnetismo y quı́mica con importantes descubrimientos, por ejemplo, la ley de inducción electromagnética (1831) y las leyes de electrólisis (1833). Estos experimentos se hallan incluidos en
los tres volúmenes de su famoso libro Experimental Researches in Electricity, Londres 1839–1855.
Fue en 1845, después de recibir una larga carta de
William Thomson fechada el 6 de agosto, que Faraday regresó a estudiar la influencia del magnetismo en la luz. En esa carta, después de presentar el
tratamiento matemático de las lı́neas de fuerza de
Faraday, Thomson sugiere una serie de experimentos que comprobarı́an la teorı́a desarrollada por Faraday en 1844, esto es, que la conducción de electricidad por la materia podı́a entenderse en términos de átomos que eran centros de fuerza cuya intensidad variaba con la distancia al centro, pudiendo ser atractiva o repulsiva según fuera el valor de
la distancia. Esta teorı́a ya habı́a sido presentada en
1758 por el astrónomo y matemático croata Rudger Josip Boskovic (1711–1878). Uno de los experimentos por Thomson era observar la acción del magnetismo sobre la luz polarizada.
Faraday siguió las recomendaciones de Thomson y el
13 de septiembre de 1845 observó por primera vez el
efecto. En una conferencia en la Royal Institution reflejó un rayo de luz en un espejo para polarizarlo en el
plano horizontal, a continuación obligó al rayo polarizado a pasar por un poderoso electroimán (entonces desconectado) y por un prisma de Nicol de alto ı́ndice de refracción. Este prisma permite determinar el plano en la luz está polarizada: basta girarlo a un ángulo tal que el rayo no lo atraviesa.
Bastó conectar el electroimán para que la imagen
apareciera nuevamente. En conclusión, mostró que
el plano de la luz polarizada se modifica por un campo magnético, lo que es conocido hoy como efecto Faraday o efecto magneto–óptico.
Consecuencia de este exitoso resultado, Faraday comenzó a estudiar el comportamiento de diversas sustancias en presencia de un campo magnético. De sus
estudios concluyó que hay distintos tipos de sustancias: paramagnéticas, las que conducen el campo haciendo converger sus lı́neas de fuerza, por ejemplo el
hierro: diamagnéticas, las que no conducen el campo magnético y hacen divergir las lı́neas de fuerza,
por ejemplo el bismuto y el antimonio.
El trabajo de Faraday acerca del efecto con su nombre fue publicado en las Philosophical Transactions
of the Royal Society London, p. 1, y en The Philosophical Magazine 28, p. 345, en 1846, con el tı́tulo: Thoughts on Ray Vibrations.
Es oportuno decir que, en 1907, los fı́sicos franceses Aimé Cotton (1869–1951) y H. Mouton presentaron en los Comptes Rendus Hebdomadaires des Séances de l’Academie des Sciences 145, p. 299, el resultado de un experimento que muestra un nuevo aspecto del efecto Faraday. Al aplicar a nitrobenceno
lı́quido un fuerte campo perpendicular a la dirección de la luz incidente produjeron una doble re-
Crónica de los efectos fı́sicos. Parte I. José M. Filardo Bassalo
fracción; a este efecto se le llama Cotton–Mouton.
Este experimento también fue realizado con vapores por el fı́sico alemán Woldmar Voigt (1850–1919)
en 1899, y reportado en su libro Magneto und Elektro Optik (1908) por lo que también es conocido como efecto Voigt.
6. Efecto Thomson (1856)
Entre 1851 y 1854 William Thomson, Lord Kelvin en
1892, estudió matemáticamente los efectos Seebeck
(1821) y Peltier (1834) y llegó a la siguiente relación
(en términos actuales):
ΠB
A = T (εB − εA )
donde ΠB
A es el coeficiente de Peltier, definido como el calor desprendido en la unión de los conductores A y B cuando una corriente unitaria circula del primero al segundo, y ε la fuerza electromotriz térmica de Seebeck. Con todo, la proporcionalidad directa entre ΠB
A y T (observación inicial de
Thomson, posteriormente conocida como “segunda
relación de Kelvin”) no coincidı́a con las observaciones de 1823 del fı́sico inglés James Cumming (1777–
1861): cuando aumenta gradualmente la temperatura de la unión en los conductores ε llega a un valor máximo y luego decrece.
A fin de resolver la contradicción, Thomson llegó a
descubrir en 1865 lo que hoy se conoce como efecto Thomson: al iniciar una corriente eléctrica un conductor experimenta un gradiente de temperatura. En
términos contemporáneos se representa con la expresión conocida como “primera relación de Kelvin”:
dΠB
A
dT
+ τ A − τ B = εA − εB
donde τ es el coeficiente de Thomson o “calor de
Thomson”por unidad de corriente eléctrica y por
unidad de gradiente de temperatura.
El trabajo de Thomson acerca del efecto que lleva su nombre fue presentado en Philosophical Transactions of the Royal Society 146, p. 649, en 1856,
con el tı́tulo: On the Electrodynamic Qualities
of Metals.
7. Efecto Joule–Thomson (1862)
En 1802, el quı́mico francés Louis–Joseph Gay–
Lussca (1778–1850) realizó diversos experimentos
acerca de la expansión térmica del aire y de otros
gases y llegó a determinar el coeficiente de expansión volumétrica α de todos los gases igual a
1
266· 66
9
En 1845, Joule desarrolló una técnica más fina que
la de Gay–Lussac para estudiar los cambios de temperatura producidos en la rarefacción y condensación del aire.
En 1862, Joule y Thomson desarrollaron el siguiente experimento: hicieron pasar aire a lo largo de
un tapón poroso a presión constante pero con valor mayor en el lado de entrada del tapón. Observaron que algunos componentes del aire, el oxı́geno
y el nitrógeno disminuı́an su temperatura, pero el
hidrógeno aumentaba su temperatura. Con más estudios y con otros gases encontraron que para cada gas a una presión dada existe una temperatura
de inversión; encima de ella el gas aumenta la temperatura en una expansión y, por debajo de ella, disminuye su temperatura. Este fenómeno es hoy conocido como efecto Joule–Thomson y se expresa con:
dt
=
α
=
v
=
v
(T α − 1)dP
Cp
1 ∂V
1 ∂v
=
v ∂T P
V ∂T P
V
n
donde α es el coeficiente de expansión térmica, V , P ,
T y n representan, respectivamente, volumen, presión, temperatura y número de moles, Cp es el calor especı́fico a presión constante. Nótese que el efecto Joule–Thomson ocurrre en los gases reales y que
la temperatura de inversión se obtiene por la expresión T α = 1, con α(T ).
En 1895, el ingeniero alemán Carl Paul Gottfried von
Linde (1842–1934)y, en forma independiente, el ingeniero quı́mico inglés William Hampson (ca. 1824–
1926) desarrollaron una técnica de licuefacción de
gases basada en el efecto Joule–Thomson.
El artı́culo de Joule y Thomson sobre este efecto fue
publicado en los Proceedings of the Royal Society of
London 12, p. 202, en 1862, con el tı́tulo: On the
Thermal Effects of Fluids in Motion.
8. Efecto Tyndall (1868/1869)
La pasión del fı́sico inglés John Tyndall (1820–1893)
por el alpinismo lo llevó a estudiar, a partir de 1859,
el efecto de la luz solar y del calor de radiación sobre los gases atmosféricos, cuando observó que el aire húmedo absorbe calor con poco cambio de temperatura. Más tarde, en 1868, hizo experimentos acerca de la dispersión de un haz de luz en un medio
con partı́culas en suspensión. En uno de sus experimentos, observó que una sala llena de humo o de polvo flotante hacı́a visible un haz de luz que entrase por
una ventana. En otro, observó el color azul que tomaba un haz de luz al atravesar el humo producido en
ContactoS 82, 5–12 (2011)
10
una reacción fotoquı́mica; en su bitácora anotó “Relaciono este color azul con el color del cielo”. Estos
experimentos pasaron a ser conocidos como efecto
Tyndall.
Figura 1. Efecto Tyndall
La explicación del azul del cielo dada por Tyndall
sólo fue cualitativa. Una primera explicación cuantitativa fue dada en 1871 por el fı́sico inglés John William Strutt, lord Rayleigh (1842–1919, premio nobel de fı́sica en 1904) mediante un análisis dimensional. Para Rayleigh la amplitud de la luz desviada por una molécula de gas era inversamente proporcional a la cuarta potencia de la longitud de onda incidente (λ), o, en otros términos, directamente proporcional a la cuarta potencia de su frecuencia
(ν). Esta dependencia puede demostrarse mediante
la teorı́a electromagnética maxwelliana (1873) aplicada a la dispersión de la radiacion electromagnética por la materia, hoy conocida como dispersión
Rayleigh.
Más tarde, en 1874, M. Avenarius demostró que
cuando la luz blanca pasa por un vapor cercano a
su punto crı́tico se da una opalescencia azulada. Una
mejor comprensión del azul del cielo fue lograda con
los trabajos sobre la opalescencia crı́tica por los fı́sicos Albert Einstein (1879–1955, premio nobel de fı́sica en 1921) y el polaco Marian Ritter von Smolan
Smoluchwski (1872–1917) entre 1905 y 1911.
El trabajo de Tyndall sobre el efecto que lleva su
nombre fue publicado en The Philosophical Magazine 37 (250); 38 (253), p. 384; 156, en 1869, con los
respectivos tı́tulos: On the Blue Colour of the Sky,
the Polarization of Skylight and on the Polarization
Light Cloudy matter generally y Note on the Formation and Phenomena of Clouds.
9. Efecto Kerr o efecto electro–óptico (1875)
En 1875, el fı́sico escocés John Kerr (1824–1907) observó que el vidrio se volvı́a birrefringente bajo la acción de un intenso campo eléctrico. Usó un trozo de
vidrio de dos pulgadas de espesor e hizo dos orificios en sus extremidades donde colocó dos electrodos con un fuerte campo eléctrico estático; Kerr observó que la doble refracción inducida por el campo eléctrico era mucho más fuerte en nitrobenceno
lı́quido que en el vidrio. En sus experimentos Kerr
encontró que la magnitud del efecto era proporcional al cuadrado del campo eléctrico; en términos
actuales:
∆φ = 2πBℓE 2
donde ∆φ es la diferencia de fase entre los dos rayos luminosos, B (o K) es denominado coeficiente de Kerr, caracterı́stico de cada material, ℓ es el camino óptico en el medio, y E es la intensidad del campo eléctrico estático. Es interesante anotar que, como mostró Hans Mueller en 1941, el efecto es un millón de veces más fuerte en la bentonita que en el nitrobenceno
lı́quido.
En 1876, Kerr anunció ante la British Association
de Glasgow, que un haz de luz plano polarizada se
volvı́a elı́pticamente polarizada al incidar en el polo de un electroimán. Observó, pues, un nuevo aspecto del efecto magneto–óptico ya estudiado por Faraday en 1845. Los efectos observados por Kerr fueron
estudiados matemáticamente por el fı́sico irlandés
George Francis Fitgerald (1851–1901) en 1880.
El trabajo de Kerr sobre el efecto que lleva su nombre fue publicado en The Philosophical Magazine 50,
p. 337, en 1875, con el tı́tulo: On a New Relation
Between Electricity and Light: Dielectrified Media
Birefringent.
10. Efecto Hall (1879)
En octubre de 1879, el fı́sico norteamericano Edwin Herbert Hall (1855–1938) realizó en la Universidad Johns Hopkins de Estados Unidos, un experimento donde observó que una larga lámina de oro,
atravesada por una corriente eléctrica I y colocada normalmente a la lı́neas de fuerza de un cam~ constante, presentapo de inducción magnética B
ba una diferencia de potencial VH en los lados de
la misma lámina:
VH = IRH
donde RH es conocida como resistencia Hall. Poco más tarde, el fı́sico Henry Augustus Rowland
(1848–1901), profesor de Hall, interpretó esa diferencia de potencial como debida a la acumulación
de cargas eléctricas de signos opuestos en los lados
de la lámina por la acción de una fuerza electromagnética actuando en los “fluidos eléctricos indivi-
Crónica de los efectos fı́sicos. Parte I. José M. Filardo Bassalo
duales” según el modelo vigente en esa época.3 Esta observación es el hoy conocido efecto Hall.
Es importante destacar que, en 1980, el fı́sico alemán
Klaus von Klitzing (1943–, premio nobel de fı́sica en 1985) con la colaboración de Gerhard Dorda y Michael Pepper descubrió que, a bajas temperaturas e intensos campos magnéticos, la resistencia Hall está cuantizada en unidades de
h
e2 i
donde h es la constante de Planck, e la carga del
electrón e i (1, 2, 3. . . ) es un número cuántico; llamado efecto Hall cuántico. En 1982, los fı́sicos experimentales Horst L. Störmer y Daniel C. Tsui, junto
con los teóricos Arthur Gossard y Robert B. Laughlin mostraron que i es fraccionario; hoy se denomina a tal efecto efecto Hal cuántico fraccionario.
Por otro lado, la interpretación de Rowland al efecto Hall corrigió una equivocación cometida por el
fı́sico y matemático escocés James Clerk Maxwell
(1831–1879) quien afirmaba que la fuerza de un campo de inducción magnética sólo actuaba en el conductor pero no en las cargas eléctricas que constituyen la corriente eléctrica. La conceptualización de
una fuerza actuante sobre una carga eléctrica fue
presentada por el fı́sico holandés Hendrik Antoon
Lorentz (1853–1928, premio nobel de fı́sica en 1902),
en 1892, con la ecuación:
~
F~L = q~v × B
donde ~v es la velocidad de la carga eléctrica q.
El trabajo de Hall acerca del efecto con su nombre
fue publicado en American Journal of Mathematics
2, p. 287, en 1879, con el tı́tulo On an New Action
of the Magnet on the Electric Currents y en The
Philosophical Magazine 9, p. 225, en 1880.
Destaquemos que el fı́sico y quı́mico alemán Walther Hermann Nernst (1864–1941, premio nobel de
quı́mica en 1920) en colaboración con su alumno
Albert von Ettingshausen, descubrió en 1886 que
un gradiente de temperatura a lo largo de un conductor eléctrico colocado perpendicularmente a un
campo magnético provoca una diferencia de potencial en los extremos opuestos del conductor. Este
efecto, conocido como efecto Nernst es análogo al
efecto Hall.
3 La
idea de “fluido eléctrico” fue elaborada por el inglés
Stephen Gray (1696–1736) al realizar, entre 1727 y 1729) diversos experimentos sobre la conducción de la “virtud eléctrica” en los cuerpos.
11
11. Efecto piezoeléctrico (Pierre y Jacques
Curie) (1880)
Al final de la década de 1870, el fı́sico francés Paul
Jacques Curie (1855–1941) bajo la dirección del
quı́mico francés Charles Friedel (1832–1899) desorrollaba experimentos acerca de la piroelectricidad, un
fenómeno observado por primera vez por el fı́sico escocés David Brewster (1781–1868) en 1824, al notar la aparición de cargas eléctricas en ciertos cristales, como el cuarzo, cuando son calentados. A pesar de que esos experimentos eran desarrollados en
varios laboratorios, la interpretación era contradictoria. Para mejor entender ese fenómeno, Jacques, empezó a trabajar con su hermano, el fı́sico y quı́mico Pierre Curie (1859–1906, premio nobel de fı́sica
en 1906). En 1880, usando simples argumentos de simetrı́a, observaron que habı́a una diferencia de potencial en la cara de un cristal no conductor cuando se colocaba un peso sobre él.
Los hermanos Curie usaron en sus experimentos varios cristales, sulfuro de zinc ZnS, clorato de sodio N aClO3 , cloroborato de magnesio M g3 B7 O13 Cl
o boracita, turmalina, cuarzo, carbonato de zinc
ZnCO3 o calamina, topacio azúcar y sal De Rochelle o sal de Seignette KN aC4 H4 O6 ·4H2 O, todos cristales hemiédricos con ejes de simetrı́a polares. Como resultado de sus experimentos, observaron que
la polarización eléctrica medida con un electrómetro de Thomson era proporcional a la tensión aplicada y que la dirección de esa polarización se invertı́a cuando la tensión cambiaba de compresión a
tracción.
Cuando en 1881 el fı́sico francés Gabriel Jonas Lippmann (1845–1921, premio nobel de fı́sica en 1908)
conoció los resultados de los hermanos Curie anticipó que, de acuerdo con la termodinámcia, debı́a
existir un efecto piezoeléctrico inverso según el cual
un cristal se alarga o se contrae bajo la acción de un
campo eléctrico. De aquı́ que, en 1881, los Curie comprobaran esa predicción con el cuarzo y la turmalina los que se contrajeron o expandieron dependiendo de la dirección del campo eléctrico aplicado. Esta propiedad hace a los cristales piezoeléctricos sumamente útiles en la industria acústica como transductores ya que transforman una onda sonora en corriente eléctrica o viceversa. También son usados como relojes, los famosos “relojes de cuarzo”, basados en la resonancia entre la frecuencia del campo eléctrico aplicado al cristal y la frecuencia propia del mismo.
Los hermanos Curie aprovecharon sus conocimientos del tema para construir una balanza de cuarzo
piezoeléctrico, decisiva para las investigaciones sobre radioactividad hechas a partir de 1897 por Pierre y su esposa, la quı́mica y fı́sica polaca Marie Sklo-
ContactoS 82, 5–12 (2011)
12
donska Curie (1867–1934, premio nobel de fı́sica en
1903, premio nobel de quı́mica en 1911).
Los experimentos realizados por los hermanos Curie sobre el efecto piezoelétrico fueron publicados
en Comptes rendus hebdomadaires des séances de
l’Académie des sciences 91, p. 294; 383, en 1880, con
los tı́tulos: Développement, par pression, de l’électricité polaire dans les cristaux hémièdres à faces inclinées e Sur l’électricité polaire dans les cristaux
hémièdres à faces inclinées. Otros experimentos sobre ese efecto y sobre el efecto reverso fueron publicados en Comptes 92; 93, p. 186; 350; 204; 1137, en
1881, y en Comptes 95, p. 914, en 1882.
12. Efecto termoiónico o efecto Edison (1883)
Los primeros experimentos de descargas eléctricas
en gases enrarecidos fueron realizados por Faraday
en 1838, cuando observó una región oscura cercana al ánodo. Estos experimentos fueron retomados
en 1858 por el matemático y fı́sico alemán Julius
Plücker (1801–1868) al usar un tubo de Geissler;4
observó que unos rayos surgı́an del polo negativo
(cátodo) y que podı́an ser desviados por un campo
magnético. En 1876, el fı́sico alemán Eugen Goldstein (1850–1931) los nombró “rayos catódicos”.
Buscando un vacı́o más perfecto, el fı́sico inglés William Crookes (1832–1919) construyó en 1875 una
cámara de vacio a una presión 75000 veces menor
que la de un tubo de Geissler, a la cual adaptó de
cátodo, ánodo y de láminas metálicas para estudiar la radiación procedente del cátodo. Este dispositivo es hoy conocido como radiómetro de Crookes. En 1879, Crookes descubrió una región oscura próxima al cátodo.
La posibilidad de obtener cada vez mejores vacı́os
llevó al inventor norteamericano Thomas Alva Edison (1847–1931), en 1879, a inventar una lámpara
eléctrica con filamento de carbono (de hilo de algodón) incandescente en el vacı́o. Vale apuntar que,
en 1877, el inventor norteamericano W. E. Sawyer
patentó una lámpara eléctrica con filamento de madera y que, en 1878 el inglés Joseph Wilson Swan
(1824–1914) presentó en la Sociedad Quı́mica de
Newcastle on Tyne una lámpara eléctrica con filamento de carbono.
A pesar del inmenso éxito de la lámpara eléctrica el invento de Edison presentaba una gran desventaja: se ennegrecı́a con el uso. Buscando superar
esa limitación, Edison descubrió en 1883 lo que serı́a
más tarde conocido como efecto termoiónico o efecto Edison: a ciertas condiciones de vacı́o y voltaje,
4 En 1855, el fı́sico alemán Johann Heinrich Wilhelm Geissler (1814–1879) inventó una bomba de vacı́o sin partes móviles que le permitió construir tubos con gases enrarecidos, llamados por su colaborador Plücker, “tubos de Geissler”.
su lámpara presentaba un resplandor azulado causado por una inexplicable corriente entre los hilos que
formaban el filamento de la lámpara. Esta corriente fluı́a en dirección opuesta a la de la corriente principal. Estas observaciones fueron publicadas en Engineering, p. 553, el 12 de diciembre de 1884 con el
tı́tulo A Phenomenon of the Edison Lamp.
En 1899, el fı́sico inglés sir Joseph John Thomson (1856–1940, premio nobel de fı́sica en 1906)
mostró que ese efecto era debido a la emisión de
electrones por los metales incandescentes. Con todo, hacı́a falta un tratamiento matemático para entender el fenómeno. En 1902, el fı́sico inglés sir William Richardson (1879–1959, premio nobel de fı́sica en 1928) obtuvo la primera expresión para una corriente termoiónica J al considerar que los electrones
libres de un metal seguı́an la estadı́stica de Maxwell–
Boltzmann. Más tarde, en 1914, encontró una nueva expresión para J:
eφ
(1)
J = AT 2 exp −
kt
donde A es una constante, eφ representa el calor latente de vaporización de un gas monoatómico, k es la
constante de Boltzmann y T es la temperatura absoluta. Otra expresión para J fue la obtenida por Clement Child, en 1911, y por Irving Langmuir independientemente, en 1913:
J=
4
Eo
9
2e
m
12
3
V 2 x−2
donde E0 es la constante dieléctrica del vacı́o y V es
el potencial a la distancia x del cátodo. Obsérvese
que la ley de Child–Langmuir es la primera ley no
linear de la fı́sica.
En 1923, el fı́sico y quı́mico ruso–norteamericano
Saul Dushman (1883–1954) encontró el siguiente valor para la constante A de Richardson:
A = 2π
mek
h3
(2)
donde m y e representan la masa y la carga del
electrón, y h la constante de Planck. Las expresiones 1, 2 forman parte de la hoy conocida como ecuación de Dushman–Richardson.
cs
Crónica de los efectos fı́sicos. Parte II*
José Marı́a Filardo Bassalo,
Fundación Minerva, Prof. retirado de la Universidad de Pará
www.bassalo.com.br
* Traducción por J. L. Córdova, Depto. de Quı́mica, UAM–
Iztapalapa. joseluiscordovafrunz@gmail.com
ContactoS 82, 13–22 (2011)
14
Resumen
En esta Crónica presentaremos la evolución histórica y conceptual de algunos de los más importantes efectos fı́sicos; además de describirlos, hablaremos de quién hizo qué, cómo y cuándo (cual corresponde a una crónica) y presentaremos algunos detalles matemáticos para su mejor comprensión.
En esta segunda parte de la Crónica describiremos
someramente los efectos fotoeléctrico (Hertz, 1887;
Stoletov, 1889), Zeeman (1896) y otros descubiertos en el primer cuarto del siglo XX, como son:
el Stark–Lo Surdo (1913), Sagnac (1913), Lense–
Thirring (1918), Barkhausen (1919), Rsamsauer–
Townsend (1921/1922), Compton–Debye (1923 y
Metiner–Auger (1923/1925).
13. Efecto fotoeléctrico (Hertz, 1887;
Stoletov, 1889)
En un trabajo publicado en 1887, el fı́sico alemán
Heinrich Rudolf Hertz (1857–1894) registró los resultados de sus experimentos con osciladores1 que
le permitieron producir la radiación electromagnética, hoy conocida como microondas y ondas hertzianas. El dispositivo empleado por Hertz consistı́a de
dos esferas metálicas, cada una con un asta, teniendo en su extremo otra esfera metálica de menor tamaño, figura 1. Ambas astas se encontraban conectadas a una bobina de Rühmkorff, dispositivo inventado por el mecánico y electricista alemán Heinrich Daniel Rühmkorff (1803–1877) de producir chispas de corta longitud de onda.
Al alimentar la bobina con un circuito eléctrico oscilante observó que se producı́an chispas entre las
esferas metálicas; estas chispas, según habı́a predicho en 1865 el fı́sico y matemático escocés James
Clerk Maxwell (1831–1879), debı́an producir una radiación electromagnética. Hertz, utilizó un resonador construido por él mismo a partir de un grueso
alambre circular de cobre interrumpido por un pequeño arco, tenı́a en un extremo una pequeña esfera y en la otra un tornillo que permitı́a controlar la abertura del circuito; con ello encontró el valor de 66 cm para la longitud de onda de esa radiación. Fue en estos experimentos que Hertz observó que si una esfera electrizada negativamente
era iluminada con luz ultravioleta se producı́an chispas más fácilmente. Más tarde, en 1888, el ingeniero y fı́sico italiano Augusto Righi (1850–1920) observó que dos electrodos expuestos a luz ultravioleta
actuaban como un par voltaico. Righi nombró a este fenómeno efecto fotoeléctrico.
1 Hertz,
H. R. 1887. Annalen der Physik 31, p. 421.
Figura 1. Esquema del dispositivo de Hertz.
El primer fı́sico en desarrollar un método experimental para estudiar el efecto fotoeléctrico fue el ruso Aleksandr Grigoryevich Stoletov (1839–1896) en
1888–1889. Ya en 1872, Stoletov habı́a observado dicho fenómeno en el siguiente experimento: dos discos metálicos de 22 cm de diámetro, uno sólido y
otro reticular, fueron colocados verticalmente frente a un arco voltaico, unidos mediante una baterı́a
eléctrica y un galvanómetro. Al incidir la luz ultravioleta proveniente del arco en el disco macizo, unido
al polo negativo de la baterı́a, se registró una corriente en el galvanómetro cuando la tensión entre los bornes se fijó en 0.01 volts. Vale anotar que, en 1888, el
fı́sico alemán Wilhelm Hallwachs (1859–1922) hizo
experimentos semejantes en una placa de zinc, descargada y aisalda, la cual se cargaba positivamente
al recibir luz ultravioleta proveniente de una lámpara de cuarzo.2
Stoletov, en un artı́culo elaborado en 1889 intitulado “Aktinoelektricheskie issledovania” (Investigaciones actinoeléctricas), reunió los resultados obtenidos en ese periodo, donde observó que habı́a una
pérdida de carga eléctrica negativa en un metal iluminado con luz ultravioleta. Más especı́ficamente,
observó que, al iluminar la placa negativa de un con2 Annalen
der Physik, 33, p. 310
Crónica de los efectos fı́sicos. Parte II. José M. Filardo Bassalo
densador con esa radiación, se producı́a una corriente eléctrica continua en el circuito cuya intensidad
era proporcional a la intensidad de la luz incidente y al área iluminada. Además, al investigar la relación entre esa fotocorriente y la diferencia de potencial externa del circuito, Stoletov descubrió la
existencia de una corriente de saturación; en otras
palabras, descubrió las primeras leyes del efecto
fotoeléctrico.
A pesar de las observaciones de Hertz, Stoletov y Hallwachs del efecto fotoeléctrico, el descubrimiento de
las leyes de este efecto suele atribuirse al ayudante de
Hertz: el fı́sico húngaro alemán Philipp Eduard Anton von Lenard (1862–1947, premio nobel de fı́sica
en 1905). Los experimentos de 1899 de Lenard lo llevaron a concluir que las superficies metálicas emitı́an
elecrones cuando recibı́an radiación electromagnética. Fue, en 1902 que enunció las hoy conocidas leyes del efecto fotoeléctrico:
1. Los electrones emitidos tienen velocidades iniciales finitas independientes de la intensidad de la
luz pero dependiente de su frecuencia.
2. El número total de electrones emitido es proporcional a la intensidad de la luz incidente.
Estas leyes, con todo, no eran explicadas por la
teorı́a electromagnética que desarrolló Maxwell en
el ya citado libro A Treatise on Electricity and Magnetism de 1873. Por ejemplo, según esta teorı́a, cuanto más intensa la radiación incidente en un material
fotoeléctrica mayor serı́a la velocidad del electrón
arrancado.
Fue Einstein, en 1905,3 quien dió una explicación
heurı́stica con la interpretación cuántica de la luz.
Ası́, la energı́a cinética máxima E de los electrones
arrancados por la luz de frecuencia ν está dada por:
E = hν − φ0
donde hν es la energı́a de un quantum de luz4 y φ0
es la energı́a de enlace del electrón.
14. Efecto Zeeman (1896)
Como ya mencionamos en la crónica anterior, en
1845/1846, Faraday fue uno de los primeros en observar la acción de un campo magnético en el plano
de polarización de la luz, obsevación conocida como efecto Faraday o efecto magneto–óptico. Más tarde, en 1862, el propio Faraday intentó, sin éxito, encontrar variaciones en el periodo o en el estado de polarización de la luz emitida por la flama de sodio
(N a), cuando era colocada en presencia de un campo magnético fuerte. Para realizar este experimento,
3 Annalen
der Physik, Leipzig 17, p. 132
“fotón” en 1926 por el quı́mico norteamericano Gilbert Newton Lewis (1875–1946)
4 Denominado
15
Faraday empleó un espectroscopio de prisma de bajo poder de resolución. Sin embargo, a pesar de que
Maxwell habı́a negado, en 1870, la existencia de ese
efecto, en 1875, el fı́sico y matemático inglés Peter
Guthrie Tait (1831–1901) desarrolló un tratamiento teórico de la influencia del campo magnético sobre el estado de polarización de la luz en una absorción selectiva.
Con todo, no fue sino hasta 1896, que el fı́sico holandés Peter Zeeman (1865–1943, premio nobel de
fı́sica en 1902) inició un estudio sistemático de esa influencia, lo que lo llevó al descubrimiento del hoy famoso efecto Zeeman. Es oportuno apuntar que Zeeman, por ese entonces, trabajaba en la Universidad
de Leiden con los fı́sicos holandeses Heike Kamerlingh Onnes y Hendrik Antoon Lorentz.
Zeeman utilizó un dispositivo más elaborado que el
de Faraday; consistió en una bobina de Rühmkorff
productora de un campo magnético del orden de 10
kilogauss y una rejilla de difracción de Rowland (estas rejillas habı́an sido desarrolladas por el fı́sico
norteamericano Henry August Rowland (1848–1901)
llegando a tener un radio de 3 m con 6000 lı́neas/cm
y un poder de resolución superior a 150000). En
1896, Zeeman observó que las dos lı́neas amarillas
D del sodio se alargaban cuando eran examinadas
bajo la acción de un campo magnético muy fuerte. Llegó a detectar que estas lı́neas estaban polarizadas circularmente cuando eran paralelas a las lı́neas
de fuerza del campo magnético y linealmente planopolarizadas cuando la observación era perpendicular
a las lı́neas de fuerza, figura 2. Zeeman observó deformaciones semejantes con otras lı́neas espectrales.
Con ello verificó experimentalmente las predicciones teóricas del fı́sico y matemático irlandés Sir Joseph J. Larmor (1857–1942).
Estos resultados fueron discutidos por Zeeman y Lorentz quien, desde 1892, habı́a desarrollado su famosa teorı́a de la electricidad compuesta por “partı́culas
cargadas” (nombradas por Lorentz iones) cuyas oscilaciones armónicas amortiguadas dentro de un cuerpo eran responsables de la emisión de un espectro
luminoso.
El 31 de octubre de 1896, en una reunión de la Academia de Ciencias de Amsterdam presentaron este
efecto, y también en el artı́culo del Verbandlungen
der Physikalischen Gesellschaft zu Berlin 8, p. 128
de 1896 intitulado Ueber einen Einfluss der Magnetisirung auf die Natur des von einer Substanz emittirten Lichtes.
Fue un poco después, en 1897, que Lorentz presentó la explicación teórica del fenómeno observado por Zeeman. Consideró a los “iones” sujetos a
16
ContactoS 82, 13–22 (2011)
da componente σ. Este predicción de Lorentz (desdoblamiento de las lı́neas espectrales) fue confirmada por Zeeman en 1897 con la lı́nea azul del cadmio (Cd) bajo la acción de un campo magnético de
32 kilogauss. Este desdoblamiento también fue observado por otros cientı́ficos de diversos laboratorios, por ejemplo, Albert Abraham Michelson (1852–
1931), Marie Alfred Cornu (1841–1902) y el alemán
C. G. Walther König.
Figura 2. Efecto Zeeman. a) campo magnético ortogonal,
b) campo magnético paralelo, c) sin campo.
los átomos por una fuerza de tipo elástica y some~ de estidos a la acción de una fuerza externa K,
ta suerte demostró que, en presencia de un campo magnético de intensidad H, estos “iones” oscilaban en dirección del campo con una frecuencia propia ν0 cuando giraban en órbitas circulares
en planos normales a la dirección de H, y con una
frecuencia ν:
eH
ν = ν0 ±
(1)
4πmc
donde e y m representan, respectivamente, la carga
y la masa del “ion”, y c la velocidad de la luz en el
vacı́o.
En 1897, Larmor presentó otra explicación teórica
para el efecto Zeeman. Segun él, el efecto magnético del campo H sobre las partı́culas cargadas que
describen órbitas circulares era el de sobreponer a
la frecuencia propia de rotación una frecuencia precesional alrededor de H y del mismo valor calculado por Lorentz. Hoy se conoce a esta frecuencia precesional como frecuencia de Larmor.
Según Lorenz, cuando se hace la observación del efecto Zeeman en la dirección del campo magnético, aparecerı́an apenas dos lı́neas polarizadas circularmente
en sentido inverso una de otra. Por otro lado, cuando
la observación se hiciera perpendicularmente al campo H, aparecerı́an tres lı́neas, la central polarizada linealmente en la dirección de H, llamada componente π, y las dos extremas, polarizadas también linealmente pero en dirección perpendicular a H, la llama-
El estudio del efecto Zeeman mantuvo el interés creciente por el mundo subatómico. Con todo, las nuevas observaciones experimentales bajo la acción de
un campo magnético en una lı́nea espectral no se
ajustaron a la explicación de Lorentz. En efecto, en
1898, el fı́sico irlandés Thomas Preston (1860–1900)
observó que las lı́neas azules del zinc y del cadmio se
volvian un cuadruplete. En 1898, Cornu obtuvo otro
cuadraplete, esta vez con la lı́nea D1 del sodio y un
sextuplete para su lı́nea D2 , lo cual fue confirmado por Preston. También en 1898, Michelson consiguió separar la lı́nea verde del mercurio en once
componentes.
Estas versiones más complejas del efecto Zeeman,
conforme las llamó Lorentz, fueron estudiadas sistemáticamente por Preston y por los fı́sicos alemanes Carl David Tomé Runge (1856–1927) y Louis
Carl Heinrich Friedrich Paschen (1865-1947), estudios que llegarı́an a ser conocidos, respectivamente, como regla de Preston y regla de Runge, los cuales estaban relacionados con los efectos Zeeman normal y complejo.
A fin de investigar más detalladamente estos efectos, Paschen invitó a su alumno de doctorado, el
fı́sico alemán Ernst Emil Alexander Back (1881–
1959). Ası́, en 1912/1913, descubrieron que cuando un campo magnético empieza a aumentar, muchos componentes complejos sufren una transformación magnética, se vuelven cada vez más débiles hasta reducirse a una configuracion “Zeeman normal”.
En otras palabras, el efecto Zeeman anómalo (como llamaban al efecto Zeeman complejo) se transforma en el efecto Zeeman normal a medida que aumenta el campo magnético externo. Ası́, el efecto
Paschen–Back5 explica las reglas de Preston y de
Runge.
El efecto Paschen–Back sólo comenzó a ser entendido con los trabajos de Sommerfeld y de los fı́sicos Alfred Landé (1888–1975), Werner Karl Heisenberg (1901–1976, premio nobel de fı́sica en 1932),
Wolfgang Pauli Junio (1900–1958, premio nobel de
fı́sica en 1945), Ralph Ralph de Ler Krönig (1904–
1995), Arthur Holly Compton (1892–1962, premio
5 Nombre acuñado por el fı́sico alemán Arnold Johannes
Wilhelm Sommerfeld (1868–1951) en 1914.
Crónica de los efectos fı́sicos. Parte II. José M. Filardo Bassalo
nobel de fı́sica en 1927), George Eugen Uhlenbeck
(1900–1988) y Samuel Abraham Goudsmit (1902–
1978) entre 1920 y 1925 al desarrollar el modelo vectorial del átomo.
Según este modelo (en notación actual) el momento
~ del electrón atómico es la suma
angular total (J)
~ y de su
vectorial de su momento angular orbital (L)
~
momento angular intrı́nseco o spin (S), esto es:
~ +S
~
J~ = L
~ puede tomar valores
En tanto que el módulo de L
~ sólo puede
enteros (0h̄, 1h̄, 2h̄, . . .) el módulo de S
1
tomar los valores ± 2 h̄.
~ es fuerCuando el campo magnético externo (H)
~
te, J precede en su dirección. En cuando disminu~ y S
~ preceden independientemenye ese campo, L
~ Es oportuno destacar que,
te en la dirección de H.
en el caso del efecto Paschen–Back la ecuación 1 tomará la forma siguiente:
eH
ν = ν0 ±
g
4πmc
donde g es el factor de Landè cuyo valor actual
está dado por:
g =1+
j(j + 1) + s(s + 1) − ℓ(ℓ + 1)
2j(j + 1)
donde:
ℓ =
0, 1, 2, . . .
1
s =
2
1
j = ℓ+
2
15. Efecto Stark–Lo Surdo (1913)
En 1901, el fı́sico alemán Woldemar Voigt (1850–
1919) anticipó la existencia de un efecto eléctrico parecido al efecto Zeeman, o sea, la separación de lı́neas
espectrales por un fuerte campo eléctrico. Con todo, al intentar explicar ese probable efecto mediante
la fı́sica clásica, concluyó que, para un campo eléctrico de 300 V/cm habrı́a una separación tan pequeña
entre las lı́neas D del sodio que serı́a imposible observarla. El fı́sico alemán Johannes Stark (1874–1957,
premio nobel de fı́sica en 1919) intentó medir esta separación en 1906, estimulado por su descubrimiento del efecto Doppler en los rayos canales. Estos rayos fueron descubiertos por el fı́sico alemán Eugen Goldstein (1850–1931) al experimentar con tubos de vacı́o a fin de entender el brillo de su cáto-
17
do; pensó que resultaba del impacto de algún agente en el electrodo, de aquı́ que hiciera unos agujeros en éste con lo que verificó que también se producı́a brillo por detrás del electrodo; puesto que algo habı́a pasado a través de esos canales los denominó “rayos canales”.
A partir de 1905, Stark desarrolló una serie de trabajos relacionados con el efecto Doppler de los rayos canales. Ya en 1907, Stark habı́a intuido una
relación entre el campo eléctrico y las lı́neas espectrales pues afirmaba que el espectro de banda
(continuo) de los elementos era debido a la excitación de los cuerpos neutros y que el espectro de
lı́nea (discreto) era debido a la excitación de los
átomos ionizados que, a su vez, estaban cargados
eléctricamente.
En 1908 Stark propuso un modelo6 según el cual las
series espectrales se relacionaban con un proceso de
ionización de átomos y moléculas y que su frecuencia
ν dependı́a del potencial de ionización V mediante
hν = eV .
En octubre de 1913, Stark hizo un experimento donde registró el paso de rayos canales en una mezcla de
hidrógeno y helio; observó que las lı́neas Hα y Hβ del
hidrógeno, cuando eran vistas en la direción perpendicular a un fuerte campo electrostático E (de 10000
a 31000 V/cm) se desdoblaban en cinco componentes, las oscilaciones de los tres componentes internos (intensidad débil) eran paralelas a la dirección
del campo, y las de los componentes externos (intensidad fuerte) eran perpendiculares a ese mismo campo. Observó también que la distancia entre esos componentes era proporcional a E.
Para el helio, Stark observó que el efecto del campo
eléctrico sobre las lı́neas de las series p (principal)
y s (sharp) era muy pequeño, pero el efecto sobre
la serie d (diffuse) era del mismo orden que para las
series del hidrógeno, aunque de tipo diferente.
Estos descubrimientos fueron comunicados a la Academia Prusiana de Ciencias el 20 de noviembre de
1913. Debemos destacar que, también en 1913, el
fı́sico italiano Antonino Lo Surdo (1880–1949) hizo una observación semejante al estudiar la acción
de un campo eléctrico sobre el espectro de emisión
de un gas. De aquı́ que ese efecto sea conocido también como efecto Stark–Lo Surdo (figura 3).
Los primeros experimentos realizados por Stark
acerca de este nuevo fenómeno fı́sico fueron publicadas en Sitzungsberichte Königlich Preussische Akademie der Wissenschaften zu Berlin 40, p. 932, en
1913, con el tı́tulo: Beobachtungen über den Effekt
des elektrischen Feldes auf Spektrallinien.
6 Physikalische
Zeitscrhift 9, p. 85.
18
ContactoS 82, 13–22 (2011)
Figura 3. Efecto Stark de primer y segundo orden en
átomos de hidrógeno.
Otros experimentos al respecto fueron publicados en
Physikalische Zeitschrift 15, p. 265 (1914), en Verhandlungen der Deustschen Physikalische Gesellschaft 16, p. 327 (1914), en Nachrichten Königlich
Gesellschaft der Wissenchaften Göttingen, p. 427
(1914), en Annalen der Physik 43, p. 965 (1914), en
Annalen der Physik 43, p. 983 (1914), y con su asistente George Wendt en Annalen der Physik 43, pp.
991 y 1017 (1914), con su asistente Heinrich Kirschbaum, en Annalen der Physik 48, pp. 193 y 210
(1915), en Annalen der Physik 56, p. 569 (1918),
con sus asistentes O. Hardtke y G. Liebert, en Annalen der Physik 56, p. 577 (1918), en Annalen der Physik 58, p. 712 (1919), con Hardtke en Annalen der
Physik 58, p. 712 (1919).
16. Efecto Sagnac (1913)
En 1881 el fı́sico germano norteamericano Albert
Abraham Michelson (1852–1931, premio nobel de
fı́sica en 1907) inventó un interferómetro a fin de verificar la existencia del éter luminı́fero cartesiano. En
este aparato un rayo de luz es dividido en dos (r1 , r2 )
al incidir en una lámina de vidrio P cuya cara posterior está recubierta por una fina capa de plata. El rayo r1 es reflejado por la superficie de plata y se dirige mediante un espejo M1 a una distancia d de P ;
el rayo r2 atraviesa P y llega al espejo M2 colocado a la misma distancia d de P . Después de la reflexión de r1 en M1 el rayo recorre la misma distancia d hasta la placa P ; una parte de él refleja y la otra
atraviesa P dirigiéndose a un telescopio manipulado por un observador O. A su vez, el rayo r2 , después de reflejarse en M2 recorre la misma distancia d hasta la placa P ; una parte de él se refleja y la
otra atraviesa P dirigiéndose al telescopio del observador O (figura 4).
Michelson esperaba que, cuando los dos rayos lle-
Figura 4. El experimento de Sagnac.
gasen al telescopio habrı́a un desplazamiento de las
franjas de interferencia cuando se rotase el interferómetro. Tal desplazamiento resultarı́a de la diferencia de tiempo empleado por la luz en los dos
brazos iguales del interferómetro, diferencia calculada por la composición de velocidades galileana, hasta entonces paradigma de la fı́sica. Con todo, apenas observaron un minúsculo desplazamiento que
hacı́a incompatible la existencia del éter luminı́fero con aquella ley.
En 1887 Michelson y el quı́mico norteamericano Edward William Morley (1838–1923) confirmaron los
resultados obtenidos en 1881.
Por sugerencia de Michelson, el fı́sico francés Georges M. M. Sagnac (1869–1928) construyó un interferómetro de rotación en el cual todos los componentes (espejos, fuentes de luz, cámara fotográfica)
se hallaban en un disco que podı́a ser girado a diferentes velocidades. De ese modo, la luz viajaba alrededor del disco y a lo largo de un circuito poligonal determinado por las sucesivas reflexiones en
los cuatro espejos colocados en el perı́metro del disco. Ası́, la luz proveniente de la fuente está dividida en dos ejes que viajan alrededor del disco en direcciones opuestas y, al combinarse en la placa fotográfica, producen figuras de interferencia. La construccion de este interferómetro y los experimentos
desarrollados fueron descritos por Sagnac en varios
artı́culos publicados entre 1910 y 1911.
Con todo, en 1913, Sagnac hizo una observación sorprendente con ese equipo: cuando invertı́a la dirección de rotación habı́a un desplazamiento de las fran-
Crónica de los efectos fı́sicos. Parte II. José M. Filardo Bassalo
jas de interferencia. Este resultado contradecı́a la
Teorı́a de Relatividad Einsteniana de 1905; fue publicado en los Comptes Rendus Hebdomadaires des
Séances de l’Académie des Sciences 157, p. 708, en
1913, con el siguiente tı́tulo L’éther lumineux demonstré par l’effet du vent relatif d’éther dans une
interféromètre em rotation uniforme. Esta observación llegó a ser conocida como efecto Sagnac. Vale anotar que una observación análoga ya habı́a sido realizada por F. Harress en 1911 y discutida el
mismo año por el fı́sico alemán Max Theodor Felix von Laue (1879–1960, premio nobel de fı́sica en
1914).
Desde que Sagnac manifestó su descubrimiento se
han hecho variaciones del experimento original7 sin
poderlo confirmar o negar definitivamente. El Sistema de Posicionamiento Global (GPS) diseñado
para orientar la navegación aérea depende, obviamente, del efecto Sagnac por lo que es muy comprensible el interés por esclarecerlo. Es oportuno
decir que en 1993, este efecto fue observado en
un interferómetro de neutrones8 y que su existencia no es explicada por la teorı́a de la relatividad
einsteiniana.
17. Efecto Lense–Thirring (1918)
En 1915, Albert Einstein (1879–1955; premio nobel
de fı́sica en 1921) presentó su famosa Teorı́a de la Relatividad General (TRG), según la cual la presencia de energı́a–materia induce en el espacio una geometrı́a no euclideana y, de tal modo, curva el espacio que la incluye. Usando esa teorı́a, en 1918, los fı́sicos austrı́acos Joseph Lense y Hans Thirring, predijeron con un experimento mental, la precesión de
un giróscopo fijo en el interior de un cuerpo esférico masivo giratorio como la Tierra. En el lenguaje de la TRG, la velocidad angular ω
~ de la precesión está dada por:
!
~
6 GR2 m ~
~r
1Ω
ω
~ =
Ω · ~r 5 −
5 c2
r
3 r3
~ son, respectivamente, el radio, la madonde R, m, Ω
sa y la velocidad angular de la esfera giratoria, G es
la constante de gravitación newtoniana, ~r es la posición del giróscopo y c la velocidad de la luz en
el vacı́o. Cuando el giróscopo se encuentra en el
polo sur o en el ecuador de la esfera tendremos,
respectivamente.
ω
~ PN
ω
~ Ecuador
4 Gm ~
Ω
5 Rc2
2 GR2 m ~
= −
Ω
5 c2 r3
=
7 Hay más detalles al respecto en
http://www.ldolphin.org/sagnac.html
8 Rauch, H. 1993. Science 262, p. 1384.
(2)
(3)
19
Los resultados anteriores fueron, inicialmente, explicados usando el principio de Mach, presentado en su
famoso libro intitulado Die Mechanik in Ihrer Entiwicklung Historisch–Kritisch Dargestellt de 1883; en
éste afirmó que la inercia se origina por la interacción de una masa dada con todas las demás masas
del universo (Einstein, en 1918) lo denominó “principio de Mach”). Ası́, por ejemplo, la diminuta precesión en el polo Norte, dada por la expresión 2, en
el sentido de rotación de la Tierra puede ser tomada como una medida del movimiento de nuestro planeta y, por otro lado, del no–movimiento de la restante masa del Universo. Con todo, el fı́sico norteamericano Wolfgang Rindler, en 1994, presentó una
demostración no–machiana para la precesión ecua~ tienen el
torial, esto es, demostró que ω
~ Ecuador y Ω
mismo sentido, no sentidos contrarios según lo indicado en la expresión 3.
El efecto Lense–Thirring fue presentado por sus autores en la revista Physikalische Zeitschrift 19, p.
156, en 1918, con el tı́tulo: Über den Einfluss der Eigenrotation der Zentralkörper auf die Bewegung der
Planeten und Monde nach der Einsteinschen Gravitationstheorie.
Es importante precisar que el efecto Lense–Thirring
también ha sido propuesto recientemente como experimento mental; en 1998 los astrofı́sicos norteamericanos Dragoljub Markovix y Frederick K. Lamb
descubrieron perturbaciones permanentes en la parte más interna de los discos de acreción de sistemas
binarios compactos (del tipo de estrellas neutrónicas y de agujeros negros, emisores de rayos X oscilantes de alta frecuencia) que giran, probablemente, en la frecuencia de precesión gravitomagnética de
Lense–Thirring.
Poco después del descubrimiento de la emisión de
rayos X por las estrellas neutrónicas y los agujeros
negros, los fı́sicos norteamericanos J. A. Bardeen y J.
A. Petterson discutieron la posibilidad de observar
el fecto Lense–Thirring en los discos de acreción de
esos objetos astronómicos; en un artı́culo de 1975 de
The Astrophysical Journal 195, p.L65 presentaron lo
que es hoy conocido como efecto Bardeen–Petterson.
18. Efecto Barkhausen (1919)
Conforme vimos en la primera parte de esta Crónica
de Efectos Fı́sicos, en 1845, Faraday clasificó las sustancias en dı́a y paramagnéticas dependiendo de si
las lı́neas de fuerza (concepto que desarrolló en 1821)
del campo magnético divergı́an o convergı́an respectivamente en su interior. Debido a que esta clasificación no estaba respaldada por ninguna explicación
del fenómeno, el fı́sico alemán Wilhelm Eduard Weber (1804–1891) usó las “corrientes amperianas”. En
20
1822, el fı́sico francés André Marie Ampère (17751836) propuso que el magnetismo natural era consecuencia de una infinidad de corrientes circulares
diminutas; las sustancias no magnéticas las tenı́an
orientadas al azar, de forma que su efecto global
era nulo.
Weber propuso que el diamagnetismo se debı́a a los
circuitos de esas corrientes en los que la resistencia ohmica es nula, de modo que un campo magnético externo causarı́a en esos circuitos corrientes autoinducidas cuyas direcciones estaban definidas por
la ley de Lenz, esto es, la corriente de autoinducción tiene sentido contrario a la externa. Para explicar el paramagnetismo propuso que las corrientes
moleculares permanentes eran orientadas por el campo magnético externo. Ası́, para Weber, las sustancias paramagnéticas serı́an aquellas cuyo paramagnetismo es suficientemente fuerte como para enmascarar al diamagnetismo.
Más tarde, en 1852, Weber usó su modelo de corrientes eléctricas dentro de los cuerpos magnetizados para explicar porqué en las sustancias muy
magnéticas, como el hierro, la magnetización inducida no aumenta en proporción al aumento del campo
magnetizante sino que tiende a un valor de saturación. Tales sustancias fueron más tarde denominadas
“ferromagnéticas”.
La distinción que Weber hizo entre dia y paramagnetismo fue confirmada por el quı́mico y fı́sico francés
Pierre Curie (1859–1906, premio nobel de fı́sica en
1903), en 1895, al demostrar que la susceptibilidad
magnética χ varı́a en forma inversamente proporcional con la temperatura absoluta T para las sustancias paramagnéticas y que para las diamagnéticas es independiente de la temperatura; el enunciado anterior es la famosa ley de Curie.
La primera aplicación de un modelo microscópico al
estudio del magnetismo fue presentado por el fı́sico francés Paul Langevin (1872–1946) en 1905. Para explicar el paramagnetismo, admitió que los átomos y moléculas poseı́an un momento magnético
intrı́nseco y permanente µ, cuya distribución espacial era boltzmanniana. Este modelo langeviano fue
utilizado, a su vez, por el fı́sico francés Pierre Ernst
Weiss (1865–1940) para explicar el ferromagnetismo
en 1907; consideró que una sustancia ferromagnética estaba constituida por pequeños dipolos magnéticos sometidos a un intenso campo magnético interno
denominado por él campo molecular. A partir de este trabajo, Weiss dedujo que en una sustancia ferromagnética existen regiones mayores que los átomos y
moléculas –los llamados dominios– que son intrı́nsecamente magnéticos y orientados en diferentes direc-
ContactoS 82, 13–22 (2011)
ciones, de modo que una parte finita de la sustancia podrı́a no estar magnetizada.
En 1919, Barkhausen publicó un artı́culo en Physikalische Zeitschrift 20, p. 401, con el tı́tulo: Zwei
mit Hilfe der neuen Verstärker entdeckte Erscheinungen donde describe el resultado de un experimento conocido hoy como efecto Barkhausen: el paulatino aumento contı́nuo en el campo magnético aplicado a un material ferromagnético provoca saltos en la magnetización percibidos como sonidos en un micrófono. Obsérvese que ese efecto fue importante para la elucidación de los dominios weissianos, lo cual ocurrió con el desarrollo de la mecánica cuántica a partir de 1926. Obsérvese, además, que
en 1930 Barkhausen utilizó su efecto para explicar la propagación de ondas de radio en la atmósfera
terrestre.
19. Efecto Ramsauer–Townsend (1921/1922)
En 1921, el fı́sico alemán Carl Wilhelm Ramsauer
(1879–1955) estudió la dispersión de electrones de
muy baja energı́a (0.75 a 1.1 ev) en los gases inertes argón, kriptón y xenón. Para el argón, por ejemplo, observó que la sección efectiva de choque de esta dispersión era mucho mayor de la calculada por
la teorı́a cinética de los gases. Los experimentos de
1921 con un intervalo de energı́a mayor de electrones reveló una sorprendente variación en la sección
de choque.
En 1922, los fı́sicos ingleses Sir John Sealy Edward
Townsend (1868–1957) y V. A. Bailey examinaron la
dispersión estudiada por Ramsauer para electrones
en el intervalo de energı́a 0.2 a 0.8 eV y, usando un
método diferente, encontraron que el camino libre
máximo de un electrón ocurre en 0.39 eV.
Estos experimentos fueron publicados por Ramsauer
en Annalen der Physik 64, p. 513, y 66, p. 546,
en 1921, con el tı́tulo: Über den Wirkungsquerschnitt der Gasmoleküle gegenüber langsamen Elektronen, y por Townsend y Bailey en Philosophical Magazine 43, p. 593, y 44, p. 1033, en 1922, con los
tı́tulos: The motion of electrons in argon y The motion of electrons in argon and in hydrogeneral. Hoy
es el conocido efecto Ramsauer–Townsend explicado por la mecánica cuántica entre 1925 y 1927. En
1929, Ramsauer y R. Kollath confirmaron que los
gases nobles de sus experimentos eran transparentes para una energı́a cinética crı́tica.
20. Efecto Compton–Debye (1923)
En la primera parte de esta Crónica vimos que Einstein, en 1905, explicó el efecto fotoeléctrico suponiendo que la luz es un paquete de energı́a hν, el conocido “quantum” de luz o fotón. En 1905, Eins-
Crónica de los efectos fı́sicos. Parte II. José M. Filardo Bassalo
tein demostró que la masa m de un cuerpo y su contenido de energı́a E están relacionados por la famosa expresión:
E = mc2
donde c es la velocidad de la luz en el vacı́o.
Más tarde, en 1916, al estudiar la radiación de Planck del cuerpo negro, Einstein consideró por primera vez que la radiación electromagnética, en particular la luz, era portadora de un momento p definido por:
hν
p=
c
El carácter partı́cula–onda de la radiación electromagnética implı́cito en la expresión anterior fue observado por el fı́sico norteamericano Arthur Holly
Compton (196–1962, premio nobel de fı́sica en 1927),
en 1923, en su estudio de la dispersión de rayos X
por la materia. En 1923, una observación semejante fue hecha por el fı́sico y quı́mico holandés Petrus
Joseph Wilhelm Debye (1884-1966, premio nobel de
quı́mica en 1936). Anotemos que el artı́culo de Compton fue publicado en Physical Review, 21, p.483 en
1923, con el tı́tulo A quantum theory of the scatterign of X rays by light elements.
Los primeros debates donde se discute acerca de esta dualidad fueron presentados por Compton en octubre de 1922 en el Bulletin of the National Research
Council of the U.S.A. y en la reunión de la American Physical Society del 1 y 2 de diciembre de 1922.
Por otro lado, Debye publicó su descubrimiento en
Physikalische Zeitschrift 24, p.161, 1923.
La observación experimental de Compton y Debye
de la dispersión de rayos X por elementos ligeros
(conocida obviamente como efecto Compton–Debye,
es representada por la expresión:
λ′ − λ =
h
(1 − cos θ)
mc
(4)
donde λ′ t λ representan, respectivamente, las longitudes de onda de los rayos X después y antes de
ser dispersados por los electrones de masa m, θ es
el ángulo de dispersión, h es la constante de Planck y c es la velocidad de la luz en el vacı́o.
A pesar de que Compton consideró los principios
de conservación de energı́a y de momento linear para los rayos X y para el electrón, no llegó a deducir la expresión 4 pues estos principios eran cuestionado por eminentes fı́sicos, p. ej. el danés Niels Henrik David Bohr (1885-1962, premio nobel de fı́sica,
1922) y el alemán Arnold Johannes Wilhelm Sommerfeld (1868–1951). En 1924 Bohr y los fı́sicos Hendrik Anthony Kramers (1894–1952) y John Clarke
21
Slater (1900–1976) (el primero holandés, el segundo inglés) elaboraron la hipótesis BKS según la cual
los principios de conservación de energı́a y de momento linear no valı́an en procesos microscópicos, como es el efecto Compton–Debye, sino que sólo valı́an
estadı́sticamente para fenómenos macroscópicos,
figura 5.
Figura 5. Energı́a cuantizada.
Los fı́sicos alemanes Walther Bothe (1891–1957, premio nobel de fı́sica en 1954) y Hans Wilhelm Geiger (1882–1945) lograron realizar en 1924 unos experimentos más precisos que revelaron la validez de
las leyes de conservación de energı́a y de momento linear de la expresión 4; ello refutó la hipótesis BKS.
Lo mismo ocurrió con los experimentos de 1925 hechos por el mismo Compton, auxiliado Alfred Walter
Simon. Después de realizar muy diversos experimentos este efecto tuvo una explicación teórica más adecuada con el formalismo de segunda cuantización de
los fı́sicos Oskar Benjamin Klein (1894–1977, sueco) y Yoshio Nishina (1890–1951, japonés) en 1929,
con la famosa ecuación de Klein–Nishima.
21. Efecto Meitner–Auger (1923/1925)
En 1913 Bohr propuso un modelo atómico según el
cual el átomo está constituido por un núcleo cubierto
por electrones que giran en órbitas circulares con
energı́as cuantizadas (En ) dadas por:
En = −
13.6
eV
n2
n = 1, 2, 3, . . .
De acuerdo a este modelo, la diferencia entre dos niveles de energı́a está dada por el quantum de energı́a
planckiana: En − Em = hνm . De este modo, un
electrón podrı́a ir de un nivel de energı́a más bajo a uno más alto (excitación) recibiendo ese quantum de energı́a, o bien devolverlo en el proceso inverso (desexcitación). Estos niveles de energı́a recibieron el nombre de capas: K, L, M, . . . con sus respectivas energı́as: EK , EL , EM , . . .
ContactoS 82, 13–22 (2011)
22
Por otro lado, un átomo puede perder un electrón
al recibir un quantum de luz de energı́a hν mayor
que la energı́a de enlace del electrón en una capa dada. Éste es, en general, el llamado efecto fotoeléctrico (presentado en la Parte 1 de esta Crónica) cuando el electrón es arrancado de las capas más externas del átomo. Con todo, también se da en las capas internas, cuando inciden rayos X; se habla entonces de fotoelectrones K, L, M, . . . producidos respectivamente por las capas K, L, M, . . . Esta notación fue desarrollada por el fı́sico inglés Sir Charles Glover Barkla (premio nobel de fı́sica en 1917)
en 1911.
La ionización mencionada también emite rayos X en
el proceso conocido como fluorescencia de rayos X
(por su semejanza con la fluorescencia óptica) cuyo
rendimiento de fluorescencia r está dado por:
r=
nq
ne
Donde nq t ne representan, respectivamente, el
número de quanta X emitidos y el número de fotoelectrones. Se han usado diversos métodos para medir este rendimiento; uno de ellos es la cámara de
Wilson donde un vapor superenfriado se condensa en
partı́culas de lı́quido alrededor de cualquier ion presente. Fue inventada en 1911 por el fı́sico escocés
Charles Thomson Rees Wilson (1869–1959, premio
nobel de fı́sica en 1927).
En la primera mitad de la década de 1920 algunos investigadores detectaron un nuevo fenómeno al medir
la energı́a de los fotoelectrones. Por ejemplo, el fı́sico francés Louis César Victor Maurice, Duque de
Broglie (1875–1960) experimentó con los fotoelectrones K de la plata al recibir un haz de rayos X
provenientes de tungsteno (WK ) y notó que habı́a
señales de fotoelectrones L y M de la plata. Los experimentos de fluorescencia de rayos X de Maurice de Broglie fueron descritos en el libro Les Rayons, publicado en 1922 en Parı́s. Es oportuno anotar que, en 1909, el fı́sico inglés Charles Albert Sadler, uno de los colaboradores de Barkla, ya habı́a registrado este fenómeno.
Este nuevo fenómeno era más evidente en una cámara de Wilson, pues los fotoelectrones son visibles
en la trayectoria de los rayos X. En 1923, el mismo Wilson y la fı́sica austrı́aca Lise Meitner (1878–
1968) observaron que habı́a una pequeña interrupción en el origen de las trayectorias. La misma observación fue hecha por el fı́sico francés Pierre Victor Auger (1899–1993), en 1925. En efecto, utilizando una cámara de Wilson para estudiar la emisión de
fotoelectrones por el argón sometido a rayos X, percibió que el 90 % de los trazos de los fotoelectrones tenı́a un trazo cortado. A fin de estudiar con
más detalle ese fenómeno, Auger diluyó el argón con
hidrógeno a fin de aumentar lo que hoy se conoce comotrazos Auger. Observó que ese trazo tenı́a el mismo origen que el fotoelectrón y que su longitu dependı́a de la dirección del fotoelectrón ası́ como de
la frecuencia de los rayos X usados.
Para interpretar ese hecho, Auger presentó la siguiente explicación. El átomo de argonio ionizado
en la capa K sufre una redistribución en la cual uno
de los electrones de la capa L ocupa el lugar vacı́o
de la K. La energı́a liberada, EK − EL , no es emitida como rayos X (como serı́a el caso de la fluorescencia de rayos X), sino que provoca una ionización
de la capa L. En consecuencia, si EL es la energı́a de
esta segunda ionización (o autoionización), supuesta igual a la primera, la energı́a cinética K comunicada al electrón Auger, estará dada por:
K = (EK − EL ) − EL = EK − 2EL
que apenas depende del átomo emisor. Nótese que
puede haber nuevas redistribuciones electrónicas sin
emisión de radiación.
El descubrimiento de Auger fue publicado en Le
Journal de Physique et le Radium 6, p.205 con el
tı́tulo: Sur l’effet photoélectrique composé en 1925, y
en Comptes Rendus Hebdomadaires des Séances de
l’Académie des Sciences de Paris 180, p.65. Es oportuno observar que, en 1923, Lise Meitner habı́a dado
una explicación análoga a la de Auger en el artı́culo
Das beta–Strahlenspektrum von UX1 und seine Deutung en la revista Zeitschrift für Physik 17, p.54.
De aquı́ que este fenómeno se conozca como efecto Meitner–Auger.
cs
Crónica de los efectos fı́sicos. Parte III*
José Marı́a Filardo Bassalo,
Fundación Minerva, Prof. retirado de la Universidad de Pará
www.bassalo.com.br
* Traducción por J. L. Córdova, Depto. de Quı́mica, UAM–
Iztapalapa. joseluiscordovafrunz@gmail.com
ContactoS 82, 23–32 (2011)
24
Resumen
En esta Crónica presentaremos los efectos fı́sicos descubiertos de 1925 a 1950: Raman–Mantelsthtam–
Landsberg (1928), Túnel (1928), Hubble–
Humason
(1929/1931),
Meissner–Ochsenfeld
(1933), Kapitza–Dirac (1933), Cherenkov–Vavilov
(1934), Pinch (1934/1939), Uehling–Pasternack–
Lamb (1935/1938/1947), URCA (1941), Casimir (1948), Isotópico (1950), Pomeranchuk (1950).
22. Efecto Raman-Mandelshtam-Landsberg
(1928)
En 1914, el fı́sico francés León Nicolás Brillouin
(1889–1969) realizó diferentes estudios1 donde observó que la luz difractada en un medio transparente podı́a modificar su frecuencia. Debido a la I Guerra Mundial (1914–1918) sólo pudo completar sus estudios en 1922.2 Por otro lado, el descubrimiento, en
1923, del efecto Compton3 (difracción de los rayos X
por la materia) llevó a los fı́sicos, el austriaco Adolf
Gustav Stephan Smekal (1895–1959), en 1923,4 al
holandés Hendrik Anthony Kramers (1894–1952) y
al alemán Werner Karl Heisenberg (1901–1976), premio nobel de fı́sica en 1932), en 1925,5 a anticipar
un efecto semejante para la luz visible.
La observación de Brillouin y las predicciones de
Smekal–Kramers-Heisenberg fueron confirmadas en
1928 en diversos experimentos realizados independientemente. En efecto, el 21 de febrero de 1928, los
fı́sicos rusos Leonid Isaakovich Mandelshtam (1879–
1944) y Grigory Smuilovich Landsberg (1890–1957),
en Rusia, y los fı́sicos indios Sir Chandrasekhara
Venkata Raman (1888–1970, premio nobel de fı́sica en 1930) y Mariamankkam Srinivasa Krishnan,
en la India, descubrieron el análogo óptico del efecto Compton, esto es, la variación en la frecuencia (la
compresión de onda) de la luz incidente cuando atraviesa un medio trasparente, efecto conocido hoy como efecto Raman. Los rusos emplearon una lámpara de mercurio y un espectrógrafo de cuarzo para medir la excitación óptica de un cristal; los fı́sicos indios, en cambio, emplearon un espectroscopio de visión directa para medir las vibraciones moleculares
de diferentes lı́quidos y vapores.
Este descubrimiento fue presentado por Raman y
Krishnan en Nature 121, p. 501, 771, y por Raman
1 Brillouin,
L. N. 1914. Comptes Rendus Hebdomadaires
des Séances de l´Académie des Sciences 158, p. 1331 y Annalen der Physik 44, p. 203.
2 Brillouin, L. N. 1922. Annales de Physique 17, p. 103.
3 Crónica de los efectos fisicos. Parte II. Contactos No. 82,
2011
4 Smekal, A. G. S. 1923. Naturwissenschaften 11, p. 873.
5 Kramers, H. A. y Heisenberg, W. K. 1925. Zeitschrift für
Physik 31, p. 681.
en Nature 121, p. 619. También lo publicó en el Indian Journal of Physics 2, p. 387, en 1928 con el tı́tulo “A new radiation”. Por su parte, Mandelshtam
y Landsberg presentaron sus resultados en Zhurnal Russkogo Fizicheskoi–Khimii Obshchestva Fiziki 60, p. 335, y en Zeitschrift für Physik 50, p. 769
(Über die Litchtzerstreuung in Kristallen) y en Naturwissenshaft 16, p. 557, también en 1928.
Es importante destacar que, en 1929, los fı́sicos alemanes Walter Heitler (1904–1981) y Gerhard Herzberg (1904–1999, premio nobel de quı́mica en 1971)6
y, de manera independiente, el fı́sico italiano Franco Rama Dino Rasetti (1901–2001)7 efectuaron experimentos donde observaron que el espectro Raman rotacional de la molécula de nitrógeno (14 N ) no
coincidı́a con el modelo nuclear en vigor, esto es, el
núcleo formado de electrones y protones. Ésta era la
primera evidencia experimental de la existencia del
neutrón, cuyo descubrimiento ocurrió en 19328 gracias a las investigaciones experimentales del inglés
Sir James Chadwick (1891–1974), premio nobel de
fı́sica en 1935).
23. Efecto túnel. (Gamow; Gurney y Condon;
Oppenheimer; Fowler y Nordheim, 1928)
En 1911,9 los fı́sicos, el alemán Hans (Johannes) Wilhelm Geiger (1882–1945) y el inglés John Mitchell
(Michael) Nuttal (1890–1958) presentaron los primeros resultados de sus experimentos en los que observaron regularidades en el decaimiento alfa (α) de algunos núcleos radioactivos.
En 1897, el fı́sico inglés Lord Ernest Rutherford
(1871–1937), premio nobel de quı́mica en 1908) se
interesó por los “rayos Becquerel”, descubiertos en
1896 por el fı́sico francés Antoine–Henri Becquerel
(1852–1908, premio nobel de fı́sica en 1903). Al estudiar el paso de esos “rayos” a través de hojas metálicas observó que existı́an dos tipos de rayos: uno era
fácilmente absorbido y otro tenı́a gran capacidad de
penetración. Los distinguió por esta capacidad, respectivamente, como partı́culas alfa (α) y partı́culas
beta (β). En 1905, el fı́sico austriaco Egon Ritter von
Schweidler (1873–1948) formuló su famosa ley de desintegración radioactiva:
A = A0 eλt
donde A es la actividad radioactiva de una muestra en el instante t, A0 es la actividad inicial (t0 = 0)
6 Kramers, H. A. und Heisenberg, W. K. 1925. Zeitschrift
für Physik 31, p. 681.
7 Rasetti, F. R. D. 1929. Proceedings of the National Academy of Sciences 15, p. 515.
8 Chadwick, J. 1932. Proceedings of the Royal Society of
London A136, pp. 696; 735.
9 Geiger, H. and Nuttall, J. M. 1911. Philosophical Magazine 22, p. 613.
Crónica de los efectos fı́sicos. Parte III. José M. Filardo Bassalo
y λ es una constante caracterı́stica del material radioactivo (constante de decaimiento). En 1908, Rutherford y Geiger anunciaron que la partı́cula α era
un átomo de helio (He) y que presentaba una carga eléctrica de dos electrones (2e).
En 1912, Geiger y Nuttall10 propusieron una fórmula
empı́rica relacionando la constante de decaimiento
radiactivo (λ) y el máximo alcance (r) o energı́a de
desintegración, logrado por la partı́cula α en el aire.
Esta ley de Geiger–Nuttall se expresa con:
log λ = a + b log r
donde a y b son constantes.
Intentando explicar esa ley, en 1928, el fı́sico rusonorteamericano George Gamow (1904–1948) usó la
ecuación de Schrödinger para resolver el problema
de una partı́cula frente una barrera de potencial
coulómbico con energı́a menor que la altura de la
barrera. De este modo demostró que una partı́cula, al chocar con una barrera, presentaba una probabilidad (conocida como efecto túnel) de atravesarla. Este resultado publicado en la revista Zeitschrift für Physik 51 (p. 204), con el tı́tulo: Zur Quantentheorie des Atomkernes.
Es oportuno recordar que el fı́sico austrı́aco Erwin Schrödinger (1887–1961; premio nobel de fı́sica, 1933) desarrolló la Mecánica Cuántica Ondulatoria en cuatro trabajos publicados en 1926, en Annalen der Physik 79, pp. 361; 489; 80, p. 437; 81,
p. 109.
Obsérvese que un resultado análogo al de Gamow
fue obtenido por los fı́sicos, el inglés Ronald Wilfrid Gurney (1898–1953) y el norteamericano Edward Uhler Condon (1902–1974) en su trabajo publicado en Nature 122, p. 439, en 1928.
Destaquemos que el concepto de tunelamiento también fue considerado en otras situaciones fı́sicas. En
1928, el fı́sico norteamericano Julius Robert Oppenheimer (1904–1967) mostró que la autoionización de
los estados excitados del átomo de hidrógeno (H) se
desvı́an por un proceso de tunelamiento.11 En efecto, la barrera de potencial coulómbico que enfrenta el electrón serı́a distorsionada por un fuerte campo eléctrico de modo que el electrón podrı́a atravesarla. A su vez, los fı́sicos, el inglés Sir Ralph Howard Fowler (1899–1944) y el alemán Lothar Wolfgang Nordheim (1899–1985), también en 1928,12 ex10 Geiger, H. and Nuttall, J. M. 1912. Philosophical Magazine 23; 24, pp. 439; 647.
11 Oppenheimer, J. R. 1928. Physical Review 31, p. 66; Proceedings of the National Academy of Sciences (U.S.) 14, p.
363.
12 Fowler, R. H. and Nordheim, L. W. 1928. Proceedings of
the Royal Society of London A119, p. 173.
25
plicaron que la emisión de electrones por metales
frı́os bajo la acción de fuertes campo eléctricos (efecto ya observado por J. E. Lilienfeld, en 1922)13 se
debı́a al tunelamiento de esos electrones por el abatimiento de la barrera de potencial de la superficie
metálica.
Fowler y Nordheim, en ese trabajo, propusieron un
modelo unidimensional según el cual los electrones
de masa m en un metal son confinados por una pared potencial cuya altura está determinada por la
función trabajo Ψ más la energı́a de Fermi EF y el espesor de la pared disminuye sustancialmente por la
aplicación de un campo eléctrico externo de módulo F . Según ese modelo (conocido como de Fowler–
Nordheim), la corriente eléctrica J, está dada por
J = AF 2 exp
−4(2m)1/2 Ψ3/2
3h̄F
Es interesante destacar que O. K. Rice, en 1929, explicó la disociación molecular usando este efecto en
un artı́culo publicado en Physical Review 34, p. 1451.
24. Efecto Hubble–Humason (1929/1931)
En diciembre de 1924, el astrónomo norteamericano
Edwin Powell Hubble (1889–1953) hizo un gran descubrimiento con el nuevo telescopio Hookwer del Observatorio de Monte Wilson, al examinar una fotogrı́a de la nebulosa de Andrómeda. Descubrió 22
estrellas cefeidas en la nebulosa Messier 33 (M33) y
12 en la M31, con ello demostró la naturaleza extragaláctica de las nebulosas espirales. Y más aún, fue
capaz de estimar en 285,000 años luz las dimensiones
de esas nebulosas espirales, valor mucho mayor que
el calculado por el astrónomo norteamericano Harlow Shapley (1885–1972) para nuestra Vı́a Láctea.
Este descubrimiento fue presentado por Hubble en
1925.14
Las nebulosas extragalácticas continuaron siendo el
objeto de las investigaciones de Hubble. Ası́, en
1926,15 presentó su famosa clasificación de las nebulosas: elı́pticas y espirales (normales, difusas irregulares) y, nuevas observaciones, lo llevaron a concluir que las galaxias están distribuidas en el espacio homogénea e isotrópicamente. Por primera vez,
la uniformidad del Universo no era una “petición
de principio” sino una observación. Con todo, fue
en 1929 que realizó su gran descubrimiento, presentado en los Proceedings of the National Academy
of Sciences U.S. 15, p. 169: “A relation between
13 Physikalische
Zeitschrift 23, p. 506.
E. P. 1925. Astrophysical Journal 62, p. 409 y
Publications of the American Astronomical Society 5, p. 261.
15 Hubble, E. P. 1926. Astrophysical Journal 63; 64, p. 236;
321.
14 Hubble,
ContactoS 82, 23–32 (2011)
26
distance and radial velocity among extragalactic
nebulae”.
En ese artı́culo, Hubble describe el descubrimiento como resultado de las observaciones que hizo de 18 galaxias cercanas a la Vı́a Láctea: en
su espectro habı́a un desplazamiento hacia el rojo (“red shift”) que interpretó en términos del efecto Doppler–Fizeau. Hubble aseguró que esto significaba un alejamiento de las galaxias respecto al observador. Al calcular la distancia entre las galaxias observadas escribió:
Las galaxias se alejan unas de otras con una
velocidad (V ) proporcional a la distancia
(D)que las separa.
La constante de proporcionalidad H0 entre V y D
(V = H0 D) fue estimada por Hubble en esa ocasión
como:
H0 ≈ 500 km s−1 (MPc)−1 ≈ 0.5 × 10−9 años
(1MPc = 106 par s; 1par s = 3.0857 × 106 m)
Alrededor de esas fechas, 1930, el astrónomo norteamericano Milton La Salle Humason (1891–1972) comenzó su programa de medición del corrimiento al
rojo de las galaxias con la de la constelación de Hidra. A ello se debe la asociación de Hubble y Humason en 1931 en el artı́culo publicado en “Astrophysical Journal” 74, p. 43 con el tı́tulo The
velocity–distance relation among extra–galactic nebulae, donde anunciaron un nuevo valor de H0 =
550km s−1 (MPc)−1 .
Desde entonces el valor de H0 se conoce como constante de Hubble–Humason y al alejamiento de las galaxias como efecto Hubble–Humason.
25. Efecto Meissner–Ochsenfeld (1933)
En 1911,16 el fı́sico holandés Heike Kamerlingh Onnes (1853–1926, premio nobel de fı́sica en 1913) descubrió la superconductividad del mercurio (Hg) a
una temperatura aproximada de 4.2 K, la de licuefacción del helio (He). Poco después, en 1913,17 Onnes observó que un material superconductor volvı́a a
su estado normal si se sometı́a a una corriente eléctrica suficientemente alta. En 1916, F. S. Silsbee observó que la pérdida del estado de superconducción
del Hg se debı́a al campo magnético asociado a la corriente eléctrica y no a la corriente en sı́.
16 Onnes, H. K. 1911. Communications from the Physical
Laboratory at the University of Leiden 1226, p. 124c.
17 Onnes, H. K. 1913. Communications from the Physical
Laboratory at the University of Leiden, Supplement 35.
Durante muchos años después del descubrimiento de
Onnes se pensó que, a no ser por la resistencia nula,
los superconductores poseı́an las mismas propiedades que los materiales comunes. Solamente en 1933,
los fı́sicos alemanes Fritz Walther Meissner (1882–
1974) y Robert Ochsenfeld (1901–1993) obervaron
que el estado de superconducción es diamagnético.
Ese año experimentaron con un largo cilindro de estaño (Sn) enfriado abajo de su temperatura crı́tica Tc (temperatura a la cual ocurre la superconductividad) en presencia de un campo magnético externo; observaron que las lı́neas de inducción del
campo externo eran expulsadas del interior del cilindro de estaño. Este resultado, publicado en Naturwissenschaften 21, p. 787, con el tı́tulo: Kurze Originalmitteilungen, fue conocido desde entonces como efecto Meissner-Ochsenfeld. Este efecto implicaba que el paso del estado normal (paramagnético) al de superconducción (diamagnético) era equivalente a una transición de fase termodinámicamente reversible.
La transicion mencionada fue demostrada experimentalmente en 1938 por los fı́sicos holandeses P.
H. van Laer y Willem Hendrik Keesom (1876–
1956) al medir las capacidades calorı́ficas de unos
cilindros de estaño en sus estados conductor y
superconductor.18
Aquı́ conviene recordar que la superconductividad,
en la década de 1930, fue explicada por dos teorı́as
fenomenológicas: una, la termodinámica desarrollada por los fı́sicos holandeses Cornelis Jacobus Gortes y Hendrik Brugt Gerhard Casimir (1909–2000)
en 1934,19 se basa en la hipótesis de dos fluidos;
segun ésta la entropı́a de un estado superconductor es menor que la del estado normal porque los
electrones en el primer estado se hallan más ordenados que en el segundo. La otra teorı́a es electrodinámica y fue elaborada por dos fı́sicos alemanes hermanos: Fritz Wolfgang (1900–1954) y Heinz
London (1907–1970) en 1935;20 su principal caracterı́stica es que las corrientes superconductoras se
desplazan en presencia de los campos magnéticos
estacionarios.
En 1950, Zhurnal Eksperimental´noi i Teoretiskoi
Fiziki 20, p. 1064, los fı́sicos rusos Vitaly Lazarevich Ginzburg (n. 1916, premio nobel de fı́sica en
2003) y Lev Davidovich Landau (1908–1968, premio nobel de fı́sica en 1962) presentaron una descripción mecánico cuántica de esas teorı́as fenomenológicas, descripción conocida desde entonces como
teorı́a de Landau–Ginzburg. Es oportuno destacar
18 Publicado
en Physica 5, p. 993.
C. J. y Casimir, H. B. G. 1934. Physica 1, p. 306.
20 London, F. W. y London, H. 1935. Physica 2, p. 341.
19 Gorter,
Crónica de los efectos fı́sicos. Parte III. José M. Filardo Bassalo
que, en 1957 (Physical Review 108, p. 1175), los fı́sicos norteamericanos John Bardeen (1908–1991, premio nobel de fı́sica en 1956, 1972), Leon Neil Cooper
(n. 1930, premio nobel de fı́sica en 1972) y John Robert Schrieffer (n. 1931, premio nobel de fı́sica en
1972) desarrollaron una teorı́a microscópica de la supercondutividad, la hoy famosa teorı́a BCS.
Terminamos este apartado precisando que desde
1987 se utiliza el efecto Meissner–Ochsenfeld para separar, purificar y clasificar los superconductores.21
26. Efecto Kapitza–Dirac (1933)
En 1927,22 los fı́sicos norteamericanos Clinton Joseph Davisson (1881–1958, premio nobel de fı́sica
en 1937) y Lester Halbert Germer (1896–1971) observaron por primera vez la difracción de electrones en monocristales de nı́quel (N i). Esta observación indicaba que los electrones se comportaban como ondas. La idea de asociar una onda de longitud λ a un electrón de momento linear mv, mediante
la expresión
h
λ0
mv
fue propuesta por el fı́sico francés prı́ncipe Louis Victor Pierre Raymond de Broglie (1892–1987, premio
nobel de fı́sica en 1929) en los Annales de Physique 3, p. 22, en 1925.
En 1933, los fı́sicos, el ruso Piotr Leonidovich Kapitza (1894–1984, premio nobel de fı́sica en 1978) y el
inglés Paul Adrien Maurice Dirac (1902–1984, premio nobel de fı́sica en 1933) publicaron un artı́culo en los Proceedings of the Cambridge Philosophical Society 29, p. 297, intitulado The reflection of
electrons from a standing light waves donde presentaron la idea de que los electrones podrı́an ser dispersados por un campo luminoso estacionario. Este fenómeno, conocido como efecto Kapitza–Dirac,
es análogo a la difracción de la luz por una rejilla de difracción pero con los papeles de onda y materia invertidos. Ası́, un electrón y la red de difracción interactúan de modo débil por medio de una
“potencial ponderomotivo”, de modo que la medida de ese efecto sólo pudo realizarse con la invención del laser en 1960 por el fı́sico norteamericano
Theodore Harold Maiman (n. 1927).23
La primera observación experimental del efecto
Kapitza–Dirac fue realizada por P. Gould et al. en
1986.24 Recientemente, en 2001,25 D. L. Freimund,
21 Barsoum, M., Patten, D. y Tyagi, S. 1987. Applied Physics Letters 51, p. 1954.
22 Davisson, C. J. y Germer, L. H. 1927. Nature 119, p. 558
y Physical Review 30, p. 705.
23 Physical Review Letters 4, p. 564.
24 Gould, P. et al. 1986. Physical Review Letters 56, p. 827.
25 Freimund, D. L., Aflatooni, K. y Batelaan, H. 2001. Nature 413, p. 142.
27
K. Aflatooni y H. Batelaan anunciaron haber observado una difracción libre de electrones por una onda de luz laser intensa y estacionaria.
27. Efecto Vavilov–Cherenkov (1934)
En 1897,26 el fı́sico inglés Sir Joseph J. Larmor
(1857–1942) demostró que una carga eléctrica acelerada irradia energı́a. En 1934, los fı́sicos rusos Pavel Alekseyevich Cherenkov (1904–1990, premio nobel de fı́sica en 1958) y Sergey Ivanovich Vavilov
(1891–1951) en trabajos independientes publicados
en Doklady Akademii Nauk USSR 2, p. 451, 457 y
Figura 1. Radiación de Vavilov–Cherenkov.
respectivamente intitulados Vidimoe Svechenie
Chistich Zhsidkostei pod Deistviem γ–Izluchenija y
O Vozmozhnich Prichinach Sinego γ–Svechenija Zhsidkostei, anunciaron que habı́an observado la emisión de luz azul en un recipiente con agua cuando era irradiado con una fuente de ondas de radio. En una serie de experimentos, Cherenkov mostró que la luz azul no era debida a fluorescencia, como se creı́a, sino a un nuevo tipo de radiación (fenómeno más tarde conocido como efecto Vavilov–Cherenkov) generada por partı́culas veloces y cargadas eléctricamente. En 1937,27 estableció las propiedades generales de este nuevo tipo de radiación; en 1937,28 los fı́sicos rusos Ilya Mikhailovic Frank (1908–1990, pre26 Larmos,
J. J. 1897. Philosophical Magazine 44, p. 503.
P. A. 1937. Physical Review 52, p. 378.
28 Frank, I. M. y Tamm, I. Y. 1937. Doklady Akademii Nauk
USSR 14, p. 109.
27 Cherenkov,
ContactoS 82, 23–32 (2011)
28
mio nobel de fı́sica en 1958) e Igor Evgenievich Tamm (1895–1971, premio nobel de fı́sica en 1958) desarrollaron la teorı́a clásica de esa radiación al mostrar que ocurre cuando una partı́cula cargada se mueve a través de un medio trasparente con una velocidad constante y mayor que la de la
luz en ese medio. En 1940,29 el fı́sico ruso Vitaly Lazarevich Ginzburg (n. 1916, premio nobel de fı́sica en 2003) desarrolló la teorı́a cuántica de esa
radiación.
Es oportuno observar que este nuevo tipo de radiación se utiliza en la construcción de los llamados “detectores de Cherenkov” utilizados para medir la velocidad de las partı́culas cargadas.
Como ya mencionamos, el efecto Vavilov–Cherenkov
implica que una partı́cula cargada (p. ej. un electrón)
pasa a través de un medio trasparente con ı́ndice
de refracción n con una velocidad V mayor que la
velocidad de la luz en el medio
v=
c
n
esto es:
V
1
c
⇒
=β>
n
c
n
pierde una fracción de energı́a en forma de radiación
de Vavilov–Cherenkov. Este proceso es análogo a la
onda de choque producida por un barco o un avión
cuando su velocidad es mayor, respectivamente, que
la velocidad de las ondas de agua o que la velocidad
del sonido en el aire. Ası́, la radiación de Cherenkov
es emitida en un cono cuyo ángulo θ está dado por:
V >
cos θ =
1
βn
28. Efecto Pinch (Bennett: 1934; Tonks: 1939)
En 1934, Willard H. Bennett publicó un artı́culo en
Physical Review 45, p. 890, intitulado Magnetically
Self–Focussing Streams, donde mostró que la descarga de una alta corriente a través de un plasma (esto es, un gas de partı́culas electrizadas) podrı́a empujarlo lateralmente. El mecanismo básico de ese
fenómeno, conocido como efecto Pinch, es la interacción de la corriente con su propio campo magnético
o, equivalentemente, la atracción entre alambres de
corrientes paralelas. Este efecto fue anticipado por
Lewi Tonks, en 1939, en el artı́culo Theory of Magnetic Effects in the Plasma of an Arc publicado en
Physical Review 56, p. 369. Nótese que la inestabilidad inherente de este efecto fue mostrada por el
29 Ginzburg, V. L. 1940. Zhurnal Eksperimental´noi i Teoretiskoi Fiziki 10, p. 589 y Journal de Physics USSR 2, p.
441.
fı́sico norteamericano Marshall N. Rosenblueth (n.
1927), en 1957.
Terminamos este apartado precisando que el fı́sico ruso Igor Evgeneievich Tamm (1895–1971, premio nobel de fı́sica en 1958), en 1950, fue el primero en sugerir el uso del efecto Pinch para controlar un plasma con un campo magnético.
29. Efecto Uehling–Pasternack–Lamb
(1935/1938/1947)
En 192830 el fı́sico inglés Paul Adrien Maurice Dirac (1902–1984, premio nobel de fı́sica en 1933) formuló la teorı́a relativı́stica del electrón resumida en
la hoy célebre ecuación de Dirac:
(ih̄γ µ ∂µ − mc)Ψ = 0
donde γ µ es una matriz 4 × 4, una matriz de Dirac,
∂µ es un cuadrigradiente, Ψ es una matriz columna
4 × 1 o espinor de Dirac, m es la masa de reposo del
electrón, y c es la velocidad de la luz en el vacı́o.
Mediante la ecuación anterior se puede mostrar que
la energı́a del electrón en el átomo de hidrógeno (H)
está dada por:31
α2
3
α4
n
Enj ≈ mc2 1 − 2 − 4
−
2n
2n
4
j + 12
1
(j = ℓ ± )
2
donde
e2
1
α=
≈
h̄c
137
es la constante de estructura fina, y n, ℓ, j representan, respectivamente, los números cuánticos principal, momento angular orbital y momento angular total. La ecuación anterior indica que los estados (nlj ) de energı́a de los electrones relativı́sticos
en el átomo de H y con los mismos números cuánticos n y j son degenerados (tienen el mismo valor)
como, por ejemplo, los estados 2s1/2 y 2p1/2 . Debe aclararse que para los espectroscopistas s corresponde a ℓ = 0 y p a ℓ = 1.
La degeneración propuesta por la ecuación de Dirac
comenzó a ser estudiada en la década de 1930. Para 1932,32 los fı́sicos norteamericanos Edwin Crawford Kemble (1889–1984) y Richard David Present
(n. 1913) y, en 1935,33 el también fı́sico norteamericano Edwin Albrecht Uehling (1901–1985) calcularon que debı́a haber una pequeña diferencia entre los
30 Dirac, P. A. M. 1928. Proceedings of the Royal Society of
London A117, p. 610.
31 Bassalo, J. M. F. 2004. Tópicos de Eletrodinâmica
Quântica. Editora Livraria da Fı́sica, SP (en prensa).
32 Kemble, E. C. y Present, R. D. 1932. Physical Review 44,
p. 1031.
33 Uehling, E. A. 1935. Physical Review 48, p. 55.
Crónica de los efectos fı́sicos. Parte III. José M. Filardo Bassalo
estados 2s1/2 y 2p1/2 . En sus investigaciones observaron que cuando una carga eléctrica Q0 > 0 se coloca en el vacı́o, su campo coulómbico produce pares virtuales de electrón–positrón y, por consiguiente, los electrones de ese par son atraı́dos por esa
carga, en tanto que los positrones tienden al infinito. Ası́, una carga Q0 será disminuida parcialmente por las cargas de los electrones virtuales. Esta situación es análoga a la de una carga eléctrica que polariza el medio material en que se encuentra.34 El resultado es que los pares virtuales hacen que el vacı́o
se comporte como “un medio polarizable” y, por tanto, la situación referida equivale a una “polarización
del vacı́o”.
En su trabajo Uehling observó que, en virtud de la
disminución de una carga eléctrica en el vacı́o, los
estados electrónico s del átomo de H tendrı́an mayor
probabilidad de penetrar el núcleo de ese átomo y
provocar un abatimiento en el nivel de energı́a de
esos estados. De ese modo demostró que el estado
2s1/2 era 27 MHz menor que el estado 2p1/2 . Por
esta razón, este resultado es conocido como efecto
Uehling.
En 1937,35 el fı́sico norteamericano William Houston (1900–1968) midió la diferencia entre esos estados usando espectroscopı́a óptica. Su medida fue
confirmada por el también fı́sico norteamericano Robley C. Williams en 1938.36
Una nueva explicación teórica para el efecto Uehling fue formulada por el fı́sico norteamericano Simon Pasternack (1914–1976), en 1938.37 Según este fı́sico se debe a una repulsión de corto alcance
entre el electrón y el protón, razón por lo que comenzó a nombrarse efecto Uehling–Pasternack.
En 1939, Physical Review 56, p. 384 y en 1940 Physical Review 57, p. 458), el fı́sico norteamericano Willis
Eugene Lamb Junior (1913– ; premio nobel de fı́sica en 1955) publicó que el efecto Uehling-Pasternack
no podı́a ser explicado considerando el decaimento de un protón en neutrón seguido de un mesón
positivo.
Finalmente, en 1947,38 usando técnicas de microondas, Lamb y el fı́sico norteamericano Robert Curtis Retherford (1912–1981) confirmaron ese efecto
al mostrar el paso de una microonda de frecuencia ν ≈ 1000MHz a través de átomos de H convertı́a al estado 2p1/2 al 2s1/2 . Desde entonces ese re34 Jackson, J. D. 1998. Classical Electrodynamics, 3rd Edition. John Wiley, New York.
35 Houston, W. 1937. Physical Review 51, p. 446.
36 Williams, R. C. 1938. Physical Review 54, p. 558.
37 Pasternack, S. 1938. Physical Review 54, p. 1113.
38 Lamb Junior, W. E. y Retherford, R. C. 1947. Physical
Review 72, p. 241.
29
sultado es conocido como efecto Lamb o dislocamiento Lamb.
30. Efecto URCA (Gamow–Schenberg, 1941)
En 1896,39 el fı́sico francés Antoine Henri Becquerel (1852–1908, premio nobel de fı́sica en 1903) descubrió que los cristales de uranilo (sulfato de potasio y uranio (KU SO4 ) eran capaces de emitir ciertos
“rayos” hasta entonces desconocidos. Poco más tarde, en 1899,40 el fı́sico inglés Sir Ernest Rutherford
(1871–1937), premio nobel de quı́mica en 1908, observó que esos rayos estaban constituidos de partı́culas cargadas positivamente (las denominó “partı́culas α”), y de otras cargadas negativamente (denominadas “partı́culas β”). En 1900, la fı́sica y quı́mica polaco–francesa Marie Sklodowska Curie (1867–
1934, premio nobel de fı́sica en 1903 y 1911) y su marido, el fı́sico francés Pierre Curie (1859–1906, premio nobel de fı́sica en 1903) y Becquerel, en trabajos
independientes,41 demostraron que los rayos β eran
electrones emitidos por un núcleo A que se transforma en otro núcleo B, proceso conocido a partir
de entonces como decaimiento β. En 1914,42 el fı́sico inglés Sir James Chadwick (1891–1974, premio
nobel de fı́sica en 1935) demostró que en ese proceso fı́sico las partı́culas β, esto es, los β–electrones poseı́an un espectro continuo de energı́a.
Al comienzo de la década de 1920 se desató la
polémica relacionada a la energı́a de las partı́culas β. Se deseaba saber si estaba determinada por
las energı́as de los núcleos final e inicial o si variaba continuamente, según afirmaba Chadwick en
1914. Habı́a, además, una cuestión objetiva: si un
electrón es emitido por núcleo A (padre) que se
transforma en el núcleo B (hijo) y tiene energı́a menor que sus masas de reposo ¿dónde va la energı́a faltante? En 1924,43 los fı́sicos, el danés Niels Henrik David Bohr (1885–1963, premio nobel de fı́sica en 1922), el holandés Hendrik Anthony Kramers
(1894–1952) y el inglés John Clarke Slater (1900–
1976), propusieron la idea de que el principio de
conservación de la energı́a sólo es válido estadı́sticamente para fenómenos macroscópicos y era violado en procesos atómicos como el decaimiento β.
Con todo, para superar esa dificultad, en diciem39 Becquerel, A. H. 1896. Comptes Rendus Hebdomadaires
des Séances de l´Académie des Sciences (Paris) 112, p. 420.
40 Rutherford, E. 1899. Philosophical Magazine 47, p. 109.
41 Curie, M. y Curie, P. 1900. Comptes Rendus Hebdomadaires des Séances de l´Académie des Sciences (Paris) 130,
p. 627; Becquerel, A. H. 1900. Comptes Rendus Hebdomadaires des Séances de l´Académie des Sciences (Paris) 130, p.
809.
42 Chadwick, J. 1914. Verhandlungen der Deutschen Physikalische Gesellschaft 16, p. 383.
43 Bohr, N., Kramers, H. A. y Slater, J. C. 1924. Philosophical Magazine 47, p. 785, y Zeitschrift für Physik 24, p. 69.
ContactoS 82, 23–32 (2011)
30
bre de 1930, el fı́sico austro–norteamericano Wolfgang Pauli Junior (1900–1958, premio nobel de fı́sica en 1945) propuso, en la reunión del Group of Radiactivity of Tubingen, en una carta abierta a los fı́sicos, la sueco–austriaca Lise Meitner (1878–1968) y el
alemán Hans Wilhelm Geiger (1882–1945), la existencia de una partı́cula neutra, de masa muy pequeña sin exceder 0.01 la masa del protón, que era
emitida junto con el electrón por el núcleo radiactivo “padre”, cuya energı́a restauraba el principio de
conservación.
En 1934,44 el fı́sico italiano Enrico Fermi (1901–
1954, premio nobel de fı́sica en 1938) dio el nombre de neutrino (ν) a esa partı́cula. Formuló en esa
ocasión la teorı́a de la interacción débil como responsable del decaimiento dado por:
n → p + e− + ν
Hoy se sabe que en ese decaimiento se halla un antineutrino electrónico (ν e ) en lugar de ν.
En 1941, los fı́sicos, el ruso–norteamericano George Gamow (1904–1968) y el brasileño Mario Schenberg (1914–1990) publicaron un artı́culo en Physical
Review 59, p. 539, con el tı́tulo Neutrino Theory of
Stellar Colapse en el que presentaron el famoso mecanismo para explicar el colapso estelar: cuando el
centro de una estrella alcanza una densidad muy alta comienza a capturar electrones y a perder neutrinos, ello provoca un enfriamiento y, en consecuencia, su colapso.
El colapso estelar ya habı́a sido propuesto por el
fı́sico norteamericano Julius Robert Oppenheimer
(1904-1967) en 1939, en dos trabajos realizados con
dos colaboradores; el primer artı́culo (Physical Review 55, p. 374) con el fı́sico ruso–norteamericano
George Michael Volkoff (1914–2000) y el segundo
(Physical Review 56, p. 455) con el fı́sico norteamericano Hartland Snyder (1913–1962). En esos trabajos
afirmaron que cuando se agotaban todas las fuentes
termonucleares de una estrella suficientemente masiva la contracción gravitacional continuarı́a indefinidamente hasta su colapso total. Es oportuno resaltar que esta “singularidad” ya habı́a sido anticipada por el astrónomo Karl Schwarzschild (1873–
1916), poco antes de su deceso, en Sitzungsberichte Preussische Akademie der Wissenschaften 1,
p. 189; 424.
La fuga de neutrinos, según explican Gamow y
Schenberg, responde al mecanismo inverso de la desintegración β y ocurre en el interior de una estrella: un protón (p) se transforma en un neutrón (n)
con emisión de un positrón (e+ ) y de un neutrino (ν),
esto es:
p → n + e+ + ν
Según Gamow, la idea de incluir al neutrino como
clave del colapso estelar fue de Schenberg.
Este mecanismo fue conocido como efecto URCA.
Acerca del porqué del nombre hay tres explicaciones. La primera remite a Ultra Rapide CAtastrophe. La segunda es pintoresca; de acuerdo a la conseja Gamow intentó homenajear a la patria de Schenberg donde el antiguo Cassino da Urca en Rı́o de Janeiro provocaba una gran pérdida de dinero (ası́ como de neutrinos en las estrellas). Se cuenta que la
misma esposa de Gamow lo constató en ese casino
en 1939 durante la visita de Gamow a Rı́o de Janeiro. La tercera explicación alude a la palabra “urca” empleada en Odessa (donde vivió algún tiempo Gamow) para bandido.
31. Efecto Casimir (1948)
En 1947, los fı́sicos holandeses Henrik Brugt Gerhard Casimir (1909–2000) y Dirk Polder calcularon
la energı́a de interacción entre átomos.45 Al considerar la velocidad finita de propagación del campo electromagnético demostraron que esa energı́a disminuı́a
con el inverso de la sexta potencia de la distancia entre los átomos cuando eran muy próximos y con el inverso de la séptima potencia cuando se hallaban a
grandes distancias. Cierto dı́a del otoño de 1947,46
Casimir mostró sus cálculos al fı́sico danés Niels Henrik David Bohr (1885–1962, premio nobel de fı́sica en 1922) quien le sugirió considerar en sus cálculos la energı́a del punto cero del vacı́o. De esta manera, Casimir preparó un nuevo trabajo para un coloquio por efectuar en Parı́s, en abril de 1948. Poco más tarde, el 29 de mayo de 1948, lo presentó en
la Academia Real Holandesa de Artes y Ciencias.
Ese artı́culo, intitulado On the attraction between
two perfectly conducting plates publicado en Koninklijke Akademie von Wetenschappen te Amsterdam
Proceedings B51, p. 793, Casimir afirmó: “Existe una
fuerza atractiva entre dos placas metálicas independiente del material de las mismas a partir de una distancia comparable a longitudes de onda; la profundidad de penetración es pequeña comparada con la
distancia. Esta fuerza puede interpretarse como una
presión de punto cero de las ondas electromagnéticas. A pesar de lo pequeño del efecto, parece viable
una confirmación experimental que, además, puede
45 Publicado
en 1948, en Physical Review 73, p. 360.
A., Farina, C. y Cougo Pinto, M. V. 1998. O efeito
Casimir. Cadernos de Divulgação e Educação Cientı́fica 5.
IFUFRJ.
46 Tort,
44 Fermi, E. 1934. Ricerca Scientifica 4, p. 491; Nuovo Cimento 11, p. 1; y Zeitschrift für Physik 88, p. 161.
Crónica de los efectos fı́sicos. Parte III. José M. Filardo Bassalo
ser de algún interés”. Según Casimir, la fuerza referida está dada por:
F = −A
π 2 h̄c
240a4
donde A es el área de cada placa, a la separación entre ellas, h̄ = h/(2π), con h igual a la constante de
Planck, y c es la velocidad de la luz en el vacı́o. Para el caso de placas de un centı́metro cuadrado separadas una milésima de milı́metro Casimir calculó una
fuerza de 0.013 dinas.
Este efecto, conocido como efecto Casimir, fue comprobado experimentalmente por primera vez en
195847 por el fı́sico holandés Marcus J. Sparnaay
usando dos espejos metálicos planos de aluminio y
una balanza de resorte. La incertidumbre en la separación de las placas lo llevó a un nuevo experimento en 199748 hecho por Steve K. Lamoreaux,
quien utilizó una esfera metálica de 4 cm de diámetro y una placa plana de cuarzo de 2.5 cm de espesor, ambos revestidos de cobre y oro, conectados a un
péndulo de torsión. Cuando acercó la esfera y la placa a una distancia de algunas micras la fuerza de
Casimir produjo una fuerza cuyo valor estaba dentro del 5 % de error respecto al valor teórico. Este exitoso resultado inspiró la realización de nuevos
experimentos.
Ası́, en 1998, Umar Mohideen y Anushree Roy (Physical Review Letters 81, p. 4549) usaron un microscopio de fuerza atómica para medir la “fuerza de Casimir” entre una esfera, revestida de aluminio de 196
micras de diámetro y una placa, recubierta del mismo metal; para separaciones de 0.1 a 0.9 micras hallaron valores dentro del 1 % del valor teórico.
Hoy se explica este fenómeno con la noción de vacı́o
cuántico; dos placas metálicas paralelas, eléctricamente neutras y con masas despreciables no tienen
por qué atraerse, según la mecánica clásica. La atracción resulta de la falta de fotones virtuales que constituyen el vacı́o cuántico entre las placas; al ser éste
suprimido por las placas lleva a una disminución de
la energı́a de ese vacı́o y, en consecuencia, aparece una fuerza atractiva de acuerdo con el principio
de mı́nima energı́a.
Es oportuno resaltar que surgió la posibilidad de generalización a otras geometrı́as (placas esféricas y
cilı́ndricas) y, también, otros campos cuánticos, por
ejemplo fermiones masivos que confinan a los quarks
y gluones dentro de los hadrones (mesones y bariones). En otros términos, el efecto Casimir ha de jugar un papel muy importante en las propiedades de
los hadrones.
47 Sparnaay,
M. J. 1958. Physica 34, p. 751.
S. K. 1997. Physical Review Letters 78, p. 5.
48 Lamoreaux,
31
Otra generalización del efecto Casimir consiste en
considerarlo como resultado de las fluctuaciones del
vacı́o cuántico provocado por la geometrı́a del espacio usual R3 donde ocurren las fluctuaciones. Por
otro lado, la teorı́a de cuerdas propone más de tres
dimensiones espaciales pero éstas no son descritas
por una recta sino por un cı́rculo o una curva resultante de la deformación continua de un cı́rculo.
Hasta el presente (febrero de 2004) no se han hallado esas dimensiones en la Naturaleza. Si las hubiera, causarı́an modificaciones en el vacı́o cuántico y, por lo tanto, habrı́a también manifestaciones
del efecto Casimir.
Además de lo dicho, el efecto Casimir es importante
para la verificación de la ley de gravitación newtoniana a distancias muy pequeñas (del orden de nanómetros y menores), ası́ como en los sistemas microelectromecánicos y las nanoestructuras donde sus componentes pueden unirse mediante la fuerza de Casimir. Se abre también la especulación acerca de la relación entre este efecto y la sonoluminiscencia observado por primera vez por el fı́sico norteamericano
Seth J. Putterman. En esa ocasión, Putterman observó que un a burbuja de gas en el seno de un lı́quido expuesta a un campo sonoro se expande y contrae emitiendo pulsos de luz del orden de picosegundos (1 ps = 10−12 s).
Al final de este artı́culo damos más referencias acerca
de este interesante efecto.
32. Efecto isotópico (1950)
En 1950, el fı́sico norteamericano Emanuel Maxwell
(1912–2000) e, independientemente, los también fı́sicos norteamericanos C. A. Reynolds, Bernie Serin,
W. H. Wright y L. B. Nesbitt publicaron dos artı́culos en Physical Review 78, p. 477 y p. 487 intitulados,
respectivamente, Isotope Effect in the Superconductivity of Mercury y Superconductivity of Isotopes of
Mercury. En esos trabajos anotan que la temperatura crı́tica (Tc ) de los superconductores varı́a en razón
inversa de cierta potencia de su masa isotópica; tal
observación es conocida hoy como efecto isotópico.
En 1950, los fı́sicos, el alemán Herbert Frölich (1905–
1992) y el norteamericano John Bardeen (1908–1991,
premio nobel de fı́sica en 1956 y 1972) propusieron en dos trabajos distintos49 una teorı́a para explicar ese efecto, según el cual un estado de superconducción era debido a la interacción de dos electrones y a la vibración de los átomos en el cristal,
interacción conocida desde entonces como interacción electrón–fonón. En lı́neas generales, un electrón
al desplazarse en una red cristalina de iones positivos será atraı́da por éstos provocando una vibración
49 Frölich, H. 1950. Physical Review 79, p. 845. Bardeen, J.
1950. Physical Review 80, p. 567.
ContactoS 82, 23–32 (2011)
32
en la red. Frölich mostró que la temperatura Tc varı́a
en razón inversa del cuadrado de la masa isotópica. Este resultado teórico fue confirmado experimentalmente por Reynolds, Serin y Nesbitt con isótopos de mercurio en 1951.50
33. Efecto Pomeranchuk (1950)
En 1938,51 los fı́sicos, el germanonorteamericano
Hans Albrecht Bethe (1906–, premio nobel de fı́sica en 1967) y el norteamericano Charles Louis Critchfield (1910–1994) sugirieron la existencia del isótopo de helio 3 (32 He) al presentar su famosa cadena
protón–protón como generadora de energı́a en las estrellas de masa semejante a la del Sol en reacciones del tipo (notación actual):
1
1H
1
1H
3
2 He
+11 H
→
+21 D
→
+32
He →
52
2
+
1 D + e + νe
3
2 He + γ
4
1
1
2 He +1 H +1
H
3
2 He
En 1949, encontraron el
al estudiar el decaimiento beta del tritio (31 H), esto es:
3
1H
(n
→
→
3
2 He
+ e− + ν e
p + e− + ν e )
Una vez obtenido este isótopo 32 He del helio, el fı́sico
ruso Isaak Yakovlevich Pomeranchuk (1913–1966),
en 1950, publicó un trabajo en Zhurnal Eksperimental´noi i Teoretiskoi Fiziki 20, p. 919, con el tı́tulo K Teorii Zhsidkogo He3 , donde propone obtener bajas temperaturas solidificando, por compresión adiabática, el estado lı́quido de este isótopo.
Nótese que, en esas fechas, aún no se habı́a obtenido helio lı́quido. Según Pomeranchuk, el helio lı́quido, por poseer espı́n fraccionario en su núcleo compuesto de dos protones y un neutrón serı́a un lı́quido fermiónico degenerado cuya entropı́a dependerı́a
linealmente de la temperatura. Este proceso de enfriamiento es, desde entonces, conocido como efecto Pomeranchuk o enfriamiento Pomeranchuk.
En 1951, el fı́sico alemán Heinz London (1907–1970)
presentó la idea de que podı́an obtenerse temperaturas estables, en la región de los milikelvin usando
un nuevo tipo de enfriamiento (refrigerador de dilución) con mezclas de 3 He y 4 He. Más tarde, en
1956,53 el fı́sico ruso Lev Davidovich Landau (1908–
1968, premio nobel de fı́sica en 1962) formuló su famosa teorı́a del lı́quido cuántico de Fermi para explicar las propiedades del 3 He. Nótese que, entre esas
50 Reynolds, C. A., Serin, B. y Nesbitt, L. B. 1951. Physical
Review 84, p. 691.
51 Bethe, H. y Critchfield, C. L. 1938. Physical Review 54,
p. 248.
52 Grilly, E. R., Hammel, E. F. y Sydoriak, S. G. 1949. Physical Review 75, p. 1103.
53 Landau, L. D. 1956. Zhurnal Eksperimental´noi I Teoretiskoi Fiziki 30, p. 1058.
propiedades, anticipó que en la vecindad del cero absoluto (0 K) se darı́a la propagación de una única onda, llamada por él de sonido cero.
Destaquemos que el fı́sico norteamericano David Morris Lee (1931–, premio nobel de fı́sica en 1996),
en 1965, comenzó a construir una cavidad de Pomeranchuk para conseguir temperaturas cada vez
más bajas. Fue también en 1965 que el fı́sico ruso Yuri D. Anufiryev anunció en Journal of Experimental and Theoretical Physics (JETP) Letters 1,
p. 155, que habı́a construido una cavidad de Pomeranchuk con la cual logró una temperatura del orden de 20 mK.
Concluimos esta Crónica precisando que, con este efecto, Lee y los fı́sicos norteamericanos Robert
Coleman Richardson (1931–, premio nobel de fı́sica en 1996) y Douglas D. Osheroff (1945–, premio
nobel de fı́sica en 1996) descubrieron la superfluidez del 32 He en 1972,54 a una temperatura de 2.7
mK.
Referencias acerca del efecto Casimir
1. Caruso Neto, F., Svaiter, B. F. y Svaiter, N. F.
1991. Physical Review D43, p. 1300 y Modern
Physics Letters A6, p. 1855.
2. Cougo–Pinto, M. V., Farina, C. y Tenorio, A.
1999. Brazilian Journal of Physics 29, p. 371.
3. Bordag, M., Mohideen, U. y Mostepanenko, V.
M. 2001. Physics Reports 353, p. 1.
4. Milton, K. A. 2001. The Casimir Effect: Physical Manifestations of Zero-point Energy. World
Scientific, Singapore.
5. Lambrecht, A. 2002. http://physicsweb.org/article/world/15/9/6.
6. Alves, D. T., Barone, F. A., Farina, C. y Tort, A.
C. 2003. Physical Review A67, p. 022103.
cs
54 Osheroff, D. D., Richardson, R. C. y Lee, D. M. 1972.
Physical Review Letters 28, p. 885.
Crónica de los efectos fı́sicos. Parte IV*
José Marı́a Filardo Bassalo,
Fundación Minerva, Prof. retirado de la Universidad de Pará
www.bassalo.com.br
* Traducción por J. L. Córdova, Depto. de Quı́mica, UAM–
Iztapalapa. joseluiscordovafrunz@gmail.com
ContactoS 82, 33-46 (2011)
34
Resumen
En esta cuarta Crónica mostraremos los efectos fı́sicos descubiertos en la segunda mitad del siglo XX: Mössbauer (1956/1958),
Aharanov–Bohm (1959), Josephson (1962), Kondo (1964), Schadt–Helfrich (1971), Hawking (1974),
Fulling–Davies–Unruh (1973/1975/1976), efecto Zenón cuántico (Misra y Sudarshan, 1977), Sı́sifo (Cohen–Tannoudji, 1986/1987), efecto de magneto resistencia extraordinaria (Solin, 1995) y efecto reloj (Mashhoon, 1993/1999).
34. Efecto Mössbauer (1956/1958)
En 1956, el fı́sico alemán Rudolf Ludwig Mössbauer
(1929–, premio nobel de fı́sica en 1961) realizó un
experimento como parte de su tesis doctoral en la
escuela ETH “Eidgenössisdal Techinsche Hochschule”de Munich, Alemania, cuando observó que un
núcleo excitado fuertemente en una red cristalina se
desexcita sin retroceder, esta energı́a era, más bien,
distribuida a todos los núcleos de la red. En su experimento utilizó un emisor de radiación γ de iridio 191 Ir77 donde el primer estado excitado presentaba una energı́a de 0.129 MeV. También observó que
el haz de radiación γ emitido presentaba un componente de onda casi invariable, esto es, de una parte en 109 . Este descubrimiento, hoy conocido como
efecto Mössbauer, fue publicado en la Zeitschrift für
Physik 151, p. 124, en 1958, con el tı́tulo Kernresonzflureszenz von Gammastrahlun in Ir 191.
Una de las aplicaciones más notables de este efecto se relaciona con una de las comprobaciones de la
Teorı́a de Gravitación Einsteniana (TGE) de 1915.
En efecto, esta teorı́a anticipa que una lı́nea espectral emitida bajo el efecto de un campo gravitacional (p.ej. la superficie de una estrella densa) presenta una desviación hacia el lado de los componentes
de onda más largos (corrimiento hacia el rojo). En
1959, los fı́sicos norteamericanos Robert V. Pound
y Glen A. Rebka Junior de la Universidad de Harvard presentaron un proyecto para medir esta desviación usando el efecto que describimos. Más tarde, en 1960, anunciaron haber medido el corrimiento gravitacional hacia el rojo
∆νG
ν
con el siguiente experimento: permitieron que una
radiación γ de 14.4 keV emitido por un núcleo de
hierro 57 F e26 por efecto Mössbauer cayese de una
altura de 22.6 m, y midieron la frecuencia de absorción por un blanco de hierro. De esta manera
encontraron
∆νG
= (2.57 ± 0.26) × 10−15
ν
en excelente acuerdo con el valor predicho por la
TGE: 2.46 × 10−15
35. Efecto Aharonov–Bohm, (1959)
~ fueLas primeras ideas acerca del vector potencial A
ron presentadas por el fı́sico alemán Franz Ernst
Neumann (1798–1895) entre 1845 y 1847 cuando
analizó el fenómeno de la inducción magnética en un
circuito producida por el movimiento relativo de los
magnetos respecto a los circuitos próximos. La idea
de la existencia de ese potencial también fue analizada por los fı́sicos alemanes Wilhelm Eduard Weber (1804–1891) en 1848, y Gustav Robert Kirchhoff (1824–1887) en 1857.
Si bien estos fı́sicos presentaron diversas expresio~ fue el fı́sico y manes analı́ticas para representar A
temático escocés James Clerk Maxwell (1831–1879)
quien lo conceptualizó. Veamos a continuación cómo
lo logró. Entre 1861 y 1862, Maxwell comenzó a estudiar las lı́neas de fuerza de Faraday y, en general, los
fenómenos electromagnéticos. Más tarde, en 1865,
demostró que una perturbación electromagnética en
un medio uniforme (para Maxwell el “eter”) se propaga como si fuese una onda cuya velocidad es la conocidad velocidad de la luz: 300,000 km/s. De esta suerte concluyó que la luz es una onda electromagnética.
Maxwell prosiguió sus estudios acerca de los fenómenos electromagnéticos y ópticos, cuyos resultados
fueron presentados en su famoso libro “Tratado de
electricidad y magnetismo” publicado en 1873. En
este libro Maxwell presenta sus célebres cuatro ecuaciones diferenciales, conocidas hoy como ecuaciones de Maxwell que expresan las leyes experimentales hasta entonces conocidas. Examinemos la segunda de ellas, la relacionada con el vector potencial; ésta describe el hecho experimental de que las
~ son cerralı́neas de fuerza del vector inducción B
das, esto es, en notación actual:
~ =0
∇·B
Esta condición, conocido como solenoidal, llevó a
Maxwell a considerar el concepto de vector poten~ En efecto, en 1871,
cial A (en notación actual A).
Maxwell demostró que la “convergencia”(hoy, divergencia ∇·) de la “rotación” (hoy, rotacional ∇×) de
una función vectorial dada (F~ ) era nula, esto es:
∇ · (∇ × F~ ) = 0
Ası́, al aplicar ese resultado a su segunda ecuación,
concluyó que (en notación actual):
~ =0→B
~ =∇×A
~
∇·B
Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo
~
Otros fı́sicos habı́an trabajado formalmente con A,
por ejemplo, los fı́sicos Ludwig Valentin Lorenz,
danés (1829–1891), en 1863. y Hendrik Antoon Lorentz, holandés (1853–1928, premio nobel de fı́sica
en 1902), en 1895; sin embargo, no existı́a una interpretación fı́sica de este concepto. Fue el fı́sico inglés
Paul Adrien Maurice Dirac (1902–1984, premio nobel de fı́sica en 1933) quien, en 1931, logró vislum~ al hacer predicciones
brar la importancia fı́sica de A
de los monopolos magnéticos a partir de la Mecánica Cuántica.
Solamente en 1959 los fı́sicos, el israelı́ Yaki Aharanov y el norteamericano David Joseph Bohm (1917–
1992) mostraron claramente la importancia fı́sica de
~ mediante un fenómeno cuántico de interferencia
A
denominado efecto Aharanov–Bohm. En su artı́culo publicado en Physical Review 115, p. 485 titulado Significance of Electromagnetic Potentials in the
Quantum Theory mostraron que el patrón de interferencia resultante de la difracción de un haz de electrones que atraviesa un obstáculo con dos rendijas
(experimento tipo Young) puede ser desplazado por
un campo magnético entre las aberturas y después
de éstas; de este modo el campo es nulo en la trayectoria del haz de electrones después de la difracción producida por las rendijas. Según estos fı́sicos,
se logra lo anterior con un largo solenoide de dimensiones transversales microscópicas. Ası́, una corriente estacionaria en el solenoide genera un flujo φ dado por:
Z
I
~
~ · ~ℓ
φ = B · d~s = A
(1)
donde C es cualquier circuito que contiene a un solenoide. Sin embargo, el cambo de inducción magnéti~ fuera del solenoide es nulo, y el vector potenca B
~ que satisface la expresión anterior debe percial A
manecer finito en algún lugar a lo largo del circuito C. Es oportuno anotar que la expresión 1 es un invariante “gauge”(calibre), pues la integral de lı́nea
~ no se altera cuando se usa la sique incluye a A
guiente transformación:
~′ = A
~ + ∇ψ
A
donde ψ es una función escalar.
Este experimento propuesto por Aharonov y Bohm
~ es nulo y, por tanto,
muestra que, si bien el campo B
también es nula la parte magnética de la fuerza de
Lorentz F~L correspondiente, esto es
q
~
F~L = ~v × B
c
a lo largo de la trayectoria del haz de electrones
~ implica
de carga q y velocidad ~v el potencial A
35
un significado cuántico especial que trasciende su
“papel clásico” como mero artificio matemático para el cálculo de ese potencial, conforme consideró
Maxwell. Obsérvese que este experimento fue rea-
Figura 1. Efecto Aharonov–Bohm.
lizado por R. G. Chambers en 1960 usando “whiskers”, esto es, cristales de hierro que crecen en forma
de filamentos microscópicos que, cuando son magnetizados, se comportan como solenoides.
Estos resultados experimentales motivaron muchos
estudios teóricos a fin de explicarlos. Ası́, en 1960, los
fı́sicos norteamericanos Wendell Hinkle Furry (1907–
1984) y Norman Foster Ramsey (1915–, premio nobel de fı́sica en 1989) analizaron el efecto EA–B con
base en el principio de complementariedad y concluyeron que es de origen puramente cuántico.
En 1962, P. D. Noerdilinger introdujo un nuevo aspecto para la comprensión del EA–B. En efecto, con~ es nulo en la región del
siderando que el campo B
haz de electrones, éstos sólo pueden interactuar con
ese campo si se considera una teorı́a no local. Antes de proseguir es oportuna una breve discusión sobre las teorı́as locales y no locales.
La localidad o separabilidad de una teorı́a dada significa que una acción realizada en un cierto punto no tiene efecto instantáneo en sistemas separados, o sea, que toda las interacciones entre los objetos materiales que se hacen sentir en el espacio tiempo son mediadas por señales locales que viajan a
través del espacio y, por tanto, son limitadas por la
velocidad de la luz en el vacı́o (c = 300, 000 km/s)
según la relatividad restringida einsteiniana. Los siguientes son algunos ejemplos tı́picos de teorı́as locales, esto es, que incluyen solamente interacciones
locales:
36
1. La Teorı́a Cuántica No Relativista expresada en
la ecuación de Schrödinger con la interpretación
borniana de función de onda ψ(~r, t)
2. La Teorı́a Relativista del electrón expresada por
la ecuación de Dirac,
3. La teorı́a cuántica de campos
Por otro lado, la no localidad o inseparabilidad significa que una acción realizada en un cierto lugar tiene efecto instantáneo, sin señal local, en sistemas separados; por eso la no localidad se interpreta como
una “acción a distancia”. Hay dos ejemplos tı́picos de
teorı́as no locales. Una clásica, la Teorı́a de Gravitación Newtoniana expresada en la ecuación de Newton; y la cuántica, la Mecánica Cuántica Bohmiana, expresada en la ecuación de Bohm.
Regresemos, pues al EA–B. En 1962, el fı́sico norteamericano Bryce S. DeWitt (1923–) desarrolló una
formulación no local de la Electrodinámica Cuántica
que depende sólo de los campos electromagnéticos y,
con ella, concluyó que era falsa la interpretación fı́si~ propuesta por EA–B. Esca del vector potencial A
te resultado fue inmediatamente rebatido por Aharonov y Bohm, en 1962 y 1963, y por F. J. Belinfante, en 1962. Este fı́sico norteamericano mostró que
la función de onda utilizada por DeWitt, considerada como invariante “gauge”, dependı́a realmente del
camino de integración.
Más tarde, en 1965, Feynman, Leighton y Sands
mostraron que el EA–B podrı́a explicarse por una
teorı́a no local considerando que el campo de induc~ actúa “a distancia” sobre el electrón que circión B
cula fuera del solenoide. Ésta es una explicación semejante a la dada por la gravitación newtoniana
cuando un cambio infinitesimal del Sol se refleja “instantáneamente” sobre la Tierra.
La discusión sobre la interpretación fı́sica del EA–B
prosiguió entonces con la participación de los fı́sicos norteamericanos (de origen chino) Tai Tsu Wu
(1933– ) y Chen Ning Yang (1922–, premio nobel de
fı́sica en 1957). Ası́, en 1957, introdujeron otra enti~ ni A
~ sino un factor de fadad fı́sica que no es ni B
se no integrable, representado por un número complejo y que lleva información topológica de cada camino C considerado en la expresión 1. De este modo mostraron que la Electrodinámica es un invariante de “gauge” de ese factor y que, por tanto, el EA–B
es de naturaleza topológica.
Con todo, estos resultados han sido objeto de discusión por parte de P. Bocchiere y A. Loinger que, en
una serie de artı́culos publicados entre 1978 y 1981,
ContactoS 82, 33-46 (2011)
criticaron el resultado fundamental de Aharonov–
Bohm como es el de que “el electromagnetismo no
está completamente descrito por los campos eléctrico
y magnético sino por los potenciales electromagnéticos”. Para Bocchieri y Loinger la selección adecuada de un vector potencial para una transformación
de “gauge” anuları́a el EA–B. Ahora bien, como ese
potencial no obedece al teorema de Stokes la discusión sobre ese efecto continua, principalmente por
la presentación de una nueva evidencia experimental de este efecto. Se dió en 1982 y se confirmó en
1986 en las investigaciones de los fı́sicos japoneses dirigidos por Akira Tonomura donde se usó holografı́a
electrónica. Este resultado experimental llevó al propio Bohm, con la colaboración de C. Philippidis y
R. D. Kaye, en 1982, a explicarlo usando el potencial cuántico bohmiano (VQ ).
En la década de 1990 las nuevas investigaciones (experimentales y teóricas) han mostrado que EA–B
puede explicarse sin usar el vector potencial. Por
ejemplo, en 1992, B. E. Allman, A. Cimmino, A. G.
Klein, G. I. Opat, H. Kaiser y S. A. Wermer realizaron un experimento sobre el efecto escalar del EA–B
incluyendo neutrones, observaron que el campo electromagnético interactúa con el momento magnético del neutrón. Por otro lado, en 1996 y 1997, los
fı́sicos brasileños Marcelo Octavio Caminha Gómez
(1941– ), Horacio Oscar Girotti (1939– ), Jorge Mario Carvalho Mabouisson (1959– ) y Adilson José da
Silva (1947– ) estudiaron el EA–B para partı́culas de spin 1/2, utilizando la teorı́a de campos que
es una teorı́a local, conforme discutimos. Es oportuno decir que, en 1993, Boh, y B. J. Hiley reunieron en un libro los trabajos que realizaron en la década de 1980 sobre el carácter no local de la Mecánica
Cuántica.
36. Efecto Josephson (1962)
En 1911, el fı́sico holandés Heike Kamerlingh Onnes (1853–1923, premio nobel de fı́sica en 1913) descubrió el fenómeno de la superconductividad. En
1928, los fı́sicos, el ruso–norteamericano George Gamow (1904–1968), el norteamericano Edward Uhler
Condon (1902–1974)y el inglés Ronald Wilfrid Gurney (1898–1953), y el alemán Lothar Wolfgang Nordheim (1899–1985) en trabajos distintos, descubrieron
el efecto túnel, esto es, la capacidad de una partı́cula de vencer una barrera de potencial con una energı́a
menor de la que tiene la altura de esa barrera.
En 1957, el fı́sico japonés Leo Esaki (1925– , premio nobel de fı́sica en 1973) comenzó a estudiar el
efecto túnel en un diodo de unión p − n de germanio Ge. De este modo, utilizando una unión muy estrecha, cerca de 100 angstroms, y dopada con una
alta dósis de impureza, Esaki observó que ese diodo presentaba una polaridad opuesta a la de un dio-
Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo
37
do normal y, por tanto, habı́a una región de “resistencia negativa”. Es oportuno aclarar que esta resistencia es “dinámica”; con todo, en esa misma región
la resistencia “estática” es positiva. Este descubrimiento fue conocido como el diodo Esaki y se anunció en 1958. Conociendo el trabajo de Esaki, el fı́sico
noruego–norteamericano Ivar Giaever (1929– , premio nobel de fı́sica en 1973) procuró hacer un maridaje entre el tunelamiento y la superconductividad. Ası́, en 1960, observó un tunelamiento de electrones en la unión entre un conductor y un superconductor.
37. Efecto Kondo (1964)
De forma general, la resistencia eléctrica (ρ)
de muchos metales, a la temperatura ambiente (300 K)está dominada por la colisión de electrones de conducción con los fonones (vibraciones térmicas) de una red; a bajas temperaturas (p.ej. la del helio lı́quido, aproximadamente 4 K) está dominada por las colisiones con átomos de impureza e imperfecciones mecánicas en la red. De este modo, la resistencia del metal que contiene átomos de impureza está dada por:
En 1962, cuando hacı́a su trabajo de doctorado en la
Universidad de Cambridge, Inglaterra, con uniones
de superconductores, el fı́sico inglés Brian David Josephson (1940– , premio nobel de fı́sica en 1973) observó que además del tunelamiento de electrones observado por Giaever habı́a también un tunelamiento de pares de Cooper. Obsérvese que, en 1956, el fı́sico norteamericano Leon Neil Cooper (1930– , premio nobel de fı́sica en 1972) mostró que un electrón
en las proximidades de un ion positivo de un cristal superconductor interactúa con ese ion, teniendo, por tanto, la vibración de la red cristalina y
la consiguiente emisión de un fonón. De este modo, si pasa un segundo electrón por el mismo ion, absorberá ese fonón, modificando sus momentos lineares y los dos electrones caminarán juntos en el menor estado posible de energı́a, esto es lo que constituye el famoso par de Cooper.
ρ = ρL + ρi
La observación de Josephson lo indujo a predecir dos
nuevas clases de fenómenos fı́sicos cuando una fina pelı́cula aislante se coloca entre dos superconductores. El primero de esos fenómenos es el paso
de una supercorriente a través de la unión en ausencia de voltaje, es el efecto Josephson DC. El segundo es la aparición de corrientes oscilatorias de radiofrecuencia cunado un voltaje AC se aplica a través de
la unión, éste es el efecto Josephson AC. Estas predicciones fueron anunciadas por Josephson en Physics Letters 1 p. 251 con el tı́tulo Possible New Effects in Superconductive Tunneling en 1962. Y fueron
confirmadas experimentalmente en 1963 por los fı́sicos norteamericanos Philip Warren Anderson (1923–
, premio nobel de fı́sica en 1977) y J. M. Rowell (efecto Josephson DC) y S. Shapiro (efecto Josephson
AC).
Posteriormente, en 1964, los también fı́sicos norteamericanos R. C. Jaklevic, J. Lambe, A. H. Silver y
J. E. Mercerau mostraron que existen efectos cuánticos de interferencia y de difracción con superconductores; estos efectos fueron importantes en el desarrollo de los SQUID (Dispositivos superconductores de
interferencias cuánticas).
donde ρL es la resistencia causada por el movimiento térmico de la red cristalina y ρi es la causada por
la dispersión de electrones por los átomos de impureza que distorsionan la periodicidad de la red.
Si la concentración de impurezas de átomos es baja, ρ es independiente de la temperatura. A su vez
ρL → 0
cuando T → 0
En 1950, D. K. C. MacDonald y K. Mendelssohn observaron un valor mı́nimo para la resistencia eléctrica (ρ) de varios elementos quı́micos, como por ejemplo, el magnesio (Mg) y del sodio (Na) a temperaturas de 5 K y 20 K respectivamente. Más tarde, en
1962, el mismo MacDonald, ahora con la colaboración de W. B. Pearson y M. I. Templeton, observó un
aumento de la resistencia eléctrica a bajas temperaturas de aleaciones diluı́das de un ion magnético (impureza) en oro (Au) o en hierro (Fe). En 1964, el fı́sico japonés Jun Kondo publicó un artı́culo en Progress in Theoretical Physics 32, p. 37, intitulado Resistance Minimum in Dilute Magnetic Alloys en el
cual presentó la explicación teórica entre el electrón
de conducción y el ion magnético. Ası́, de acuerdo
con Kondo, el ion de impureza no actua simplemente como un centro constante de dispersión sino, más
bien, hay un acoplamiento antiferromagnético heisenbergiano de los momentos locales (J)de la impureza con los espines de los electrones de conducción. De esta manera, mostró que cuando disminuye la temperatura el acoplamiento crece logarı́tmicamente y, por tanto, impide el flujo de la corriente eléctrica. Nótese que la divergencia logarı́tmica fue
el primero y, quizás, más simple ejemplo de la “libertad asintótica” en fı́sica. El mismo principio de la famosa teorı́a de Yang–Mills de 1954. Esta divergencia ocurre en la llamada temperatura Kondo
EF
EF
TK ≈
exp −
kB
|J|
donde EF es la energı́a de Fermi y kB es la constante
de Boltzmann. Esa explicación fue conocida como
efecto Kondo.
38
Es oportuno observar que, en 1988, Tai–Kai Ng y Patrick A. Lee e, independientemente, Leonid I. Glazman y Mikhail E. Raikh anticiparon la existencia
del efecto Kondo en puntos cuánticos en los cuales los electrones son confinados en nanoestructuras semiconductoras; como los estados electrónicos
de estos puntos parecen átomos naturales, son llamados algunas veces “átomos artificiales”. Al comienzo de la década de 1990, los nuevos trabajos teóricos fueron realizados sobre esa predicción con una
de las primeras observaciones experimentales registradas por Daniel C. Ralph y Robert A. Buhrman,
en 1994. En 2000, W. G. van der Wiel, S. De Franceschi, T. Fujisawa, J. M. Elzerman, S. Tarucha y
L. P. Kouwenhoven y Elzerman, De Franceschi, D.
Goldhaber–Gordon, van der Wiel y Kouwenhoven
observaron el efecto Kondo en los puntos cuánticos
semiconductores.
Cerca del año 2000, Satoshi Sasaki, De Franceschi,
Elzerman, van der Wiel, M. Eto, Tarucha y Kuwenhoven observaron una anomalı́a en el efecto Kondo pues, hasta entonces, tal efecto se consideraba
ocurrı́a sólo en puntos cuánticos con un número impar de electrones (spin total = 1/2). En ese trabajo, observaron que el efecto ocurrı́a en puntos
con número par de electrones (spin total = 0). Los
mismos investigadores han realizado nuevos trabajos experimentales sobre el efecto Kondo en puntos
cuánticos.
38. Efecto Schadt–Helfrich (1971)
Sabemos que, de un modo general, la materia se presenta en tres estados: sólido, que tienen forma y volumen definido; lı́quido, que tiene volumen definido;
y gaseoso, de volumen y forma indefinidos. Sabemos,
también que en los sólidos sus átomos están próximos unos a otros y forman un conjunto rı́gido. Éstos
son, frecuentemente, anisotrópicos, pues sus propiedades varı́an conforme la dirección según la cual se
miden. En los lı́quidos, las moléculas no están fijas sino en constante movimiento debido a la agitación térmica. Pueden ser deformados con facilidad
con fuerzas pequeñas y son isotrópicos ya que sus
propiedades no varı́an, cualquiera que sea la dirección de medición. Para terminar, los gases son también desordenados, pero sus moléculas están mucho
más alejados unas de otras que en los lı́quidos.
La clasificación anterior es, obviamente, bastante resumida. Existen numerosos estados intermedios entre sólidos y lı́quidos. Por ejemplo, los cristales son
sólidos que presentan una forma poliédrica regular,
esto es, presentan un orden de largo alcance en sus
redes. Los sólidos amorfos son no cristalinos y apenas presentan un orden de corto alcance en sus redes. En 1922, el fı́sico francés Georges Friedel (1865–
1933) estudió estos dos tipos de sólidos y nombró me-
ContactoS 82, 33-46 (2011)
somórfico al estado de la materia intermedio entre
ellos. Es más, hizo una división adicional: los nemáticos cuyas moléculas alargadas forman haces paralelos en una misma dirección espacial pero cuya posición relativa no es fija; lo que les confiere cierta anisotropı́a y baja viscosidad; y los esmécticos en los cuales las moléculas están dispuestas en capas y el conjunto se muestra como una masa hojaldrada. Dentro de cada hoja las moléculas están paralelas entre sı́ formando un lı́quido bidimensional, pero guardan la libertad de desplazarse bajo la influencia de
la agitación térmica. El nombre esméctico proviene del griego “sméktikos”, que significa jabón. Hoy,
estos dos estados mesomórficos, son conocidos como cristales lı́quidos.
En 1971, los fı́sicos alemanes Martin Schadt y Wolfgang Helfrich (1932– ) publicaron un artı́culo en Applied Physics Letters 18, p. 127, intitulado Voltage–
Dependent Optical Activity of a Twisted Nematic Liquid Crystal, donde anunciaron el descubrimiento
de que los cristles nemáticos tienen la propiedad de
orientarse en una misma dirección cuando están bajo la acción de un campo eléctrico y de propagar la
luz polarizada sin girar su plano de polarización, giro que ocurre cuando no hay campo eléctrico. Este descubrimiento, conocido actualmente como efecto Schad–Helfrich fue la base de desarrollo de las
pantallas de cristal lı́quido, los famosos LCD (Liquid Cristal Display) en 1979, por T. Beica, S. Frunza, M. Giurgea, L. Matei, T. Serban y M. Voda.
39. Efecto Hawking (1974)
El 27 de noviembre de 1783 el geólogo y filósofo natural inglés John Michell (1724–1793) discutió en la
Royal Society of London la posibilidad de la existencia de estrellas suficientemente compactas que fueran
oscuras. En 1795, el matemático y astrónomo francés
Pierre Simon Marqués de Laplace (1749–1827) en su
célebre tratado intitulado Exposición del Sistema del
Mundo volvió a plantear esa posibilidad utilizando la
mecánica celeste newtoniana. En 1915, Einstein formuló la Teorı́a General de la Relatividad y, al aplicarla al problema de la atracción gravitacional de los
cuerpos llegó a la conclusión de que esta atracción resultaba de la curvatura del espacio–tiempo provocada por la presencia de la energı́a–materia que induce en el espacio–tiempo una geometrı́a no euclideana. Este resultado es presentado en la famosa ecuación de Einstein:
Gµν =
8πG
Tµν
c4
donde Gµν es el tensor de curvatura de Einstein,
Tµν es el tensor momento–energı́a, G es la constante gravitacional de Newton–Cavendish y c es la velocidad de la luz en el vacı́o.
Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo
En 1916, el astrónomo alemán Karl Schwarzschild
(1873–1916) encontró una solución para la ecuación
de Einstein que presentaba una célebre divergencia
conocida como radio de Schwarzschild dado por:
r=
2M G
c2
donde M es la masa de una partı́cula puntual.
Obsérvese que esa solución fue conocida como métrica de Schwarzschild. Más tarde, en 1937 y 1939,
el fı́sico norteamericano Julius Robert Oppenheimer (1904–1964) en colaboración de los también
fı́sicos norteamericanos Robert Serber (1909–1907),
Hartland Snyder (1913–1962) y George Michael Volkoff (1914–2000) (de origen ruso) mostraron que
cuando se agotan todas las fuentes termonucleares de energı́a de una estrella suficientemente pesada, se producirá una contracción gravitacional indefinidamente hasta su colapso total. Como ese colapso gravitacional se relaciona con el radio de Schwarzschild pasó a ser conocido como singularidad de
Schwarzschild.
En mayo de 1952, el fı́sico norteamericano John Archibald Wheeler (1911– ) se preparaba para enseñar
la teorı́a de la Relatividad en el Departamento de
Fı́sica de la Universidad de Princeton para el año lectivo 1953–1954. Allı́ comenzó a desarrollar la idea
del geon (g de “gravitación”, e de “electromagnetismo” y on de la raı́z griega “partı́cula”), una “partı́cula” hecha de luz que podrı́a generar un campo gravitacional. Ası́, la luz, representaba un campo gravitacional formado completamente por el campo electromagnético, es decir, una entidad “masiva sin masa”. A continuación especuló acerca de la posibilidad de un fenómeno cuántico que pudiese modificar
la naturaleza del geon y, en consecuencia, irradiarı́a
energı́a. Posteriormente, Wheeler consideró que esa
entidad podrı́a ser un estado de transición entre la
“onda gravitacional einsteiniana” y el colapso gravitacional oppenheimeriano”.
En agosto de 1967, la astrónoma irlandesa Susan Jocelyn Bell Burnell (1943– ), siendo estudiante del
astrónomo inglés Antony Hewish (1924– , premio nobel de fı́sica en 1974) descubrió un objeto celeste en
la nebulosa de Cangrejo que emitı́a vibraciones regulares de ondas de radio con un periodo de 1.337 s y
que, jocosamente, llamó LGM (“Little Green Man”).
En otoño del mismo año el fı́sico italiano Vittorio Canuto, entonces jefe administrativo del Goddard Institute for Space Studies de la National Aeronautics
and Space Administration (NASA) con sede en Nueva York, invitó a Wheeler para una conferencia acerca de la posible interpretación de ese descubrimiento. En un cierto instante de la exposición, en la cual
argumentaba sobre la posibilidad de que el centro
39
de tales objetos fuera un “objeto colapsado completamente por la gravedad” alguien del público sugirió un nombre más breve “¿Qué tal agujero negro?”
Como Wheeler buscaba desesperadamente un nombre compacto para describir aquella situación fı́sica aceptó la sugerencia y la adoptó oficialmente en
29 de diciembre de 1967 en la conferencia realizada en la Sociedad Sigma X–Phi Beta Kappa también situada en Nueva York.
En la literatura cientı́fica el nombre black hole (agujero negro) apareció en los artı́clos que Wheeler publicó en American Scholar 37 p. 248 y en American Scientist 56 p. 1, ambos en 1968.
Antes de que esos objetos “colapsados por la gravedad” recibieran la denominación de agujeros negros, fueron motivo de investigación por parte de varios fı́sicos. Por ejemplo, en 1963, el matemático neozelandés Roy Patrick Kerr (1934– ) encontró un conjunto de soluciones de las ecuaciones de Einstein que
representaban objetos colapsados en rotación (que
poseı́an momento angular), sin carga, esas soluciones
describı́an la métrica del espacio–tiempo en los alrededores de esos objetos. Obsérvese que la métrica de
Kerr representa una generalización de la métrica de
Schwarzschild. Más tarde, en 1964, los fı́sicos, el ruso Yakov Borisovich Zel’dovich (1914–1987) y el austronorteamericano Edwin Ernest Salpeter (1924– ),
en trabajos independientes, mostraron que la acreción de materia en torno de esos objetos colapsados es una gran fuente de energı́a.
En 1967, el fı́sico alemán canadiense Werner Israel
encontró en las ecuaciones de Einstein una solución que indica que un objeto colapsado estático debe ser esférico. En 1969, el fı́sico inglés Roger Penrose (1931– ) encontró objetos colapsados kerrianos dentro de un horizonte de eventos a la vez que
mostró que existe una región en torno de un agujero negro, conocida como ergosfera donde todo objeto que entre podrá sufrir dos efectos: o desaparecerá en su interior, o será rechazado con una energı́a
mayor de la original.
En 1970, el fı́sico griego Demetrios Christodoulou
confirmó el proceso (o mecanismo) de Penrose mostrando cómo un agujero negro descargado y girante pierde parte de su masa. También en 1970, Wheeler y el fı́sico italiano Remo Ruffini presentaron la
conjetura de que el agujero negro es un objeto extremadamente simple visto desde fuera ya que sólo
puede influir en los objetos de su alrededor mediante su masa, carga y spin, y nada más. Esta conjetura fue demostrada en la década de 1970 y se conoció como el famoso teorema: “Un agujero negro no
tiene cabello” según propuso Wheeler.
ContactoS 82, 33-46 (2011)
40
A partir de esa década se obtuvieron nuevos e importantes resultados acerca de los agujeros negros. Ası́,
en 1971, el astrofı́sico inglés Stephen William Hawking (1942– ) publicó dos trabajos donde demuestra
que cualquier agujero negro kerriano tiene siempre
un eje de simetrı́a y que la colisión de agujeros negros
provoca emisión de radiación gravitacional. Ese mismo año de 1971, Zel’dovich mostró que un agujero
negro kerriano podrı́a emitir bosones (partı́culas de
spin entero) espontáneamente. En 1972, el fı́sico israelı́ Jacob D. Bekenstein (de origen mexicano) sugirió que el área del horizonte de eventos de un agujero
negro serı́a una medida de la entropı́a de ese cuerpo
celeste. Con todo, en 1973, James A. Bardeen, Brandon Carter y Hawking mostraron que, si un agujero negro tuviese entropı́a deberı́a poseer también una
temperatura y, en consecuencia, por las leyes de la
termodinámica, deberı́a irradiar lo que contradecı́a
el propio concepto de ese objeto cósmico. De ese modo concluyeron que la entropı́a de un agujero negro
es infinita.
Como Zel’dovich demostró en 1971 los agujeros negros kerrianos podrı́an emitir bosones espontáneamente, conforme dijimos antes, él y el fı́sico ruso
Aleksander Starobinsky sugirieron a Hawking, en
septiembre de 1973, que esa emisión espontánea correspondı́a al principio de incertidumbre heisenbergiano básico de la mecánica cuántica. De este modo,
procurando una relación entre la teorı́a de la relatividad general y la mecánica cuántica, en 1974, Hwaking publicó un artı́culo en Nature 248, p. 30, intitulado Black Hole Explosions? donde presentó la idea
de que los agujeros negros podrı́an generar y emitir partı́culas tales como los neutrinos o fotones a
una temperatura TH (temperatura de Hawking) expresada en kelvin (K) dada por:
TH =
h̄κ
2πckB
(2)
donde κ es la gravedad superficial del horizonte de
eventos, kB es la constante de Boltzmann y h̄ es la
constante de Planck (h) dividida por 2π.
La emisión de partı́culas por parte de un agujero negro, hoy conocida como efecto Hawking o radiación
de Hawking, fue una idea completada por él mismo en 1975, en un trabajo donde dedujo la célebre fórmula de entropı́a de un agujero negro SAN
que, caso de simetrı́a esférica, es:
kB G
SAN = 4πM 2
(3)
h̄c
hoy conocida como fórmula de Bekenstein–Hawking.
Nótese que esta fórmula muestra claramente que la
entropı́a por unidad de masa SAN /M es proporcional a la masa M del agujero negro, lo que confirma la
propuesta de 1974 de Hawking acerca de que un agujero negro puede irradiar.
En este punto es oportuno presentar brevemente la
polémica dada entre los fı́sicos acerca de la radiación de Hawking. Ésta, según Hawking, resulta de
la siguiente hipótesis heurı́stica: según la mecánica cuántica (teorı́a cuántica de campos), se generan
constantemente pares de partı́culas–antipartı́culas
virtuales e inmediatamente aniquilados en el vacı́o.
Con todo, cerca del horizonte de eventos de un agujero negro, debido a la atracción gravitacional, una de
las partı́culas del par puede ser capturada por el agujero negro en tanto que la otra escapa como radiación. De aquı́, para Hawking, esa radiación ocurre
aleatoriamente y es incapaz de llevar información.
En 1996, Andrew Strominger y Cumrun Vafa publicaron un artı́culos donde, usando la teorı́a de cuerdas, estudiaron el origen microscópico de la expresión 3 considerando que los agujeros negros son cuerpos complejos, hechos de estructuras multidimensionales llamadas de p–branas. Ası́, según estos fı́sicos, la información que hay dentro del agujero negro está almacenada en ondas en aquellas estructura y puede acabar filtrándose.
En 1997, Hawking y los fı́sicos norteamericanos John
P. Preskill y Kip S. Thorne (1940– ) hicieron una
apuesta. En tanto que Hawking y Thorne sostenı́an
que toda la información de lo que cayese en un agujero negro estaba irremediablemente perdida, Preskill
sostenı́a que algún mecanismo de la naturaleza permitirı́a recuperarla. La posición de Preskill también
era defendida por los fı́sicos, el norteamericano Leonard Susskind y el holandés Gerardus’t Hooft (1946–
, premio nobel de fı́sica en 1999). En febrero de 2004,
Gary T. Horowitz y Juan Maldacena sugirieron que
una partı́cula de un par virtual formado en el horizonte de eventos de un agujero negro, cuando escapa no es sólo masa pura sino también información puesto que, debido a la teorı́a cuántica de campos, está entrelazada con la partı́cula compañera que
cae en el agujero negro que, a su vez, está entrelazada con un pedazo de materia. En consecuencia,
ese proceso Horowitz–Maldacena es responsable, como radiación de Hawking, de la información deseada. Es oportuno anotar que Hawking aceptó finalmetne estar equivocado, en julio de 2004, en una
Conferencia Internacional sobre Relatividad General realizada en Dublı́n, Irlanda.
40. Efecto Fullin–Davies–Unruh
(1973/1975/1976)
En el apartado anterior discutimos el efecto Hawking, en este trataremos un nuevo aspecto de ese mismo efecto. Para ello recordaremos que, en 1916, Sch-
Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo
warzcshild encontró una solución para la ecuación de
Einstein (1915) que predecı́a el colapso de las estrellas masivas. En 1957, Kruskal discutió con Wheeler
la idea de rodear la dificultad encontrada en el tratamiento matemático del espacio–tiempo en la región de la singularidad de Schwarzschild. En efecto, a medida que ocurre el colapso estelar la estrella llega a un tamaño crı́tico, conocido como radio
de Schwarzschild de modo que, la luz se detiene encima de ella. Ası́, un volumen esférico en el espacio–
tiempo trazado por ese rayo se conoce como horizonte de eventos del agujero negro. En 1963, Kerr
encontró una nueva métrica (conocida como métrica de Kerr) que representaba a los objetos colapsados gravitacionalmente en rotación y descargados.
En 1973, el fı́sico y matemático norteamericano
Stephen A. Fulling investigó la teorı́a cuántica de
campos en un espacio tiempo riemanniano. En esa
discusión demostró que el estado de vacı́o y la densidad de energı́a de un campo libre en una caja
con condiciones de frontera difieren de los asociados a una región del mismo tamaño pero en el espacio infinito y sin fronteras. De aquı́ concluyó que esta ambigüedad podrı́a ser de interés para un campo
gravitacional. En 1974, Hawking descubrió la radiación de Hawking de los agujeros negros, esto es, las
partı́culas emitidas aleatoriamente. En 1975, el fı́sico inglés Paul C. W. Davies (1946– ) estudió la producción de partı́culas escalares en métricas de tipo
Schwarzschild y Rindler. En mayo de 1976, Davies,
Fulling y el fı́sico canadense William George Unruh
(1945– ) calcularon el tensor energı́a momento einsteiniano (Tµν ) en la proximidad de un agujero negro
en evaporación, esto es, calcularon pares de partı́culas creadas fuera de su horizonte de eventos, siendo una dela partı́culas del par dotada de energı́a negativa y dirigida a un futuro horizonte de eventos, en
tanto que la otra partı́cula del par contribuı́a al flujo térmico al infinito.
Fue estudiando este tipo de evaporación que Unruh hizo un importante descubrimiento, según lo
publicó en el artı́culo Notes on Black–Hole Evaporation de agosto de 1976 en Physical Review D14
p. 870. Este descubrimiento, conocido como efecto
Fulling–Davies–Unruh (EF-D-U), significa que aquello visto como un vacı́o cuántico (compuesto de pares de partı́culas virtuales) por un observador inercial (en movimiento uniforme) es visto por un observador con aceleración propia (a) constante como un baño térmico de todas las partı́culas (ahora reales) cuya temperatura de Unruh (TU ) es análoga a la expresión 2, esto es:
TU =
h̄a
2πckB
(4)
41
Esa radiación de Unruh representa un resultado
equivalente al de la relativida restringida de Einstein pues, ası́ como en ésta espacio y tiempo dependen del observador, en aquélla el concepto de
partı́cula elemental también depende del observador. Con todo, en cuanto al primer caso el observador es inercial, esto es, se halla en movimiento uniforme, en el segundo caso, el observador es no inercial, es decir, está uniformemente acelerado.
Obviamente ese resultado fue recibido con gran escepticismo por la comunidad cientı́fica internacional
pues indicaba que la existencia de partı́culas elementales depende del estado de movimiento del observador. Además los valores obtenidos por medio de
la expresión 4 son inaccesibles en extremo por medios experimentales hasta el momento. A pesar de
eso, el propio Unruh propuso en 1977, un método experimental de determinar su radiación. Una nueva
propuesta experimental fue presentada, también por
Unruh, en 1981, al mostrar que un espectro térmico de ondas sonoras, del mismo tipo que su radiación, puede observarse en el horizonte sóndico debido al flujo de un fluido transónico.
La dificultad de observación de la radiación de Unruh puede ilustrarse con los siguientes valores de TU .
2
Para a = g = 9.81 m/s se tiene TU = 4 × 10−20 K;
2
20
para a = 10 m/s ≈ 1019 g se tiene TU < 1 K y pa2
ra a = 1026 m/s ≈ 1025 g se tiene TU = 4 × 105 K.
Esta dificultad llevó a los fı́sicos brasileños Matsas y
Daniel Augusto Turolla Vanzella (1975– ) a proponer, en 2001, un experimento mental para comprobar el EF–D–U utilizando la aceleración de protones. Veamos cuál es esta propuesta. Según el Modelo Estándar de Partı́culas Elementales, un neutrón libre (n) se desintegra, en poco menos de 15 minutos, en protón (p), electrón (e− ) y antineutrino del
electrón (ν̄e ), esto es:
n −→ p + e− + ν̄e
En el artı́culo mencionado se calcula el tiempo de vida de ese decaimiento considerando un observador
inercial y también se muestra que ese mismo tiempo de vida puede obtenerse en el referencial coacelerado con un protón utilizando un baño térmico resultante del EF–D–U. En efecto, un observador en reposo respecto al protón verá esta partı́cula interactuando con un baño térmico formado de pares de partı́culas, por ejemplo, e− , e+ , νe , ν̄e . Ası́, ese observador
podrı́a ver un protón interactuando con un electrón
y decayendo en nuetrón y neutrino del electrón:
p + e− −→ n + νe
o interactuando con un electrón y un antineutrino
ContactoS 82, 33-46 (2011)
42
del electrón produciento un neutrón:
p + e− + ν̄e −→ n
Obsérvese que este experimento volvió a ser objeto de estudio por parte de Matsas y Vanzella en
2002 donde confirmaron la obligatoriedad del EF–
D–U para mantener la consistencia de la teorı́a
cuántica estándar de campos y que, también, Pierre Martinetti, en 2004, estudió la causalidad de
ese efecto.
41. Efecto Zenón cuántico
(Misra y Sudarshan, 1977)
El desarrollo de la mecánica cuántica a partir
de 1926 se expresa en la célebre ecuación de
Schrödinger
ih̄
∂ψ(~r, t)
∂t
b = p̂2 + V (~r, t)
H
2m
p̂
b r, t)
= Hψ(~
= −ih̄∇
que muestra la función de onda del electrón de un
átomo que se encuentra aislado está representada
por la superposición de autoestados con energı́a bien
definida y denominados estados estacionarios. Con
todo, si el átomo considerado sufre la influencia del
ambiente por campos externos, pero sus autoestados no afectan a las fuentes de ese campo, se dice que tal átomo representa un sistema cerrado pero no aislado. Un ejemplo simple de este tipo de sistema es un átomo en el cual incide un campo electromagnético (un haz de quantums de luz o de radiofrecuencia). En este caso, un autoestado de este átomo no es estacionario pues puede absorber uno de
esos quantum y saltar a otro autoestado energético
con determinada probabilidad. La mecánica cuántica muestra que esa probabilidad de transición aumenta con el tiempo.
En 1957, el fı́sico ruso Leoni A. Khalfin discutió la
idea de que las transiciones entre autoestados de
un átomo referidas anteriormente podrı́an ser inhibidas si las mismas fuesen observadas frecuentemente. Sin embargo, fue en 1977, que los fı́sicos indios Baidyanath Misra y Ennackel Chandy George
Sudarshan (1931– ) (naturalizado norteamericano)
presentaron un estudio teórico sobre esa inhibición,
en el artı́culo publicado en Journal of Mathematical Physics 18, p. 756, intitulado The Zeno’s Paradox in Quantum Theory. En ese artı́culo muestran
que las transiciones espontáneas o inducidas entre estados cuánticos de un sistema dado, debidas a medidas frecuentes permanecen inhibidas por cierto intervalo de tiempo, esto es, el sistema permanece “con-
gelado” en el estado inicial. Por estas razones esa inhibición pasó a ser conocida como efecto (paradoja) Zenón cuántico (EZQ). En 1977 y, posteriormente, en 1982, Misra y Sudarshan, ahora con la colaboración de C. B. Chiu, volvieron a discutir ese efecto,
esta vez examnando la evolución de un sistema inestable como, por ejemplo, el decaimiento del protón.
Este mismo estudio fue realizado por Khalfin, también en 1982.
Veamos como ocurre el “congelamiento” anticipado
por el EZQ. Representemos un observable (energı́a)
b de un sistema
con el operador hamiltoniano (H)
S que es monitoreado continuamente a partir del
b : |ψn i. Considerado las medin−autoestado de H
ciones continuas del sistema S como casos lı́mite de
mediciones discretas separadas por un intervalo de
tiempo τ , la función de onda de ese sistema en el instante inmediatamente anterior a la primera medición, en t = τ será:
!
b
Hτ
| ψn (~r, t = τ ) = exp
|ψn (~r, 0)i
ih̄


!2
b
b
Hτ
1 Hτ
≈ 1 +
+
+ . . . |ψn (~r, 0)i
ih̄
2 ih̄
Utilizando la expresión anterior, la probabilidad (P )
para el sistema S que permanece en el mismo autoestado tendrá la siguiente forma:
Pnn = |hψn (~r, 0)|ψn (~r, τ )i|2
τ 2 b 2
≈ 1 − 2 ∆H
h̄
donde:
b
∆H
representa la
n−autoestado.
2
=
=
2
b
H
nn
2
(∆E)
variancia
de
(5)
2
b
− H
nn
energı́a
E
del
Después de k mediciones en el tiempo total tT = kτ
la expresión 5 tomará la forma:
k
Pnn
k
(kτ )τ
1 − 2 (∆E)2
h̄ k
k
tT τ
2
=
1 − 2 (∆E)
h̄ k
=
(6)
Como consideramos la observación contı́nua (durante largo tiempo) del sistema S en el n−autoestado
y que, también, esta observación es el caso lı́mite
Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo
de una sucesión de medidas instantáneas, la probabilidad del sistema de permanecer “congelado” en
ese autoestado se obtendrá en el lı́mite de la expresión 6 cuando k → ∞ y τ → 0; obsérvese que:
x n
= exp(x)
lı́m 1 +
n→∞
n
De ese modo se obtiene:
k
lı́m Pnn
(τ )
=
k→∞
→
tT τ
exp − 2 (∆E)2
h̄
k
lı́m Pnn (tT ) = 1
τ →0
El resultado anterior indica que cuando un observable relativo a un sistems S con espectro discreto es monitoreado con una precisión infinita permanece “congelado” en su estado inicial.
Sin embargo, el EZQ puede ocurrir con transiciones espontáneas o inducidas, en éstas, con todo, tal
efecto podrı́a ser más fácilmente observado experimentalmente, según propuso R. J. Cook en 1988.
Analicemos su propuesta. Considere un ion atrapado que puede realizar solamente transiciones de
su estado fundamental (|1i) a un estado excitado
metaestable (|2i) (donde el decaimiento espontáneo
(|2i) → (|1i) es despreciable), o bien realiza la transición por un pulso óptico (|3i). La función de onda es la proyectada por la medida de la diferencia de energı́a entre los dos primeros estados (niveles) por medio de un pulso resonante π de duración τ = π/Ω (Ω es la frecuencia de Rabi, proporcional al cuadrado de la amplitud del campo aplicado). Si al comienzo de esa medición el ion es proyectado al nivel (|1i) ocurre un ciclo entre los niveles (|1i) y (|3i) y emite una serie de fotones hasta que sea encerrada la medida; por otro lado, si fuera proyectado al nivel (|2i), no emite fotones. En
ese caso, se dice que el pulso óptico causa el “colapso de la función de onda” en este nivel. En resumen:
si una medición encuentra al ion en el nivel (|1i), regresa a ese nivel al térmno de la misma de un intervalo de tiempo aproximadamente igual a la vida media del nivel (|3i). Si, por el contrario, la medición
encuentra al ion en el nivel (|2i), el ion nunca deje ese nivel durante la medición o sea que está “congelado” en ese nivel.
De este modo Cook sostenı́a que si se realizara un experimento de este tipo se podrı́a comprobar el EZQ.
En 1990, los fı́sicos Wayne M. Itano, D. J. Heinzen, J. J. Bollinger y David J. Wineland, usaron un
ion de berilio (9 Be+ ) para efectuar ese experimento.
Es oportuno destacar que la interpretación del “colapso de la función de onda” dada por esos fı́sicos ha
sufrido un a serie de crı́ticas que ellos han respondido en 1991. Como el EZQ se relaciona con el pro-
43
blema de la medición en la mecánica cuántica ha sido objeto de mucho debate.
42. Efecto Sı́sifo
(Cohen–Tannoudji, 1986/1987)
En 1976, Ennio Arimondo y G. Orriols por un lado, y G. Alzetta, Adriano Gozzini, L. Mol y Orriols,
por otro, descubrieron un nuevo método de captura de átomos por laser, la transparencia inducida
electromagnéticamente (CPT, por las siglas Coherent Population Trapping). Según este método, los
átomos más lentos son colocados en un “estado oscuro” que los vuelve “transparentes” al laser empleado, esto es, no absorben fotones. En 1976, los fı́sicos rusos Vladelin S. Letokhov, Vladimir G. Minogin y B. D. Pavlik sugirieron un método general para modificar la frecuencia de un haz laser (conocido más tarde como chirrido de frecuencia) para interactuar con todas las partı́culas (átomos o moléculas) de un haz y permanecer en resonancia solamente
con lo que serı́an enfriados. En 1978, Ashkin aisladamente y luego con auxilio de John E. Bjorkholm, Richar R. Freeman y D. B. Pearson, desarrolló una
técnica de captura de átomos por presión de radiación resonante, técnica conocida como pinzas
ópticas.
En 1978 el fı́sico norteamericano William D. Phillips
(1948– , premio nobel de fı́sica en 1997) se encontraba en el NBS (National Bureau of Standards) cuando comenzó a interesarse en las técnicas de enfriamiento de iones, principalmente la de “pinzas ópticas”. Con todo, el percibió que estas técnicas solamente aprisionaban iones, no átomos neutros. Ası́,
con la colaboración de Harold J. Metcalf y John V.
Prodan, Phillips desarrolló la técnica conocida como enfriamiento Zeeman usando un campo magnético para cambiar los niveles de energı́a (“niveles Zeeman”) de un átomo manteniéndolo en resonancia con
una laser de frecuencia fija.
Con esta técnica consiguió, en 1982, enfriar átomos
de sodio (Na) a la temperatura de 70 mK. A su
vez, en 1985, los fı́sicos norteamericanos Steven Chu
(1948– , premio nobel de fı́sica en 1997), Leo Hollberg, Bjorkholm, Alex Cable y Ashkin desarrollaron
un nuevo mecanismo de enfriamiento usando seis haces de laser opuestos en pares y dispuestos en tres direcciones perpendiculares entre sı́. De esta forma, un
haz de átomos de Na fue desacelerado por un laser opuesto a su movimiento y, enseguida, fue dirigido a una región interceptada por dos laseres; éstos
funcionaban como un lı́quido viscoso, llamada “melaza óptica”que enfriaba a los átomos. De esta manera se formó una nube del tamaño de una lenteja con átomos a una temperatura cercana a 240 µK,
lo que corresponde a una velocidad de ≈ 30 cm/s. Es-
44
te mecanismo de enfriamiento es conocido como enfriamiento Doppler.
A pesar del éxito de la “melaza óptica” habı́a dificultades pues no se conseguı́a capturar los átomos por más de medio segundo. En vista de ello los
fı́sicos norteamericanos David E. Pritchard, Eric L.
Raab, Carl E. Wieman (1951– , premio nobel de fı́sica en 2001), Richard N. Watts (1957–1996) y el brasileño Vanderlei Salvador Bagnato (1958– ), sugirieron en 1986 que el aprisionamiento de los átomos neutros podrı́a realizarse usando una combinación de campos externos magnéticos o eléctricos.
En 1986, el fı́sico francés Claude N. Cohen–
Tannoudji (1933– , premio nobel de fı́sica en 1997)
y algunos de sus colaboradores (Christophe Salomon, Jean Dalibard, Alain Aspect y Metcalf) comenzaron a investigar un nuevo mecanismo de enfriamiento estudiando el movimiento de un átomo
en un haz intenso de un laser estacionario. Ası́, analizando la correlación entre las modulaciones espaciales de los “átomos dispuestos” y las modulaciones espaciales de las emisiones espsontáneas entre
esos mismos estados atómicos, observaron que el átomo considerado, al absorber un fotón podı́a subir
una barrera de potencia, pero luego perdı́a energı́a
por la emisión espontánea de un fotón más energético del anterior; volvı́a entonces a subir, al recibir
un nuevo fotón, y luego caı́a como en el caso anterior y ası́ sucesivamente. Ası́, puesto que en cada caı́da el átomo perdı́a más energı́a de la que recibı́a en el ascenso, el resultado final era un enfriamiento. En analogı́a con el ser mitológico griego Sı́sifo, que rodaba cuesta encima una piedra, Cohen–
Tannoudji dio a ese mecanismo el nombre de efecto Sı́sifo. Este tipo de enfriamiento, conocido como
enfriamiento Sı́sifo fue presentado por los cinco fı́sicos mencionados en el artı́culo intitulado Channeling Atoms in a Laser Standing Wave, publicado en
Physical Review Letters 59 p. 169, en 1987. Es oportuno enfatizar que hay otros mecanismos de enfriamiento semejantes, como es el caso del enfriamiento sub–Doppler y el enfriamiento por gradiente polarizado que fueron logrados por Phillips y sus colaboradores en 1988 y por Chu y su equipo en 1989.
A pesar del éxito del enfriamiento Sı́sifo este, con
todo, presentaba un lı́mite de aplicabilidad devido al retroceso espontáneo de los fotones absorsor
y emisor. Para rodear esa dificultad, se propusieron
otros dos tipos de enfriamiento del tipo subretroceso. El primero de éstos, conocido como VSCPT Velocity Selective Coherent Population Trapping, fue
propuesto por Cohen–Tannoudji y sus colaboradores en 1988 y 1989, y más elaborada en 1995 y 1997.
Con esta técnica consiguieron obtener temperaturas
ContactoS 82, 33-46 (2011)
en el orden de los nanokelvin (1 nK = 10−9 K). El segundo, conocido como enfriamiento Raman fue elaborado por Chu y su equipo en 1992. Los resultados obtenidos con el enfriamiento átómico y algunas de sus aplicaciones (p.ej. el reloj atómico de cesio (Cs) se encuentran en www.nobel.se/physics/
laureates).
43. Efecto magnetoresistencia extraordinaria
(Solin, 1995)
En 1857, el fı́sico inglés Sir William Thomson
(Lord Kelvin) (1842–1907) descubrió que la resistencia eléctrica de un material variaba con la aplicación de un campo magnético. Esta modificación
fue conocida como magnetoresistencia (MR) y resultó insignificante para los metales. Por otro lado, el descubrimiento de los semiconductores, a
partir de 1927, mostró que ese cambio también
es pequeño en ellos. Con todo, las investigaciones
sobre transporte de electrones en estructuras periódicas formadas de conductores, semiconductores
y superconductores monocristalinos (super redes)
de las décadas 1960 y 1970 llevaron al descubrimiento de nuevos efectos relacionados con grandes
magnetoresistencias.
Los primeros datos sobre la existencia de grandes
MR se presentaron en 1975 por el fı́sico francés Michel Jullière al estudiar el tunelamiento entre pelı́culas ferromagnéticas. Midió la magnetoresistencia de
un sandwich de dos pelı́culas de hierro y cobalto con
una capa intermedia de germanio (Fe–Ge–Co) en dos
situaciones: con magnetización de las pelı́culas en
sentido paralelo y en antiparalelo. Puesto que hay un
efecto de tunelamiento de los electrones de conducción de las pelı́culas magnéticas a través de la capa
intermedia, la MR medida por Jullière llegó a nombrarse como TMR “túnel magnetoresistencia”.
Albert Fer y sus colaboradores (Mario N. Baibich, J.
M. Broto, F. Nguyen Van Dau, F. Petroff, P. Eitenne, G. Creuzet, A. Friedrich y J. Chazelas) encontraron, en 1988, nuevas evidencias acerca de la existencia de grandes MR al estudiar la magnetoresistencia de un sandwich de dos capas de hierro (001)Fe
y cromo (001)Cr con una capa de metal nomagnético. Observaron que para una capa de 9 angströms
de espesor (9 × 10−8 cm) de Cr a una temperatura de T = 2.4K, la resistividad bajaba en un factor de 2 aproximadamente en un campo magnético de 2 teslas. Esta GMR también fue descubierta, independientemente, por G. Binasch, Peter A.
Grünberg, F. Saurenbach y W. Zinn en 1989 al usar
capas de Fe–Cr–Fe con material antiferromagnético entre ellas.
Obsérvese que tanto el TMR como el GMR se explican con la polarización del spin de los electro-
Crónica de los efectos fı́sicos. Parte IV. José M. Filardo Bassalo
45
nes de conducción entre las capas. En efecto, cuando las dos capas ferromagnéticas tienen magnetización en paralelo, el electrón de conducción con spin
en paralelo con la magnetización pasa por la capa intermedia, en tanto que los electrones de spin antiparalelo no pasan. Con todo, cuando la magnetización
de las dos capas es antiparalela, los dos tipos de electrones de conducción no pasan. Es un fenómeno semejante al paso de la luz por poları́metros.
MR miles de veces mayor que cualquier otra medida hasta entonces a esa temeperatura. Para vencer
el desafı́o de estudiar la EMR en nanoestructuras, el
equipo de Solin se unió al de J. Shen Tsai y Y. A.
Pashkin, especialistas, respectivamente, en conducción eléctrica en nanoestructuras y en métodos de litografı́a por haz de electrones. Los primeros resultados de los nanosensores de campo magnético se obtuvieron en 2003.
El interés de los efectos TMR y GMR en aplicaciones tecnológicas están, principalmente, como sensores de campos magnéticos usados en las unidades de disco de computadoras, lo cual ha aumentado la investigación en magnetoresistencias gigantes. Ası́, en 1994, el fı́sico chino Sung–Ho Jin y su
equipo (T. H. Tiefel, M. McCormack, R. A. Fastnacht, R. Ramesh y L. H. Chen) de los Laboratorios Bell anunciaron el descubrimiento de una colosal magnetoresistencia (CMR)en un cristal de manganita (La 0.7 Ca 0.3 MnO 3 ). Observaron que la aplicación de un campo magnético reducı́a la resistencia del cristal debido a la transformación del material no magnético lantano y calcio en ferromagnético; esta transformación ocurrı́a a temperaturas menores de 150 K y con campos magnéticos de varios
teslas.
Para terminar, una nueva modalidad de MR fue descubierta en 1999 por N. Garcı́a, M. Muñoz y Y.
W. Zhao al estudiar la resistencia de nanocontactos de nı́quel (Ni) a temperatura ambiente bajo un
campo magnético de cien oersteds. El efecto de este campo es consecuencia de la trayectoria balı́stica
de los electrones de conducción a lo largo del nanocontacto (a diferencia del transporte difuso de electrones en las otras MR) la magnetoresistencia medida fue cerca de 280 % mayor; a este efecto se le conoce como magnetoresistencia balı́stica o BMR. Sin
embargo, a partir de 2003 los resultados han sido
cuestionados.
Con todo, en 1995, hubo un descubrimiento sorprendente relacionado con la MR. Solin y M. Lee estudiaban la resistencia eléctrica de un súper–red semiconductora o heteroestructura constituida de arseniuro de galio y arseniuro de galio y aluminio
(GaAs − Ga 0.7 Al 0.3 As) en un sandwich. Analizaron de qué manera el espesor de las capas determinaba que una super–red se comportara como un
metal o como aislante. Al colocar el sistema en un
campo magnético se sorprendieron del aumento de
resistencia de la super–red al aumentar el campo
magnético. Observaron, pues, un GMR de materiales no magnéticos. Este resultado fue presentado con
el tı́tulo Temperature Dependence and Angular Dependence of the Giant Magnetoresistance in GaAs–
AlGaAs Superlattices publicado en Materials Science and Engineering: Solid State Materials for Advanced Technology B31, p. 147, en 1995.
Debido a la singularidad anterior Solin y sus colaboradores (J. M. Bennett, Jean J. Heremans, Tineke Thio, D. R. Hines, M. Kawano, N. Oda, M. Sano,
y T. Zhou) comenzaron a estudiar este nuevo efecto que pasó a ser conocido como efecto magnetoresistencia extraordinaria o EMR, en algunos tipos de
heteroestructuras. Por ejemplo, en 1998, construyeron una heteroestructura de antimio, indio y oro ( In
Sb–Au), al ponerla bajo un campo magnético de cinco teslas y a temperatura ambiente, midieron una
44. Efecto reloj (Mashhoon, 1993/1999)
En 1687, el fı́sico y matemático inglés Sir Isaac Newton (1642–1727) publicó su famoso libro intitulado
Philosophie Naturalis Principia Mathematica “Principios matemáticos de filosofı́a natural” donde presentó su célebre ley de gravitación universal: “La gravedad opera. . . proporcionalmente a la cantidad de
materia. . . y propaga su virtud para todos lados a
distancias inmensas, decreciendo siempre con el inverso del cuadrado de la distancia”. A su vez, en
1785, el fı́sico francés Charles Augustin Coulomb
(1736–1806) demostró que: “La fuerza de atracción
o repulsión entre dos cargas eléctricas es directamente proporcional al producto de sus cantidades de
cargas eléctricas, inversamente proporcional al cuadrado de la distancia que separa sus centros, y se
sitúa en la misma dirección que la recta que une sus
centros”.
Esta semejanza formal entre las leyes de Newton
y de Coulomb llevó a una descripción de la teorı́a
de gravitación newtoniana en términos de un campo gravitoeléctrico. Con todo, el desarrollo del electromagnetismo durante el siglo XIX uscitó una nueva descripción de esa teorı́a, esta ocasión, incluyendo al magnetismo, y que fue presentada por lso fı́sicos, el alemán G. Holzmüller, en 1870, y el francés
F. Tisserand, en 1872. Ambos postularon la existencia de un campo gravitomagnético solar. Es oportuno subrayar que ese tipo de campo fue usado al intentar explicar la anomalı́a de la precisión del perihelio de Mercurio, anomalı́a observada por el astrónomo francés Urbain Jean Joseph Le Verrier (1811–
1877) en 1859.
ContactoS 82, 33-46 (2011)
46
El éxito de la explicación de esa anomalı́a por Einstein, en 1915, con su teorı́a de la relatividad general, formulada ese mismo año, sugirió a los fı́sicos
austrı́acos Joseph Lense y Hans Thirring, en 1918,
la idea de que esa teorı́a también podrı́a explicar un
efecto gravitomagnético como es la precesión de un
giróscopo fijo dentro de un cuerpo esférico masivo giratorio semejante a la Tierra. Este precesión fue conocida como efecto Lense–Thirring (EL–T).
Posiblemente la misma dificultad de observar el EL–
T llevó al estudio del gravitomagnetismo durante la
década de 1950. En ese entonces se realizó un completo tratamiento relativı́stico en el que los componentes gravitoeléctrico y gravitomagnético del tensor curvatura fueron comparados con la fuerza lorentziana. Con todo, la diferencia de carácter spinorial de los campos gravitacional (spin 2) y electromagnético (spin 1) llevó al fı́sico iranı́ Bahram Mashhoon a analizar cómo el gravitomagnetismo afecta a
la estructura espaciotemporal en la relatividad general einsteiniana. Ası́, dentro de los diversos aspectos de ese análisis, estudió el efecto gravitomagnético en giróscopos y, también en partı́culas puntiformes que se mueven en una misma órbita geodésica ecuatorial circular pero en sentidos opuestos, alrededor de una masa central giratoria.
Ahora bien, el efecto gravitomagnético sobre relojes
patrón en órbita alrededor de un cuerpo astronómico
giratorio, más tarde conocido como efecto reloj (ER)
sólo comenzó a ser estudiado por Mashhoon, en colaboración de Jeffrey M. Cohen, en un artı́culo intitulado Standard Clocks, Interferometry and Gravitomagnetism publicado en Physics Letters A181, p.
353, en 1993.
En 1997, Mashhoon volvió a estudiar ese efecto, aunque fue hasta 1999 que, junto con Frank Gronwald
y Herbert I. M. Lichtenegger, preparó un artı́culo
más elaborado intitulado Gravitomagnetism and the
Clock Effect en Lectures Notes in Physics 562, p.
83, donde mostraron detalladamente que la diferencia en los periodos propios de los relojes patrones en
órbitas geodésicas ecuatoriales circulares y en sentidos contrarios está dada por:
τ+ − τ− ≈
4πa
c
(7)
donde τ+ y τ− indican, respectivamente, el periodo
de movimiento en sentido del cuerpo rotatorio (progrado) y en sentido contrario (retrógrado), a = j/M c
siendo J y M , respectivamente el momento angular y la masa del objeto giratorio, responsable del
efecto gravitomagnético. Recalquemos que la diferencia expresada en 7 es relativa a un observador para el cual
2GM
r≫
c2
donde G es la constante gravitacional de Newton–
Cavendish.
Concluyamos esta crónica destacando que desde la
formulación del ER por Mashhoon ha propuesto,
con sus colaboradores, diversos experimentos para
su comprobación.
Conclusión y agradecimientos
A manera de conclusión quiero advertir al lector que no incluı́ en esta Crónica de los Efectos Fı́sicos todos los conocidos, p.ej. los presentados en el sitio: http:\\scienceworld.wolfram.
com/physics/topics/Effects.html ni otros más
que este sitio omite. La selección de los 44 efectos descritos en estas 4 crónicas ha sido puramente
personal.
Para realizar estas Crónicas conté con la colaboración de varios amigos, algunos por su lectura crı́tica, otros por el acceso a algunos artı́culos aquı́ citados. De este modo quiero agradecer a: Alexandre
Guimarães Rodrigues, Ângela Burlamaqui Klautau
Crispino, Antonio Boulhosa Nassar, Breno César de
Oliveira Imbiriba, Célia Coelho Bassalo, Danilo Teixeira Alves, Francisco Caruso Neto, Jill Young Coelho, José dos Santos Oliveira, José Pizarro de Sande Lemos, José Wadih Maluf, Karlúciio Heleno Castro Castello Branco, Luis Carlos Bassalo Crispino,
Mauro Sérgio Dorsa Cattani, Osvaldo Pessoa Junior
y Petrus Agripino de Alcântara Junior. Debo también un agradecimiento especial a José Luis Córdova Frunz por la lectura crı́tica y la versión en español
de estas Crónicas publicadas en la Revista Contactos de la Universidad Autónoma Metropolitana de
México.
cs
Crónica del Oscilador Armónico*
José Marı́a Filardo Bassalo,
Fundación Minerva, Prof. retirado de la Universidad de Pará
www.bassalo.com.br
* Traducido por el Dr. Eleuterio Castaño Depto. de Fı́sica,
UAM-I.
ContactoS 82, 47–52 (2011)
48
Resumen
En este artı́culo estudiamos la evolución histórica
del Oscilador Armónico desde los primeros estudios
realizados durante la primera mitad del siglo XVIII,
hasta el momento presente.
Uno de los primeros estudios matemáticos sobre osciladores armónicos simples (OAS) fue realizado por
el fı́sico y matemático suizo Leonhard Euler (17071783), en 1739,1 al resolver la ecuación diferencial:
mẍ + kx = 0,
k = ω02 m,
(1)
donde ω0 es la frecuencia natural del OAS, por medio de un método de cuadraturas. En ese mismo trabajo Euler redescubrió el fenómeno de resonancia al
obtener, por el mismo proceso de cuadraturas, la solución del oscilador armónico forzado (OAF):
mẍ + kx = F sen (ωα t),
(2)
y observar que la solución resulta en oscilaciones forzadas que se vuelven cada vez mayores conforme la
frecuencia natural ωo se aproxima a la frecuencia externa de forzamiento, ωα , y sus amplitudes tienden
a infinito.
Otra cuestión también ligada al OA se refiere al problema de obtener su ecuación de movimiento a partir del Lagrangeano. Este problema comenzó con
los trabajos de Euler y del matemático francés Joseph Louis Lagrange (1736-1813); en estos trabajos
se buscaba encontrar la ecuación de movimiento de
un sistema fı́sico cualquiera a partir de un principio de mı́nima acción. Veamos cómo.
El matemático francés Pierre de Fermat (1601-1665)
formuló, entre 1653 y 1662,2 el famoso principio del
tiempo mı́nimo, según el cual la luz, al propagarse
entre dos puntos de su trayectoria, escoge un camino
cuyo tiempo de recorrido es mı́nimo. En lenguaje
moderno este principio dice que la integral
J=
Z
t2
t1
dt =
Z
P2
P1
ds
,
v
del principio de Fermat, enunció su famoso principio de mı́nima acción. Como en aquella época habı́a una controversia con respecto a la velocidad de la luz, entre que ésta era proporcional al ı́ndice de refracción (n), tal como aseguraban el filósofo y matemático francés René du Perron Descartes
(1596-1650) y el fı́sico y matemático inglés Sir Isaac
Newton (1642-1727), o que era inversamente proporcional, como aseguraba Fermat, Maupertuis abandonó la idea del tiempo mı́nimo y utilizó otra cantidad llamada ACCIÓN, definida como el producto de la masa (m), por la velocidad (v) y por la distancia (s) recorrida por una partı́cula dada. [Es oportuno destacar que además de razones fı́sicas, Maupertuis (y el propio Euler) daban razones teológicas para su principio, pues, decı́an ellos, que las leyes del comportamiento de la naturaleza poseen una
perfección digna de la creación de Dios.]
Por lo tanto, según Maupertuis, se tenı́a que:
mvs = acción ≡ mı́nimo .
Ese mismo año de 1744,4 Euler escribió el principio de la mı́nima acción de Maupertuis de la siguiente forma:
Z
Z
δ v ds = δ v 2 dt = 0
(5)
expresión que indicaba que la acción de Maupertuis era mı́nima para movimientos de partı́culas a
lo largo de curvas planas.
Es muy desafortunado que a pesar de que Euler haya esbozado esta primera interpretación dinámica
del principio de Maupertuis, el crédito del uso del
principio de mı́nima acción en la Mecánica sea
atribuido a Lagrange. Éste, en 1760-1761,5 partiendo del principio de mı́nima acción de Euler, formuló entonces su principio de mı́nima acción y
lo aplicó a un conjunto de partı́culas. Su principio es definido ası́:
δ
Apenas comenzó el siglo XVIII los matemáticos ya
poseı́an varios ejemplos de que la Naturaleza tiende maximizar o minimizar algunas cantidades importantes. De manera semejante, el matemático francés
Pierre Louis Moureau de Maupertuis (1698-1759), en
1744,3 trabajando con la teorı́a de la luz y partiendo
Z
t2
T dt = 0,
(6)
t1
(3)
toma un valor mı́nimo cuando la luz, con velocidad
v, viaja entre los puntos P1 y P2 .
(4)
donde T , la energı́a cinética de un sistema de
partı́culas, está dada por:
T =
X1
i
2
mi vi2 =
X1
i
2
mi ẋ2i
(7)
Partiendo de este Principio, y considerando la condición adicional de que la energı́a total de un sistema de partı́culas, esto es, T + V (siendo V la energı́a
potencial) es constante para caminos muy cercanos
Crónica del Oscilador Armónico. José Marı́a Filardo Bassalo.
entre sı́, considerados entre dos configuraciones fijas, Lagrange usó el actualmente conocido Cálculo de Variaciones, que ya habı́a sido desarrollado por Euler, a partir de 1734,7 y demostró la famosa Segunda Ley de Newton:8
mi ẍ2i = −
∂V
= Fi .
∂xi
49
183511 Hamilton enunció su Principio, desde entonces conocido como Principio de Hamilton, y que
toma la siguiente forma:
Z t2
L(qi , q̇i , t)dt = 0,
(11)
δ
t1
(8)
Al estudiar, en 1782, sistemas de n masas puntuales, Lagrange introdujo el concepto de coordenadas
generalizadas (pi , qi ), como cualquier conjunto de
coordenadas que puede, sin ambigüedades, definir la
configuración de estos sistemas. Entonces, a partir
de esta consideración, en su Mécanique Analytique, publicada en 1788, Lagrange presentó el Principio de Mı́nima Acción de Maupertuis-Euler
en términos de estas coordenadas y usando, una vez
más el método variacional obtuvo la ahora famosa Ecuación de Euler-Lagrange:
d ∂T
∂T
∂V
−
+
=0
(9)
dt ∂ q̇i
∂qi
∂qi
Otra gran contribución al estudio del Principio de
Mı́nima Acción aplicado a la Mecánica fue dada
por el matemático francés Siméon Denis Poisson
(1781-1840), en 1809.9 De manera semejante, partiendo de la Ecuación de Euler-Lagrange, la modificó introduciendo el ahora llamado lagrangeano
L = T − V . Veamos cómo. Utilizando V (qi ) y T (q̇i )
como funciones de las coordenadas generalizadas, la
expresión (9) puede ser escrita en la forma conocida como Ecuación de Euler-Lagrange-Poisson:
d ∂L
∂L
−
=0
(10)
dt ∂ q̇i
∂qi
Antes de terminar el Siglo XIX, otra modificación
fue propuesta por el matemático irlandés Sir William Rowan Hamilton (1805-1865). Como resultado, entre 1824 y 1832,10 Hamilton estudió la óptica con el objetivo de darle una estructura matemática dentro de los moldes que Lagrange utilizara para la Mecánica. De manera similar, y observando que
para algunos fenómenos la Naturaleza maximiza su
acción en lugar de minimizarla, Hamilton prefirió entonces hablar de un Principio de Acción Estacionaria. Aun más, Hamilton observó que el Principio
de Euler-Lagrange-Poisson se referı́a tan sólo a
sistemas conservativos, esto es, aquéllos para los cuales el potencial V es solamente una función de las
coordenadas qi , es decir que V = V (qi ). De este modo, Hamilton generalizó entonces este Principio con
el objetivo de incluir sistemas no-conservativos, para los cuales V = V (qi , q̇i , t). De tal manera que en
donde L = T −V es la llamada función lagrangeana, que fue introducida, conforme vimos, por Poisson, en 1809. A partir de este Principio, y aplicando
el Cálculo de Variaciones de Euler-Lagrange, Hamilton reobtuvo las Ecuaciones de Euler-LagrangePoisson.
Las Ecuaciones de Euler-Lagrange-Poisson
conforman las ecuaciones de movimiento de un sistema cualquiera caracterizado por la función lagrangeana L [vea la expresión (10)]. Para el caso del OAS, cuyo L vale:
1 2 1
mq̇ − mω02 q 2 ,
(12)
2
2
estas ecuaciones llevan a la siguiente ecuación:
L=T −V =
q̈ + ω02 q = 0
(13)
que es, justamente, la ecuación de movimiento del
OAS.
Conforme vimos anteriormente, la obtención de la
ecuación de movimiento del OAS [expresión (13)] fue
relativamente fácil, porque fue posible escribir a función lagrangeana L de este tipo de oscilador [expresión (12)]. En contraste, el caso del Oscilador
Armónico Amortiguado (OAA) como lo es, por ejemplo, un péndulo oscilando en un medio disipativo,
es un problema que se torna más complicado, pues,
hasta el presente momento, no ha sido posible encontrar L. Varias tentativas para encontrar L han
sido realizadas, conforme veremos en los párrafos
siguientes.
Una primera tentativa para salvar esta dificultad
fue presentada, probablemente por primera vez, por
el fı́sico inglés John William Strutt, Lord Rayleigh
(1842-1919; PNF, 1904) en su libro The Theory
of Sound, publicado en 1877-1878, al introducir
en forma ad hoc en las Ecuaciones de EulerLagrange-Poisson [expresión (10)] un término relacionado con una función disipativa F, esto es (en
el caso unidimensional):12
d ∂L
∂L ∂F
−
+
=0
(14)
dt ∂ q̇
∂q
∂ q̇
De este modo, tomando una función disipativa F
del tipo proporcional a la velocidad (caracterı́stica
del OAA), es decir:
F =
1 2
λq̇ ,
2
(λ = constante )
(15)
ContactoS 82, 47–52 (2011)
50
más el lagrangeano del OAS [expresión (12)], la expresión (14) reproduce la ecuación de movimiento
del OAA unidimensional:
λ
(16)
q̈ + γ q̇ + ω02 q = 0,
γ=
m
En vista del resultado anterior, Ray afirmó que
LBCK (HBCK ) no representaba a los sistemas disipativos, pero sı́ a los sistemas fı́sicos de masa variable en el tiempo, como, por ejemplo, un balde de
agua oscilando en un región donde existe una precipitación de agua que hace que la masa M del agua
del balde varı́e siguiendo la expresión:
donde γ es la llamada constante de amortiguamiento.
A pesar de que la ecuación de Euler-LagrangePoisson-Rayleign reproduce la ecuación de movimiento de sistemas disipativos, es apenas una descripción fenomenológica de estos sistemas, ya que no
hay ningún lagrangeano ni ningún principio variacional que hayan sido involucrados. Las primeras tentativas para enfrentar esta dificultad fueron presentadas por H. Bateman, en 1931,13 P. Caldirola, en
1941,14 y Y. Kanai, en 1948,15 al presentar el siguiente lagrangeano
1 2 1
LBCK = eγt
(17)
mq̇ − mω02 q 2 ,
2
2
conocido desde entonces como lagrangeano de
Bateman-Caldirola-Kanai (LBCK ), y la respectiva acción de Bateman-Caldirola-Kanai
(SBCK ):
Z t
LBCK dt′ .
(18)
SBCK =
M = meγt .
Una dificultad de LBCK señalada por Ray en el trabajo arriba referido antes,17 se relaciona con el momento canónico (pBCK ) dado por:
pBCK =
HBCK
∂LBCK
− LBCK
= pq̇ − LBCK =
∂ q̇
1 2 1
(19)
mq̇ + mω02 q 2 ,
= eγt
2
2
es aparentemente dependiente del tiempo, no representa, de un modo general, los sistemas disipativos.
Como resultado, en 1979,16 J. R. Ray usó la solución de la ecuación de movimiento del OAA [expresión (16)], dada por:
− γt
2
q(t) = Ae
r
cos(ωt),
γ2
ω = ω02 − ,
4
A = q(0)
1
mω02 A.
2
(25)
Una tentativa novedosa para enfrentar las dificultades de LBCK lo es el tratamiento del OAA fue presentada por L. Herrera, L. Nuñez, A. Patiño y H. Rago, en 1986,19 los cuales proponen la siguiente acción SHN P R :
SHN P R =
Z
t
dt′ exp(λt′ )L(q, q̇),
(26)
0
donde L(q, q̇) está dado por la expresión (12), y
la correspondiente Ecuación de Euler-LagrangePoisson está dada por:
∂ λt
d
λt ∂L
e
−
(e )L = 0
(27)
dt
∂ q̇
∂q
reproduce la ecuación de movimiento del OAA representada por la expresión (16). Por otro lado, como el lagrangeano de Herrera et al. es el mismo de la
Mecánica Hamiltoniana, el hamiltoniano correspondiente también permanecerá el mismo que el de esa
Mecánica, el cual es:
H = pq̇ − L =
1 2 1
mq̇ + mω02 q 2 ≡ T + V,
2
2
(28)
(20)
(21)
(22)
y demostró que la energı́a total media del OAA es
una constante, la cual es:
E=
∂LBCK
= eγt mq̇,
∂ q̇
que es diferente del momento linear mq̇ y, por
lo tanto, viola el principio de incertidumbre de
Heisenberg.18
0
Muy afortunadamente cuando LBCK es llevado a la
expresión (10) (en el caso unidimensional, esto es:
i = 1) reproduce la expresión (16), y el correspondiente Hamiltoniano HBCK :
(24)
(23)
y su valor medio sobre cualquier perı́odo es una función decreciente del tiempo indicando, de este modo una disipación. Es oportuno observar que, en tanto la acción SHN P R preserva el lagrangeano clásico, SBCK cambia este lagrangeano tradicional.
Además de la obtención del lagrangeano (y su correspondiente acción), otro problema relacionado con los
sistemas disipativos (el caso del OAA) es el que se refiere al de su cuantización. Una de las maneras de
Crónica del Oscilador Armónico. José Marı́a Filardo Bassalo.
cuantizar un sistema fı́sico es obtener su hamiltoniano en función del momento canónicamente conju∂
, en el caso unidimengado p y substituirlo por ih̄ ∂q
sional. De manera que, ya obtenida la ecuación de
Schrödinger20 resultante de este proceso de cuantización, resta resolverla. Una de las maneras de obtener la solución de esta ecuación es a partir del principio de mı́nima acción cuántica formulado por el fı́sico norteamericano Richard Philips Feynman (19181988; PNF, 1965), en 1948:21
La amplitud de transición entre los estados
|ai y |bi de un sistema mecánico cuántico es la suma de las contribuciones elementales de cada una de las trayectorias
que pasa por |ai al tiempo ta y por |bi
al tiempo tb . Cada una de estas trayectorias tiene la misma magnitud, pero su fase es la acción clásica Scl de la trayectoria
seguida.
Z
a
b
i
exp[ Scl (b, a)D(q, t)]
h̄
(29)
donde:
Scl (b, a) =
Z
b
L(q, q̇, t)dt
(30)
a
es la acción clásica, y D(q, t) es la medida de
Feynman. Esta última indica que debemos realizar la integral sobre todas las trayectorias que conectan los puntos (a, ta )y (b, tb ). La integral que define K(b, a) es la llamada integral de trayectoria
(“path integral”), o propagador de Feynman.22
Ya obtenido este propagador, la función de onda
ψ(q, t), solución de la ecuación de Schrödinger,
está dada por:23
Z ∞
K(q, t; q0 , t0 )ψ(q0 , t0 )dq0 .
(31)
ψ(q, t) =
−∞
En 1951,24 el fı́sico norteamericano Julian Seymour
Schwinger (1918-1994; PNF, 1965) formuló otro
Principio de Mı́nima Acción Cuántica, con el
siguiente enunciado:
Si se realizan variaciones en un sistema
mecánico cuántico, el correspondiente cambio de la amplitud de transición entre los
estados |ai y |bi es (i/h̄) veces el elemento de matriz que conecta los estados de la
variación de la acción clásica Scl .
Este principio de Schwinger se traduce en la siguiente expresión:
i
δhb|ai =
h̄
Z
tb
L(q, q̇, t)|aidt,
(32)
ta
donde a y b son un conjunto de números cuánticos escogidos entre los tiempos ta y , tb respectivamente.25
A modo de conclusión de esta Crónica del Oscilador
Armónico, destacamos que el tratamiento cuántico
de este ente fı́sico ha sido abordado en varios artı́culos que se encuentran en el Handbook of Feynman Path Integrals, de C. Grosche y F. Steiner
[Springer Tracts in Modern Physics 145 (1998)].
Notas y referencias
Este principio se traduce en la siguiente expresión:
K(b, a) =
51
1. Euler, L. 1739. Commentarii Academiae Scientiarum Petropolitanae 11, 128.
2. Fermat, P. 1679. Oeuvres.
3. Maupertuis, P. L. M. 1744. Mémoires de
l’Académie des Sciences, Paris. (Vea el excelente texto sobre Maupertuis y su Principio, en: Moreira, I. C. 1999. Revista Brasileira de Ensino de Fı́sica 21, 172.)
4. Euler, L. 1744. Methodus Inveniendi Lineas Curvas Maximi Minimive Proprietate Gaudentes.
5. Lagrange, J. L. 1762. Miscellanea PhilosophicaMathematica Societatis Privatae Taurinensis 22
(1760-1761), 196.
6. En la época de Lagrange, era usado mi vi2 , lo cual
era denominado como fuerza-viva, en lugar de
mi vi2 /2. Se sabe que el concepto de fuerza-viva fue
introducido por el filósofo y matemático alemán
Gottfried Wilhelm Leibniz (1646-1746), en 1686.
En alguna ocasión, él llegó a afirmar que, cuando un cuerpo cae, su “fuerza-viva” se transforma en “fuerza-muerta”, representada por su peso; en su afirmación (la cual es un poco más
larga) al caer y chocar con el suelo, el cuerpo
transmitı́a su movimiento a las partı́culas invisibles del suelo mismo. Por otra parte, fue el fı́sico francés Gustav Gaspard Coriolis (1792-1843),
en 1829, quien observó que para el movimiento de
un cuerpo era importante la mitad de la “fuerzaviva” de Leibniz, dándole entonces el nombre de
energı́a cinética. (KLINE, M. 1972. Mathematical Thought from Ancient to Modern
Times. Oxford University Press.)
7. Bassalo, J. M. F. 1998. Crónicas da Fı́sica, Tomo 5. Edufpa; Kline, op. cit.
8. Yourgrau, W. and Mandelstam, S. 1979. Variational Principles in Dynamics and Quantum Theory. Dover Publications, Inc.
9. Poisson, D. S. 1809. Journal de l’Ecole Polytechnique 8, 266.
ContactoS 82, 47–52 (2011)
52
10. Kline, op. cit.
11. Hamilton, W. R. 1835. Philosophical Transactions of the Royal Society of London Part I, 95.
12. Goldstein, H. 1980. Classical Mechanics, Addison-Wesley Publishing Company.
13. Bateman, H. 1931. Physical Review 38, 815.
14. Caldirola, P. 1941. Nuovo Cimento 18, 393.
15. Kanai, Y. 1948. Progress of Theoretical Physics
3, 440.
16. Ray, J. R. 1979. American Journal of Physics
47, 626.
17. En 1986, D. H. Kobe, G. Reali y S. Sieniutycz
publicaron un trabajo (American Journal Physics 54, 997) en el cual demuestran que la igualdad H = Y (energı́a total) propuesta por Ray
(op. cit.) sólo se aplica a los sistemas conservativos. Para sistemas disipativos, como el OAA,
ellos proponen que:
H = eγt E.
En esta expresión, γ representa la constante de
amortiguamiento arriba referida y, para llegar a
esta expresión, estos fı́sicos partieron del LBCK .
18. Este principio fue formulado por el fı́sico alemán Werner Karl Heisenberg (1901-1976;
PNF, 1932), en 1927 (Zeitschrift für Physik 43, 172) con el siguiente enunciado: - “Es imposible obtener exactamente los valores simultáneos de dos variables, a no ser dentro de un lı́mite mı́nimo de exactitud”. Para el caso de la posición (x) y del momento linear (px ) de una partı́cula desplazándose en la dirección x, este principio se traduce en la
expresión:
∆px ∆x ≥
h̄
,
2
donde ∆px y ∆x miden, respectivamente, los
errores de las medidas del momento linear y de
la posición de la partı́cula referida.
19. Herrera, L., Nuñez, L., Patiño, A. and Rago, H.
1986. American Journal of Physics 54, 273.
20. En 1926, en trabajos publicados en los Annales de Physique Leipzig 79, 361; 489; 734;
747, el fı́sico austrı́aco Erwin Schrödinger (18871961; PNF, 1933) desarrolló su famosa Mecánica Cuántica Ondulatoria, cuyo principal resultado principal es la ahora famosa ecuación de
Schrödinger:
Ĥψ(q, t)
Ĥ
p̂
= ih̄
∂
ψ(q, t),
∂t
p̂2
+ V (q, t),
2m
∂
= −ih̄ .
∂q
=
21. Feynman, R. P. 1948. Reviews of Modern Physics 20, 367.
22. En 1997, los fı́sicos brasileños Antonio Boulhosa Nassar (n.1953), José Maria Filardo Bassalo
(n.1935), Paulo de Tarso Santos Alencar (n.1940),
Luis Sergio Guimarães Cancela (n.1946) y Mauro
Sergio Dorsa Cattani (n.1942) publicaron un trabajo en Physical Review E 56, 1230, en el cual dedujeron un propagador de Feynman con una acción cuántica, usando la Mecánica Cuántica de
de Broglie-Bohm.
23. Feynman, R. P. and Hibbs, A. R. 1965. Quantum Mechanics and path Integrals.
McGraw-Hill Book Company.
24. Schwinger. S. 1951. Physical Review 82, 914.
25. En 1988, Nassar, Bassalo, Henrique Santos Antunes Neto (1952-1989) y Alencar publicaron un
artı́culo en el Journal of Physics A: Mathematical and General 21, L451, en el cual demostraron que los principios de Feynman y de Schwinger dan resultados idénticos cuando, al menos, son aplicados a acciones cuadráticas no
locales.
cs
¿Habrá un paralelo entre la fı́sica y el arte de la pintura?
José Marı́a Filardo Bassalo,*
Fundación Minerva, Prof. retirado de la Universidad de Pará
www.bassalo.com.br
* Texto presentado en el Instituto de Artes do Pará el 18 de
marzo de 2004, con la participación del fotógrafo Luiz Braga
y del profesor de la UFPA, Fábio Castro.
54
En un artı́culo que escribı́ en 1991 [1], preguntaba si
serı́a posible trazar un paralelo entre el mundo de las
ciencias y el de las artes. En ese artı́culo resalté dos
momentos en los cuales, a mi entender, lo hubo. Los
momentos escogidos fueron el final del siglo XIX y
la década de 1920. Antes de tratarlos en detalle, me
gustarı́a esbozar lo ocurrido en la Edad Media y el
Renacimiento, épocas en las que, supongo, también
lo ha habido.1
ContactoS 82, 53–57 (2011)
Wolfgang von Goethe (1749-1832), probablemente
por 1810, año en que escribió su Teorı́a del color.2
El primero trata de la pintura del italiano Giotto
de Bondone [1266/1267 (1276)-1337], quien introdujo la tridimensionalidad en la pintura. Además de
esa innovación, Giotto pintó el cielo de azul, cuando lo tradicional era el color dorado. Ası́, “el cielo perdió su carácter sagrado de casa de Dios. Deja
de ser objeto de adoración y puede ser objeto de estudios empı́ricos” [2, 3]. Uno de los ejemplos de la originalidad y novedad de Giotto son los frescos pintados por él para la Capilla Arena, en Padua, Italia, alrededor de 1305, figura 1.
Figura 2. Il Battesimo dei Neofiti, Masaccio.
Figura 1. Fresco de Giotto, ca. 1305 en Padua, Italia.
Es oportuno subrayar que el artista e inventor italiano Leonardo de Vinci (1452-1519) intentó explicar fı́sicamente el azul cielo cerca del 1500, al observar que el humo de la quema de madera, cuado es vista con un fondo oscuro y es iluminada por
la luz solar, presenta un color azulado. Una observación análoga fue hecha por el poeta alemán Johann
1 Para otros ejemplos de la influencia recı́proca entre la historia del pensamiento y la historia de la civilización véase: Salmeron, R. A. 2004. Matéria, Mitologia, Pensamento e Abstração.
El segundo momento trata de la relación entre la
Óptica Geométria y la Perspectiva. Durante la Edad
Media, el estudio de esa parte de la óptica estaba ı́ntimamente ligada a la de la Perspectiva, pues
ésta, antes de recibir su primera teorización por parte de los pintores y arquitectos del Quattrocento era
designada como “Ciencia de la óptica” [4]. Ası́ se explica que varios libros con tı́tulo de Perspectiva, trataran también la óptica geométrica. Por ejemplo, el
cientı́fico polaco Vitello (ca.1225–ca.1275) en su libro intitulado Perspectiva (libro basado en los trabajos del astrónomo griego Claudio Ptolomeo (85–
165) y del fı́sico persa Al–Hazen (ca.965–1038), escrito por el 1274, además de presentar una primera percepción del espacio, describe también sus experimen2 El azul del cielo reulta de la dispersión de la luz solar por
la atmósfera terrestre. Para mayores detalles véase: Bassalo,
J. M. F. 1992, Crônicas da Fı́sica, Tomo 3, EDUFPA
¿Habrá un paralelo entre la fı́sica. . . ? José Marı́a Filardo Bassalo
55
Figura 3. Pintura con perspectiva, Perugino (ca. 1450–1523).
tos ópticos de dispersión de la luz blanca por un prisma hexagonal y por esferas de vidrio llenas de agua
con los que abordó el problema de los colores del arco iris.
La óptica geométrica a través de la perspectiva también fue objeto de estudio por parte de Blas de
Parma en su libro intitulado Quaestiones Perspectivae, escrito aproximadamente en 1390, y por parte del matemático florentino Paolo Toscanelli (1397–
1482) en su libro Della Prospettiva, de 1420. Nótese
que la geometrización de la pintura, marcada por la
perspectiva, es evidente en los pintores italianos como Masaccio (Tommaso di Giovanni di Simone Guidi) (1401–1428) figura 2, Piero della Francesca (ca1420– 1492), Antonio del Pollaiuolo (1432/1433–
1498), Perugino (Pietro di Cristoforo Vannuci) (ca1450–1523) figura 3 y Raffaello Sanzio (1483–1520),
entre otros.
Veamos ahora los dos momentos del supuesto paralelo entre la fı́sica y la pintura. En el último cuarto del siglo XIX, una serie de fenómenos (radiación del cuerpo negro, efecto fotoeléctrico, rayas espectrales, etc.) se resistı́an a ser explicados con las
teorı́as fı́sicas vigentes, representadas por la Mecánica Newtoniana, el electromagnetismo lorentziano–
maxwelliano y por la mecánica estadı́stica boltzmanniana, esto es, lo que se ha convenido llamar en el
siglo XX como fı́sica clásica, caracterizada por tener la energı́a como variable continua.
Ahora bien, a fines del siglo XIX, el 14 de diciembre de 1900, el fı́sico alemán Max Karl Ernste Ludwig Planck (1858–1947, premio nobel de fı́sica en
1918) formuló su famosa teorı́a cuántica con el postulado fundamental de que la energı́a es una variable discreta; gracias a esta idea los fenómenos pudieron ser explicados posteriormente. La teorı́a cuántica representó un rompimiento con el academicismo
de la fı́sica clásica.
También en ese último cuarto del siglo XX ocurrió también una ruptura del pintura moderna con
el academicismo oficial. En efecto, el desarrollo de la
óptica durante el siglo XVII mostró que la visión depende del estı́mulo de la retina,3 y que la luz blanca resulta de una mezcla de todos los colores.4
3 En 1604, el astrónomo alemán Johannes Kepler (1571- 1630) en su libro Ad Vitellionem paralipomena (Suplemento
a la óptica de Vitello) expuso su teorı́a de que la visión ocurre
por el estı́mulo en la retina provocado por las rayos coloreadas
del mundo visible y después transmitido al cerebro.
4 Una comprobación experimental de esta mezcla fue presentada por el fı́sico y matemático infglés, Sir Isaac Newton (1642–1727), en 1666, con el hoy célebre disco de Newton. Se trata de un disco de papel donde se han pintado todos los colores y que, al girar, aparece blanco.
ContactoS 82, 53–57 (2011)
56
Ası́, los pintores de la escuela impresionista (manifestada de 1874 a 1886) ampliaron estos dos principios con su propia experiencia. Propusieron que el
ojo capta las formas en el espacio debido a la variación en la intensidad de la luz y del color. Para ellos los objetos son, encima de todo, elementos que modifican la absorción y la refracción de la
luz por la atmósfera entre un objeto dado y el pintor que lo está retratando.
Figura 5. Le Moulin de la Galette, Renoir, 1876.
Su caracterı́stica central es la descomposición tonal mediante minúsculas pinceladas nı́tidamente
separadas, figura 6.
Puede decirse que la pintura de esta escuela está completamente hecha a partir de puntos (como ocurre con la televisión) y no con pinceladas continuas.
Figura 4. Pintura impresionista de Claude Monet (1840–
1926).
De esta suerte, el lı́mite entre el objeto y el espacio es
difuso e imperceptible. A partir de esta nueva visión,
los principales pintores del impresionismo francés
Edouard Manet (1832–1883), Claude Monet (1840–
1926) figura 4, Berthe Morisot (1841–1895), Mary
Cassatt (1844–1926), Paul Cézanne (1839–1906),
Hilaire- -Germaine–Edgar Degas (1834–1917), Jean–
Baptiste–Armand Guillaumin (1841–1927), Eugene–
Henri–Paul Gauguin (1848– 1903), Camille Pissarro (1830–1903), Georges Seurat (1859– 1891), Paul
Signac (1863–1935), Alfred Sisley (1839–1899), Pierre Auguste Renoir (1841–1919)figura 5 y Henry de
Toulouse– Lautrec (1864–1901) marcaron una ruptura del arte moderno con el academicismo oficial.
Las caracterı́sticas principales de esa escuela son la
percepción inmediata y no intelectualizada, un caracter fragmentario y fugaz, y un énfasis en el color y la luminosidad, tal como puede apreciarse en
sus cuadros pintados al aire libre. De este modo, los
impresionistas salieron del interior (ambiente cerrado) al exterior (sitios abiertos, avenidas, calles, plazas, etc.).
Es oportuno destacar que, a mediados de la década de 1880, surgió el movimiento pictórico pos–
impresionista conocido como puntillismo, reacción al propio impresionismo y la pintura oficial.
El otro momento en que puede trazarse un paralelo entre la fı́sica y la pintura es la década de 1920
cuando el fı́sico francés, el prı́ncipe Louis–Victor de
Broglie (1892–1987, premio nobel de fı́sica en 1929)
presentó en 1924 su tesis de doctorado en la Sorbona, donde propone el caracter dual de la materia. Consecuencia de esta idea, los fı́sicos, los alemanes Max Born (1882–1970, premio nobel de fı́sica en 1954), Ernst Pascual Jordan (1902–1980) y
Werner Karl Heisenberg (1901– 1976, premio nobel de fı́sica en 1932), el austriaco Erwin Scrhödinger (1887–1961, premio nobel de fı́sica en 1933) y el
inglés Paul Adrien Maurice Dirac (1902–1984, premio nobel de fı́sica en 1933) desarrollaron la mecánica cuántica entre 1925 y 1926 que, de cierta manera, completó la teorı́a cuántica planckiana.
En esa ocasión, el pintor español Pablo Ruiz y Picasso (1881- -1973), a partir de 1925, comenzó su
famosa etapa abstraccionista5 en la cual sus pinturas de cuerpos y cabezas quedan dislocadas, dando la impresión de ser imágenes dobles, figura 7.
5 Según
Caruso y Araújo [3] hubo una etapa anterior en la
pintura de Picasso, el cubismo, a partir de 1907, donde rompe con la rigidez de la geometrı́a euclideana. Es oportuno resaltar que esa etapa ocurre en la misma época en que Einstein ((1879–1955), premio nobel de fı́sica en 1921) comienza a desarrollar la Relatividad General, culminada en 1915
con su famosa teorı́a de la relatividad general que abandona la rigidez euclideana al sustituirla por la geometrı́a riemanniana.
¿Habrá un paralelo entre la fı́sica. . . ? José Marı́a Filardo Bassalo
Figura 6. Parade de Cirque, Georges Seurat, 1889.
Esto, sin embargo, no nos lleva a concluir esta etapa de Picasso presentase un carácter dual análogo al de la mecánica cuántica [5]. Ahora bien, aunque no se pueda trazar un paralelo objetivo entre la fı́sica y la pintura, fue encontrado subjetivamente por el brasileño Mario Schenberg (1914–
1990) quien además de ser un importante fı́sico
teórico en el escenario internacional fue, también,
un respetado crı́tico de arte.
Agradecimientos
Algunas de las ideas presentadas en este ensayo
fueron sugeridas por mi esposa Celia, profesora de
Teorı́a Literaria, y por mi estimado amigo Francisco Caruso Neto, profesor de fı́sica del Instituto de
Fı́sica de la Univesidad del Estado de Rı́o de Janeiro, investigador del Centro Brasileño de Investigación en Fı́sica.
No puedo dejar de agradecer ese momento mágico, ocurrido el primer dı́a del primer mes de 1983,
cuando Internet comenzó su funcionamiento. Gracias a ella (entonces accesible, desafortunadamente, a unos cuantos) pudimos tener acceso a las maravillas del arte pictórica realizadas en cualquier sitio, en cualquier tiempo, de nuestro planeta Tierra.
57
Figura 7. Pintura abstraccionista de Picasso (1881–
1973).
Referencias bibliográficas
1. Bassalo, J. M. F. 1991. O Liberal, 15 de noviembre
1994.
2. Caruso, F., Araújo, R. M. X. 1999. Fı́sica e Arte: Dois momentos de geometrização do mundo.
Imagens da Transformação 6, p. 38.
3. Caruso, F., 2001. O Espaço na Fı́sica e na Arte. En: Martins, A. M. M. y Carvalho, M.
de (Orgs.) Novas Visões: Fundamentando o Espaço Arquitetônico e Urbano, Booklink/PROARQ/FAU/UFRJ.
4. Thuillier, P. 1984. Espace et Perspective au Quattrocento. La Recherche 169, p. 1384.
5. Segré, E. 1980. From X–Rays to Quarks. W. H.
Freeman and Company.
cs
Newton y las leyes de Kepler
*
José Marı́a Filardo Bassalo,
Fundación Minerva, Prof. retirado de la Universidad de Pará
www.bassalo.com.br
* Traducción:
Julio Solı́s, Depto. de Matemáticas, UAM–I.
Newton y las leyes de Kepler. José M. Filardo Bassalo
Introducción
Para mı́, y probablemente para algunos lectores, debido a una interpretación equivocada sobre las lecturas hechas en algunos textos didácticos y de divulgación cientı́fica, parecı́a un hecho histórico incuestionable que el fı́sico y matemático inglés Sir
Isaac Newton (1642–1717) habı́a demostrado las Leyes de Kepler usando un nuevo método matemático, el método de las fluxiones (hoy conocido como
el Cálculo Diferencial), que él mismo habı́a creado (vea, por ejemplo, [3] p. 85). No obstante, esto no
es cierto, conforme mostraremos en este artı́culo. Pero, primero haremos una revisión histórica de dichas
Leyes.
Antecedentes históricos
Entre los años 151 y 157 de nuestra era, el astrónomo griego Claudio Ptolomeo (85–165) retomó y sistematizó los modelos planetarios geocéntricos, tales como el de las esferas concéntricas, formulado por los
astrónomos griegos Eudoxo de Cnido (c. 408–c. 355)
y Calipo de Cı́sico (c. 370–c. 300), y el modelo de
epiciclo–deferente–excéntrica–ecuante que habı́a sido desarrollado por los griegos, el matemático Apolonio de Perga (c. 261–c. 190) y el astrónomo Hiparco de Nicea (c. 190–c. 120). Esa sistematización fue
presentada por Ptolomeo en su célebre Hé Mathématiké Syntaxis (Una Compilación Matemática), para poder explicar el movimiento de los planetas y
sus irregularidades. Esa obra, compuesta de 13 libros, fue traducida a la vuelta del siglo IX por los
árabes, recibiendo entonces el nombre de Almagesto, que es una corruptela del nombre hispano–árabe Al–Magesti (El Gran Tratado).
59
las órbitas de los planetas, y en particular la del planeta Marte.
Dentro de los seguidores de Copérnico, se encontraba
el astrónomo alemán Johannes Kepler (1571–1630)
quien, al aprender sobre el heliocentrismo copernicano de su maestro, el astrónomo Michael Maestlin,
proporcionó una demostración matemática para el
mismo. Esa prueba la obtuvo en virtud de que era un
buen conocedor de toda la obra del gran matemático griego Euclides de Alejandrı́a (323–285), que se
halla reunida en su famoso libro de geometrı́a intitulado Elementos.
Con base en el modelo copernicano, con el Sol en el
centro, Kepler colocó entre los espacios de las esferas que contenı́an a los seis planetas entonces conocidos (Mercurio, Venus, Tierra, Marte, Júpiter y Saturno), los cinco “sólidos perfectos” de la antigüedad
(sólidos que tienen todas sus caras iguales: tetraedro, hexaedro, octaedro, dodecaedro e icosaedro), cada uno encajado dentro del siguiente. Ası́, disponiendo de dichos sólidos en el orden correcto, los diámetros de las esferas acabarı́an por presentar casi las
mismas proporciones que las órbitas de los planetas. Ese primer modelo planetario de Kepler fue publicado en el libro intitulado Mysterium Cosmographicum (Misterio Cosmográfico), editado en 1596.
El modelo de Ptolomeo se mantuvo aceptado durante muchos años, hasta que fue cuestionado y rechazado por el astrónomo polaco Nicolás Copérnico (1473–1543) en el famoso libro De Revolutionibus
Orbium Coelestium (Las Revoluciones de los Cuerpos Celestes), publicado en 1543, en el que consolidó el modelo eliocéntrico para nuestro sistema planetario, aunque debemos comentar que su primera
formulación fuera presentada por el astrónomo griego Aristarco de Samos (c. 320–c. 250).
El heliocentrismo de Copérnico tuvo seguidores y detractores, y entre estos últimos destacó el astrónomo
danés Tycho Brahe (1546–1601). Partiendo de la observación de que los planetas giraban en torno al Sol
y, además, al no observar los paralajes estelares, Tycho Brahe formuló su propio modelo. En este modelo, los planetas giraban en torno al Sol, y éste, en
conjunto con la Luna y todo el manto de las estrellas fijas, giraban en torno a la Tierra inmóvil. A pesar de esta concepción errónea del sistema solar, Tycho Brahe hizo grandes contribuciones a la astronomı́a, principalmente con sus observaciones sobre
Al recibir ese libro de manos de Kepler, Tycho Brahe
quedó impresionado con el contenido matemático del
60
ContactoS 82, 58-62 (2011)
mismo, aún cuando no estuviera de acuerdo con el
modelo heliocéntrico ahı́ presentado. Ası́ mismo, invitó a Kepler a trabajar con él en Praga, donde entonces residı́a. Al llegar a esa ciudad, en enero de
1600, Kepler recibió de Tycho la tarea de calcular la órbita de Marte. Al analizar las observaciones
que Tycho hiciera de ese planeta, pensó que en poco tiempo halları́a la forma de la órbita marciana.
No obstante, le tomarı́an varios años de arduo trabajo para encontrarla, como veremos a continuación.
do al Sol como uno de sus focos.
Al descubrir las leyes que rigen los movimientos de
los planetas, Kepler se dispuso a determinar la relación entre las distancias y los periodos de tales
movimientos. Después de algunas tentativas que relacionaban potencias de las distancias y los periodos, Kepler llegó finalmente a su tercera ley, presentada en el libro Harmonices Mundi (Armonı́a del
Mundo), publicado en 1619, y que enunciamos a
continuación:
En sustitución de Tycho Brahe, que murió repentinamente el 24 de octubre de 1601, Kepler consiguió en 1602 ser designado matemático imperial
de Rodolfo II (1552–1612), Rey de Hungrı́a y Bohemia, y Emperador del Sacro Imperio Romano, con
sede en Praga. En vista de eso, y con algunas dificultades, Kepler consiguió “arrancar”de los herederos de Tycho los preciosos datos que éste habı́a recopilado del sistema planetario, primero en el observatorio de Uraniborg, en la isla de Hveen (hoy Ven)
en Dinamarca, y después en Praga. Un primer análisis de las observaciones de Tycho llevaron a Kepler,
en 1602, a enunciar su hoy conocida:
Ley de los Periodos: La relación entre el cuadrado del periodo de revolución de un planeta y el cubo de su distancia media al Sol es
una constante.
El último trabajo de Kepler fue el libro Tabuloe Rudolphine (Tablas Rudolfinas), publicado en 1627, en
homenaje de su antiguo protector, el Emperador Rodolfo II, y dedicado a la memoria de Tycho Brahe.
Ese libro, que contenı́a las observaciones de Tycho
Brahe y del mismo Kepler sobre los movimientos
planetarios, fue durante un siglo un clásico y, para su confección, Kepler usó un nuevo método de
cálculo matemático –los logaritmos– que habı́an sido inventados por el matemático escocés John Napier (1550–1617), en 1614.
Ley de las áreas: El rayo vector que liga un
planeta al Sol describe áreas iguales en tiempos iguales.
Por otra parte, las observaciones de la órbita de Marte realizadas por Tycho indicaban que en cuanto
más lejos ese planeta se encontraba del Sol, más lento era su movimiento y, por tanto, menor era su velocidad, además de indicar una pequeña excentricidad
en su órbita. En virtud de esto, Kepler intentó, inicialmente, una serie de combinaciones de cı́rculos para la órbita de ese planeta. Pero, como encontró una
diferencia de 8 minutos de arco y bajo el supuesto de
que su maestro no hubiera cometido tal error, Kepler pasó a considerar órbitas ovaladas, después de
experimentar, sin éxito, que cada esfera caracterı́stica de un planeta era en realidad un cascarón esférico
de espesura suficiente como para explicar la excentricidad orbital. Después de realizar setenta ensayos para ajustar los datos de Tycho al modelo de Copérnico y del mismo Tycho, Kepler llegó finalmente a concebir la órbita elı́ptica. (Cabe mencionar que la idea
de una órbita elı́ptica no era completamente nueva, dado que ya habı́a sido sugerida por el astrónomo árabe–español Azarquiel (Al–Zarqali) de Toledo (c. 1029–1100), en 1081, para explicar los movimientos de Mercurio.) Ası́, en el libro intitulado Astronomia Nova (Una Nueva Astronomı́a), publicado en 1609, además de enunciar su Ley de las áreas,
obtenida en 1602, conforme ya vimos, Kepler enunció también la:
Ley de las órbitas: Los planetas se mueven
en torno del Sol en órbitas elı́pticas, tenien-
Las contribuciones de Newton
A partir de ahora, trataremos las contribuciones
de Newton. Nacido el 25 de diciembre de 1642 en
Woolsthorpe, perteneciente a la aldea de Colsterworth, cerca de 11 km al sur de Grantham, Licolnshire, en Inglaterra. Hijo de una pequeña familia de hacendarios y huérfano de padre a los dos meses de edad, Newton estaba destinado a seguir la vocación agrı́cola. Empero, en la Escola Real de Grantham fue un infante extraño, pues su mayor interés
se centraba en los intrumentos mecánicos que él mismo fabricaba. El director de esa escuela, quien era
además su tı́o materno, el Reverendo William Ayscough, y miembro del Trinity College, en Cambridge, convenció a la madre de Newton que éste debı́a
estudiar en aquella universidad. Llegó a dicha universidad el 5 de junio de 1661, donde obtuvo el grado de Bachiller en Letras, sin distinción, en 1665.
No obstante, cuando se preparaba para defender su
maestrı́a, tuvo que abandonar Cambridge por dos
años (1665–1666), y regresar a Woolsthorpe, debido a la peste bubónica que azotaba entonces en Londres. Durante ese periodo, Newton elaboró los fundamentos de su obra en Matemáticas, óptica y Astronomı́a. (Vea, para la vida de Newton [4].)
Según su misma afirmación ([4] p. 39), Newton inventó los métodos directo e indirecto de fluxiones, entre noviembre de 1665 y mayo de 1666.
Esa nueva técnica matemática era el modo de afrontar con grandes variaciones, como las que ocurren
Newton y las leyes de Kepler. José M. Filardo Bassalo
en el caso de las velocidades variables de los planetas, conforme indica la Ley de las áreas, enunciada por Kepler. Newton no empleó dicha técnica matemática para llegar a su Ley de Gravitación Universal, sino básicamente usó la Ley de los Periodos de Kepler, como él mismo expresa : “[. . . ] en
el mismo año (1666), comencé a pensar en la gravedad como la que mantiene atada la órbita de la
Luna (después de descubrir cómo calcular la fuerza con que un globo que gira dentro de una esfera presiona la superficie de la misma) a partir de
la regla de Kepler de que los periodos de los planetas están en una proporción sesquiáltera con sus distancias al centro de sus órbitas, deduje que las fuerzas que mantienen los planetas en sus órbitas debı́an
variar, en forma recı́proca, con el cuadrado de su distancia al centro en torno al cual giran: y a partir de eso, comparé la fuerza necesaria para mantener la Luna en su órbita con la fuerza de gravedad en la superficie terrestre, y descubrı́ que embonan perfectamente”([4] p. 39).
Esos primeros cálculos realizados por Newton le permitieron pensar en la hipótesis de una ley universal que rigiera el movimiento de los planetas en
torno del Sol. Empero, todavı́a quedaba mucho trabajo por hacer para que esa hipótesis se transformase en una realidad. En efecto, a comienzos de
la década de 1680, un grupo de fı́sicos estaba interesado en el desarrollo de las novedosas ciencias
matemático–experimentales; y se reunı́an para relatar sus propios hallazgos y proponer nuevos problemas. Ası́, para tres de los fı́sicos de ese grupo, los ingleses Robert Hooke (1635–1703), Sir Christopher
Wren (1632–1723) y Edmundo Halley (1656–1742),
entre los problemas que discutı́an, uno les resultaba particularmente intrigante: “¿Qué tipo de fuerza lleva a un planeta a describir una órbita elı́ptica en torno al Sol?”.
A pesar de que Kepler habı́a sugerido que una fuerza de tipo magnética (anima motrix) e inversamente lineal, que emanada del Sol, era la responsable del
movimiento planetario, ésta no era aceptada por los
tres fı́sicos ingleses referidos anteriormente. Ası́, en
una reunión de la Royal Society of London, en enero
de 1684, Halley llegó a la conclusión de que la fuerza que actúa sobre los planetas varı́a en una razón inversa al cuadrado de su distancia, pero no fue capaz
de deducir de esa hipótesis las Leyes de Kepler, principalmente la Ley de las órbitas. En febrero de 1684,
Halley, Sir Wren y Hooke se reunieron y concordaron en tal hipótesis. Hooke llegó a decir en esa ocasión que ya habı́a considerado el que se demostrara con la misma todas las leyes del movimiento celeste. En virtud de esto, Sir Wren ofreció un premio para que Hooke, Halley o cualquier otro fı́si-
61
co escribiera un libro sobre ese tema.
Como tal libro no fue escrito, en agosto de 1684 Halley resolvió ir a Cambridge y consultar a Newton.
Al preguntarle sobre cuál serı́a la curva descrita por
los planetas sobre los que actúa una fuerza de tipo inverso al cuadrado de la distancia, recibió de
Newton la respuesta de que “era una elipse”. Pero, aunque Newton ya habı́a concebido tal respuesta, no contaba con una demostración en ese momento, por lo que prometió a Halley enviársela posteriormente.
Estimulado por la visita de Halley, Newton retomó los cálculos que hiciera de las órbitas de los planetas hacı́a 20 años. Ası́, en otoño de 1684, Newton presentó una serie de conferencias en la Universidad de Cambridge, en las que fueron abordadas sus ideas sobre el movimiento de los cuerpos en
general, sobre los conceptos de fuerza, masa, tiempo, además de su famosa ley de la gravitación universal. En noviembre de 1685, Newton envió a Halley un pequeño trabajo intitulado De Motu Corporum in Gyrum (Del Movimiento de los Cuerpos en
una órbita), en el que reunı́a aquellas conferencias,
cumpliendo ası́ la promesa que le hiciera en agosto del año anterior. En ese pequeño trabajo de nueve páginas, Newton habı́a demostrado que una fuerza inversamente proporcional al cuadrado implicaba una órbita cónica, misma que era una elipse para velocidades por debajo de cierto lı́mite ([4] p. 159).
Incentivado por Halley, Newton comenzó a enriquecer el De Motu y, a la vuelta de noviembre de 1685,
lo transformó en un tratado de dos volúmenes al
que dió el nombre de De Motu Corporum (Del Movimiento de los Cuerpos). En éste, se halla la demostración de un resultado muy importante para su
teorı́a de la gravitación universal, a saber, que la acción de una esfera homogénea sobre una partı́cula
exterior es la misma que se tendrı́a si toda la masa de la esfera estuviese situada en su centro. Ası́, para Newton, todas las partı́culas sobre la vasta Tierra se combinarı́an para atraer tanto una manzana1 situada a unos cuantos pies de su superficie, como a la misma Luna.
Ese tratado se transformó en el famoso Philosophiae Naturalis Principia Mathematica (Principios
Matemáticos de Filosofı́a Natural), editado en 1687,
1 Según
la versión de John Conduitt, esposo de Catherine, sobrina de Newton, éste llegó a la idea de la gravitación
universal cuando observó, en 1666, en el manzanal de su casa de Lincolnshire, la caı́da de una manzana. De esa observación, se le ocurrió la idea de que el poder de la gravedad terrestre (que derrumba una manzana) no estaba limitado a
una cierta distancia de la Tierra, sino que deberı́a de extenderse más allá de lo que se acostumbraba aceptar y, quien sabe, tal vez hasta la Luna ([4] p. 50).
ContactoS 82, 58-62 (2011)
62
después de que Newton extendió el principio de gravitación universal, inicialmente aplicado al movimiento de la Luna, a todos los cuerpos celestes. El
Principia está compuesto de tres libros. En el primer libro, Newton trata del movimiento de los cuerpos en el vacı́o, incluyendo el de los movimientos
en órbitas elı́pticas, parabólicas e hiperbólicas, debido a fuerzas centrales, ocasión que aprovecha para probar las Leyes de Kepler. Además, al inicio del
Libro I, se dan las formulaciones de las famosas Leyes de Newton: Ley de Inercia, Ley de la Fuerza y
Ley de Acción y Reacción. En el Libro II, encontramos el estudio de los cuerpos en medios resistentes
y la teorı́a de las ondas. Además, en ese libro, Newton demostró que, si los movimientos periódicos de
los planetas se desarrollaran en torbellinos (vórtices) de materia fluida, siguiendo la hipótesis presentada por el matemático y filósofo francés René du Perron Descartes (1596–1650), en 1644, esos movimientos no satisfarı́an las Leyes de Kepler.
Por último, en el Libro III, Newton usó algunos resultados obtenidos en los libros anteriores, principalmente la Ley de Gravitación Universal, para demostrar una “estructura del sistema del mundo”. Ası́,
dentro de las proposiciones demostradas en el Libro III, destacan: la explicación del movimiento kepleriano de los satélites de la Tierra, de Júpiter y de
Saturno; el cálculo de la forma de la Tierra (achatada en los polos y alargada en el ecuador); una explicación del fenómeno de las mareas (atracción gravitacional del Sol y de la Luna sobre las aguas de
los océanos); y la precesión de los equinoccios (observada por primera vez por el astrónomo babilonio Kiddinu (f.c. 397 a.n.e.)) como debido a la diferencia entre la fuerza de gravitación solar y lunar actuando en el plano ecuatorial alargado de la
Tierra [2].
Comentarios Finales
A manera de conclusión de este artı́culo, haremos algunos comentarios sobre las demostraciones
geométricas hechas por Newton de las Leyes de Kepler. Para la demostración de la Ley de las áreas,
Newton consideró que el movimiento de un planeta
en torno del Sol es el resultado de una competencia
entre la tendencia del mismo a seguir una lı́nea recta con movimiento uniforme, como si ninguna fuerza actuase sobre él (Ley de Inercia), y el movimiento debido a la fuerza central de gravitación ejercida por el Sol. De ese modo, mediante algunos teoremas de geometrı́a plana, principalmente los relacionados con semejanzas y áreas de triángulos, llegó a
aquella demostración.
Por otra parte, Newton obtuvo la demostración de la
Ley de las órbitas en varias etapas, con el uso de al-
gunas propiedades de las secciones cónicas2 . Inicialmente, demostró que, cuando un cuerpo se mueve
en una órbita elı́ptica bajo la acción de una fuerza centrı́peta dirigida a uno de los focos de esa cónica, dicha fuerza varı́a como el inverso del cuadrado de la distancia. Enseguida, probó que, si el mismo cuerpo se mueve en una hipérbola o una parábola bajo la acción de una fuerza centrı́peta dirigida a uno de los focos de la cónica considerada, dicha fuerza también varı́a como el inverso del cuadrado de la distancia. Por último, probó el problema inverso, a saber, si un cuerpo se mueve sujeto a una fuerza centrı́peta que varı́a como el inverso del cuadrado de la distancia, la trayectoria del
cuerpo tiene que ser una cónica: elipse, parábola o
hipérbola.
Finalmente, como una aportación de este artı́culo,
resulta importante remarcar que la hipótesis de que
una fuerza centrı́peta variaba como el inverso del
cuadrado de la distancia, usada por Newton en la
demostración de la Ley de las órbitas, conforme vimos antes, le fue sugerida al observar que la Ley de
los Periodos de Kepler se ajustaba muy bien en el caso particular de una órbita circular.
Bibliografı́a
1. David L. Goodstein y Judith R. Goodstein. A
Licão Esquecida de Feynman: O Movimento dos
Planetas em Torno do Sol. Gradiva, (1997).
2. I. Newton. Principios Matemáticos de Filosofı́a
Natural. Técnos, (1987).
3. Colin A. Ronan. História Ilustrada da Ciência
(III), Jorge Zahar Editor, (1987).
4. Richard Westfall. A Vida de Isaac Newton. Editora Nova Fronteira, (1995).
cs
2 Debido a que no pudo entender bien esas demostraciones, el fı́sico norteamericano Richard Philips Feynman (1918–
1988) preparó en 1964 una demostración geométrica de la Ley
de las órbitas de Kepler. Esa prueba está magnı́ficamente “explicada” en el libro intitulado Una Lección Esbozada de Feynman: El Movimiento de los Planetas en Torno del Sol, de D.
Goodstein y J. Goodstein [1]. (Aprovecho la oportunidad para agradecer al Profesor José Acácio de Barros, del Departamento de Fı́sica de la Universidad Federal de Juiz de Fora, por llamar mi atención para ese libro y sugerirme la lectura de ese artı́culo. Agradezco también al Profesor Vı́tor Facanha Serra, del Departamento de Fı́sica de la Universidad Federal de Pará, por haberme ofrecido un ejemplar de dicho libro).
El papel de las intuiciones en
el descubrimiento y la invención en fı́sica*
José Marı́a Filardo Bassalo,
Fundación Minerva, Prof. retirado de la Universidad de Pará
www.bassalo.com.br
* Traducción por J. L. Córdova, Depto. de Quı́mica, UAM–
Iztapalapa. joseluiscordovafrunz@gmail.com
ContactoS 82, 63-72 (2011)
64
Resumen
Cuando jóvenes, sea por libros de texto o de divulgación, llegamos a conocer las admirables historias de
algunos descubrimientos e inventos cientı́ficos, por
ejemplo, la de Arquı́mides que corriendo por las calles de Siracusa gritaba “Eureka, eureka” (¡Lo encontré, lo encontré!) al descubrir que se volvı́a menos pesado al entrar en la tina llena de agua; hecho del cual formuló el Principio de flotabilidad.
Otro caso es el de Newton, quien al ver caer una
manzana en la finca de Woolsthorpe inició su reflexión que culminó en la Teorı́a de la Gravitación.
O bien de Kekulé, que al soñar con una uroboro
(la cobra que muerde su propia cola), intuyó la estructura hexagonal del benceno. O los descubrimientos accidentales de Roentgen y Becquerel de los rayos X y a la radioactividad, respectivamente. Todas esas anécdotas (y otras más que analizaremos en
este artı́culo), aunque extravagantes, están vinculadas a algo más profundo que los filósofos y psicólogos llaman intuición. En este artı́culo mostraremos
mediante diversos ejemplos el papel creador de la
intuición en los descubrimientos e invenciones en
fı́sica.
La intuición es una de las etapas del proceso creativo y, en consecuencia, es común a la ciencia y al arte
(incluyendo al humor). Bronowski afirma que, siendo la naturaleza llena de una variedad infinita, el
hombre creativo, debe proponer semejanzas, estructuras comunes a toda esa variedad a fin de encontrar “la unidad en la diversidad”. De hecho, su definición de “belleza” “unidad expresada en la variedad” es la misma propuesta por Samuel Taylor Coleridge (1772–1834). Por otro lado, el filósofo norteamericano George Frederick Kneller (1908–) en su libro “Arte y ciencia de la creatividad”, después de estudiar un gran número de textos acerca de la creatividad, concluye que cada persona “constituye un
patrón singular de potencialidades” y que, por consiguiente, cada persona debe ser educada para el desarrollo de sus propias potencialidades. Para ello, prosigue Kneller, el alumno debe combinar el conocimiento adquirido con el que ha obtenido en otras
áreas de experiencia”. Ası́, una persona, al estudiar
determinado asunto, en vez de apenas juntar las nuevas ideas con las ya estudiadas de una misma disciplina, debe inventar nuevos patrones de ideas o activar ideas inertes, como propone el matemático y
filósofo Alfred North Whitehead (1861–1947). Para ser creativo, afirma Kneller, deben vincularse las
ideas mediante la intuición.
La creatividad
El cientı́fico y filósofo polaco Jacob Bronowski (19081974) en su libro El sentido del futuro, afirma que
“un hecho es descubierto” y que “una teorı́a o un instrumento son inventados”; para que haya “creación”
en un descubrimiento o invención, es necesario que
haya una profunda participación personal del descubridor o inventor. Para ilustrar esta opinión, Bronowski acude a diferentes ejemplos. Para él, el descubrimiento de las Indias Occidentales en 1492 por
Colón (1451–1506) y la invención del teléfono en
1876 por Alexander Graham Bell (1847–1922) no
son actos creativos pues las Indias ya existı́an antes de Colón y los hechos básicos para la invención
del teléfono, también. En el caso del teléfono, Bronowski sostiene1 que si el teléfono no hubiese sido inventado por Bell lo habrı́a sido por otro; en cambio
el “Otelo” de William Shakespeare (1564–1616) y el
“quantum de energı́a” (1900) de Max Planck (1858–
1947) son genuinas creaciones por ser profundamente personales. Ahora bien, la proporcionalidad entre
la energı́a E y la frecuencia ν ya habı́a sido propuesta por William Rowan Hamilton (1805–1865) entre
1828 y 1837 pero no existı́a ninguna evidencia experimental de la discontinuidad de la energı́a de forma que podemos suponer, por éstos y otros datos
históricos que se habrı́a desarrollado la teorı́a cuántica sin Planck.
La creatividad fue estudiada también por el filósofo y novelista Alfred Koestler (1905–1983) en su libro “El acto creativo”. Para él, los procesos creativos revelados en el humor, el arte y la ciencia, participan de un mismo patrón: la bisociación, esto es,
la conexión simultánea de niveles de experiencia que
surgen de esquemas de pensamiento o de comportamiento: las matrices. Para Koestler el acto creativo en ciencias ocurre de la fusión de dos matrices de
pensamiento2 hasta entonces no relacionadas, resultando una nueva sı́ntesis que lleva a otras. Para demostrar su tesis, Koestler describe varios casos de
bisociación cientı́fica. Por ser sumamente didáctica,
usaremos la invención de la imprenta de tipos móviles (ca. 1438) por Johannes Gensfleich Zur Lade, más
conocido como Gutenberg (1397–1468). Como sabemos por sus cartas, pretendı́a un método de producción de libros más rápido que el labrado en bloques de madera de cada letra a fin de hacer la matriz de madera para cada página. Al principio consideró la idea de fundir letras, como las usadas en
los sellos de cambio, lo que permitirı́a su uso repetido; sin embargo, se percató de que una letra fundida de tal manera no producirı́a una impresión satisfactoria en el papel. Con todo, cierto dı́a que observaba el funcionamiento de una prensa de vino tuvo la
1 Basado
en los trabajos de Isaac Asimov y Peter Wymer.
2 Henri Poincaré explica en términos análogos su descubrimiento de las funciones fuchsianas en su libro “Ciencia y método”.
El papel de las intuiciones en el descubrimiento. . . José M. Filardo Bassalo
65
intuición crucial. Dos órdenes de pensamiento —uno
asociado a la prensa de vino, el otro al sello— convergieron en una letra fundida como un sello y prensada contra un papel lográndose mayor nitidez. Esta cita se encuentra ampliamente documentada en el libro de G. F. Kneller Arte e Ciência da Criatividade, Instituiçao Brasileira de Difusão Cultural, S. A.
IBRASA, 1978.
Surge una pregunta acerca de la conceptualización
mencionada ¿existirá un patrón en el acto de creatividad? En otras palabras ¿existen procesos similares caracterı́sticos de la creatividad?
Entre los estudiosos del tema se acepta ampliamente
que el proceso creativo está constituido básicamente
por cuatro etapas:3
1. Preparación.
2. Incubación.
3. Iluminación.
4. Verificación.
Para Kneller, estas etapas deben ser precedidas por
otra llamada primera aprehensión si bien Abraham
Antoine Moles, en su libro “La creación cientı́fica” (1971) propone una etapa anterior: la formulación. Ası́, una persona al tener una idea (primera aprehensión) sobre determinado asunto debe, en
primer lugar, familiarizarse con otras ideas relacionadas aunque no sean cercanas a aquélla. En otras
palabras, la etapa de “preparación” puede llamarse
“documentación”.
Después de haber trabajado conscientemente hay un
periodo de actividad inconsciente o subliminal (como afirma Poincaré en el libro referido) llamado “incubación”. Por otro lado, la etapa, más bien momento, de “iluminación” constituye el clı́max del proceso creativo; es el instante en que se percibe que se
ha encontrado la solución del problema; es el instante de la intuición y la inspiración. Puesto que
ésta es falible el proceso creativo debe ser completado, tal como propone Karl Raimund Popper4 “la
intuición, sin lugar a dudas, es tan importante para el cientı́fico como para el poeta; sin embargo, lo
mismo puede llevarlos al éxito que al fracaso”. Un
ejemplo al respecto es la falsa predicción del planeta Vulcano, localizado según Urbain Jean Joseph Le
Verrier (1811–1877) entre Mercurio y el Sol. Tanto Le Verrier como el astrónomo inglés John Couch
3 Es interesante anotar que también fueron propuestas por
Graham Wallas en 1921 a partir de los escritos de Hermann
Ludwig von Helmholtz (1821–1894).
4 La sociedad abierta y sus enemigos (1945).
Adams (1819–1892) habı́an demostrado teóricamente que las perturbaciones de la órbita del planeta
Urano se debı́an a otro planeta. Tal hipótesis fue confirmada en 1846 con el descubrimiento de Neptuno
por Johann Gottfried Galle (1812–1910). Por lo anterior, Le Verrier intuyó que la precesión del perihelio de Mercurio se debı́a a un cinturón de asteroides
interno, parte del cual era Vulcano (1855). Las anomalı́as mencionadas fueron explicadas por la Teorı́a
de la Relatividad General de Einstein en 1915.
Pero regresemos a las cuatro etapas del proceso creativo. La “iluminación” es condición necesaria, pero no es suficiente. Para completar el proceso creativo se requiere la “verificación”, en la cual las ideas intuidas son elaboradas conscientemente o modificadas
y, finalmente, formalizadas. Como norma, esta etapa es la más larga y difı́cil; puede durar varios años
de intentos de verificación, incluso con nuevas intuiciones, hasta dar forma final a la obra. La necesidad de verificar las intuiciones es narrada por John
Karl Friedrich Gauss (1777–1855): “Logré el resultado, pero no sé como demostrarlo”.
La lentitud y dificultades de esta etapa se ejemplifican con la conocida frase del inventor Thomas Alva Edison (1847–1931): “Invención: 1 % de inspiración y 99 % de transpiración”. En esta fase de verificación, además de una intensa actividad lógico–
racional, el creador debe ejercitar su espı́ritu crı́ti-
66
ContactoS 82, 63-72 (2011)
co; lo cual obliga a reformular el concepto inicial o. . .
a abandonar la obra.
En “Los sonámbulos” (1961), Koestler describe los
intentos de Johannes Kepler (1571–1630) por obtener las leyes que describen los movimientos planetarios alrededor del Sol; las formulaciones finales casi nada conservan de las ideas iniciales. Por otro lado, Kneller ejemplifica con poemas de Coleridge que
retienen sólo algunas frases de la inspiración inicial.
De lo expuesto podemos decir que la creatividad tiene caracterı́sticas dionisı́acas (intuitivas) y apolı́neas
(lógico–racionales).
Después de esta disgresión sobre la creatividad regresemos al tema principal de este artı́culo: la intuición. Platón (ca. 428–ca. 348) la consideraba fuente de conocimiento y distinguı́a la “intuición espiritual” de la “intuición sensible”; para él las ideas
son percibidas inmediata y espiritualmente por la
razón. Se trata, de una intuición estrictamente racional. La distinción entre ambas es clara; por la
intuición sensible percibimos las formas y apariencias de los cuerpos; es sólo por la intuición espiritual que distinguimos un objeto azul de uno verde o uno esférico de otro cilı́ndrico. Por ser el conocimiento una relación entre sujeto y objeto, conforme enseña Johannes Hessen (Teorı́a del conocimiento, 1973), se ve que la intuición sensible es inherente a todo sujeto y establece una relación directa entre él y el objeto, sin intervención del intelecto. Por otro lado, la intuición espiritual exige un pensamiento por parte del sujeto para relacionarse con el
objeto.
1. Pensamiento, ligado a la razón.
2. Sentimiento, ligado a la emoción.
3. Voluntad, ligado a la volición.
La intuición emotiva como forma de conocimiento
fue reconocida por varios filósofos y sintetizada por
el matemático francés Blas Pascal (1623–1662) en
su célebre aforismo: “El corazón tiene razones que la
razón desconoce”.
Por otro lado, todo objeto presenta tres aspectos:
esencia, valor y existencia, vinculados respectivamente a las dimensiones apuntadas. Una cuestión
que surge naturalmente es ¿existe una intuición volitiva? Uno de los primeros filósofos en plantearla fue
el alemán Johann Gottlieb Fichte (1762–1814) al observar que la existencia del Universo y la misma existencia del sujeto dependen de una afirmación voluntaria del propio sujeto, lo que significa que el sujeto al afirmarse a sı́ mismo, o al afirmar la existencia de un objeto, lo hace por un acto de la voluntad y no por el pensamiento. Uno de los puntos cimeros de esta intuición volitiva la encontramos en Wilhelm Dilthey (1833–1911) quien afirma que la existencia de las cosas no puede ser demostrada por la
razón, ni puede ser descubierta por el pensamiento; debe ser intuida por nuestra voluntad pues antes de ser entes de pensamiento, deseamos, queremos y tenemos apetitos.5 Lo expuesto acerca de la
intuición puede resumirse ası́: por medio de la intuición racional o intelectual el sujeto percibe la presencia del objeto; por medio de la intuición emotiva el sujeto percibe el valor del objeto; por medio de la intuición volitiva percibe la existencia del
objeto.
Hasta aquı́ hemos sostenido que la intuición proporción conocimiento, sea por la razón o por la emoción;
con todo, la estructura psı́quica del sujeto está constituida por tres dimensiones cognitivas:
En el rápido bosquejo que hicimos del proceso creativo vimos que la intuición es una etapa del mismo. Vimos, también, que la intuición nos proporciona conocimiento de diferentes dimensiones, racio-
La intuición platónica de las ideas fue retomada por
el filósofo egipcio Plotino (205–270) quien la sustituyó por la intuición del nous cosmico, la cual no
es una contemplación puramente racional sino que
está fuertemente impregnada de elementos emocionales. Esta intuición tiene gran impulso con San
Agustı́n (354–430) quien sustituye al nous cosmico por el dios del cristianismo. A pesar de que San
Agustı́n afirma que las verdades y conceptos superiores provienen de la iluminación divina admite el conocimiento empı́rico.
5 La idea está desarrollada en “Fundamentos de filosofı́a”,
Manuel Garcı́a Morente, 1970.
El papel de las intuiciones en el descubrimiento. . . José M. Filardo Bassalo
67
construir lógicamente el proceso creativo”. De modo análogo, Einstein (1879–1955) afirmaba: “Ningún
camino lógico lleva de las leyes elementales a las generales; pienso que hay una intuición que se desarrolla paralelamente a la experiencia”.
También Pyotr Leonidovich Kapitza (1894–1984)
sostiene la etapa no–lógica de la solución de problemas cientı́ficos. En una de sus conferencias expresó: “La capacidad del cientı́fico para resolver problemas importantes sin acudir a una estructura lógica definida en ese proceso es lo que llamo intuición”.
El descubridor de la superfluidez del helio afirma
que las caracterı́sticas primordiales del pensamiento creador son imaginación y audacia, “en ciencias
hay cierta etapa de desarrollo de los conceptos básicos; la erudición no es esencial, pero sı́ la imaginación, el pensamiento concreto y, sobre todo, la audacia”. El fı́sico brasileño Mario Schenberg (1914–) tiene el mismo punto de vista: “Un gran fı́sico no es el
que sabe más fı́sica que otro sino el que tiene más
imaginación”.
nal, emocional, volitiva, de lo cual surge la pregunta ¿cuál predomina en la creatividad cientı́fica?
Varios filósofos y fı́sicos que han estudiado este tema coinciden en afirmar que la solución de problemas cientı́ficos está precedida por una etapa no lógica, no consciente y atemporal. Por ejemplo, Jacob
Bazarian, en su libro “Intuición heurı́stica: un análisis cientı́fico de la intuición creadora” (1973) distingue dos formas de intuición, la intuición de evidencia por la cual el sujeto verifica la autenticidad de un
determinado hecho o relación al presentir la claridad
de una idea o un postulado, y la intuición heurı́stica6 por la cual el sujeto presiente o adivina la solución de un problema o descubre algo nuevo. Para Bazarian esta última forma de intuición sólo entra en acción cuando el conocimiento empı́rico y abstracto no puede resolver el problema que nos preocupa; sus caracterı́sticas son: repentina, inmediata,
no consciente y, lo más importante, emerge sin suficientes datos.
Por otro lado, Karl Popper coincide en “La lógica de la investigación cientı́fica”(1934) con el filósofo francés Henri Bergson (1859–1941) acerca de la
no racionalidad de la intuición creadora: “no hay
un método lógico de concebir ideas nuevas o de re6 Del
griego heuriskein “encontrar, hallar”.
Si bien Kapitza y Schenberg enfatizan el papel de
la imaginación, como sinónimo de intuición, hay
cientı́ficos que le dan otro significado. Gerald Holton, por ejemplo, al estudiar el famoso experimento de Millikan le da un sentido mucho más amplio;
no la considera como una etapa del proceso creativo
sino como todo un mecanismo usado por el cientı́fico en su trabajo creativo. Ası́, para Holton, el estudio de los descubrimientos cientı́ficos es una búsqueda de modelos de imaginación. Por otro lado, Bronowski resalta otro aspecto de la imaginación como puede ser la idealización de situaciones como experimento mental. Nuestra opinión al respecto es que
los experimentos mentales siempre serán inaccesibles
a la experiencia real aunque pueden conducir al conocimiento efectivo; Bronowski, en cambio, sostiene que nada de lo que imaginamos puede ser transformado en conocimiento efectivo hasta que lo convirtamos en realidades; el examen de la imaginación
es la experiencia tanto en la ciencia como en el arte; en la ciencia el experimento imaginario es examinado con la experiencia fı́sica; en el arte, con la experiencia humana.
A pesar de que los filósofos y fı́sicos aceptan la existencia de una etapa no–lógica poco aportan acerca de la naturaleza de tal etapa, esto es, si es racional, emotiva o volitiva. La cuestión, a decir verdad, puede extenderse a la creación artı́stica.
La relación entre genio y locura ya se afirmaba entre
los filósofos antiguos, Demócrito, Platón, Aristóteles, Horacio, quienes veı́an la creación poética como una forma de demencia. Los filósofos románticos conservaron la idea de este vı́nculo pero, al libe-
68
rarse el arte del principio de imitación de la realidad, comienza a prevalecer la personalidad del artista en el acto creador; la atención se desplaza del objeto al sujeto pues el ideal artı́stico ya no es la imitación de la naturaleza sino la expresión de los sentimientos, deseos y aspiraciones del artista. Para el
poeta francés Louis Charles Alfred de Musset (1810–
1857) la teorı́a expresiva de la creación poética consiste en enfatizar la emoción como fuente primordial “es el corazón el que habla y suspira, la mano
sólo escribe”. Musset enfatiza la relación entre belleza y sufrimiento: “los [versos] más desesperados
son los más bellos; los [poemas] inmortales nacen de
sollozos”.
Hoy se acepta que la creación artı́stica es una mezcla de pensar, sentir y querer, a pesar del énfasis dado por los poetas románticos al sentir y que otros
restringen el sentir al espectador de la obra de arte. De este parecer es el poeta brasileño João Cabral de Melo Neto quien afirma: “El poema salió de
mı́ como de quien se lava las manos”.
El pensamiento creativo se da tanto en ciencias como en artes. Si el cientı́fico busca descubrir hechos
y principios (o la aplicación de teorı́as), el artista
busca interpretar imaginativamente objetos, relaciones o valores; ambos viven la emoción de la creación, ambos tienen un periodo de incubación antes
de que sus pensamientos se aclaren a partir del chispazo de la intuición. En nuestro parecer, ambas crea-
ContactoS 82, 63-72 (2011)
ciones son una mezcla de las tres intuiciones: racional, emotiva y volitiva y, en lo que sigue, daremos
ejemplos de la historia de la fı́sica después de una clasificación provisional de estas intuiciones:
Intuiciones emocionales son las que resultan de
ideas aisladas y que, la mayorı́a de las veces, están
más allá de la comprensión del sujeto y fuera del
paradigma cientı́fico vigente. En estos casos el sentir es más fuerte que el pensar.
Intuiciones racionales, aquéllas que parten de trabajos conscientes sobre determinado problema y
que, frecuentemente, ocurren fuera del ambiente de trabajo. En estos casos la razón predomina sobre el sentimiento y, a veces, sobre la
voluntad.
Intuiciones volitivas, aquéllas que resultan de accidentes verificados en el ambiente de trabajo, hacia
los cuales estaba dispuesta la atención del cientı́fico. A partir de la existencia del fenómeno inesperado surgen nuevas ideas relacionadas. Como
afirma Bronowski “sólo una mente atenta puede transformar un accidente en un acto providencial” y antes lo habı́a hecho Jenofonte (s. V
a.n.e.) “Quien no espera lo inesperado jamás lo
percibirá”.
Existen varios ejemplos históricos de intuiciones
emotivas que, según Schenberg, son comunes en ma-
El papel de las intuiciones en el descubrimiento. . . José M. Filardo Bassalo
temáticas y se deben a una actividad inconsciente altamente operativa (como las califica Piaget). El más
famoso es el de Pierre Fermat (1601–1665) quien propuso en 1637:
La ecuación xn + y n = z n no tiene solución
para valores enteros de x, y y z si n > 2
Conocido como “último teorema de Fermat” fue objeto de estudio de varios matemáticos célebres quienes sólo lograron demostraciones particulares del
mismo hasta que el matemático inglés Andrew Wiles y su ex–estudiante Richard Taylor, utilizando
complejos de la geometrı́a algebraica, desarrollaron
una prueba publicada en 1995 en los Annals of
Mathematics.
Existen otros ejemplos de intuiciones emocionales o
aisladas en matemáticas, tal como muestra Carl B.
Boyer en A History of Mathematics (1968). Son famosas las propuestas por David Hilbert (1872–1943)
en el 2o. Congreso Mundial de Matemáticas de 1900.
Después de analizar las tendencias de las investigaciones matemáticas del s. XIX, Hilbert propuso 23
problemas en aritmética, topologı́a, ecuaciones diferenciales, cálculo de variaciones, etc. que deberı́an
ocupar la atención de los matemáticos del siglo XX.
Entre las conjeturas de Hilbert más importantes
están las relativas a la consistencia de la aritmética: dado un número finito de axiomas ¿será siempre
posible deducir cualquier postulado? En otras palabras, a partir de un número finito de pasos basados en un conjunto de axiomas de la aritmética ¿nunca llegaremos a resultados contradictorios?
El matemático checo Kurt Goedel (1906–1978) demostró en 1931, usando la teorı́a de los números, que
un sistema matemático lógico tiene proposiciones
que no pueden ser demostradas —la famosa prueba de Goedel— el problema de la consistencia, con
todo, permanece aún abierto.
69
También en fı́sica hay ejemplos célebres de intuiciones emocionales o aisladas. Newton fue pródigo en
tales intuiciones, en su libro “Óptica” (1704) revela su intuición sobre la naturaleza eléctrica de las
fuerzas dentro de un átomo en una época que ignoraba todo acerca de la electricidad y de los átomos.
Su hipótesis fue confirmada más de 200 años después con la teorı́a atómica.
Si bien Newton propuso una teorı́a corpuscular de la
luz, el aspecto ondulatorio de la misma no le era desconocido. En el libro referido habla de los experimentos del fı́sico italiano Francesco Maria Grimaldi
(1618–1663) de difracción de la luz, publicados sólo
después de la muerte de Grimaldi. También habla
de los experimentos del médico danés Erasmus Bartholinus (1625–1698) sobre la doble refracción. Para
poder interpretar la difracción, Newton intuyó que
las regiones claras y oscuras del patrón de difracción resultarı́an del paso o no de los corpúsculos por
la ranura. Para explicar la doble refracción del espato de Islandia propuso que los corpúsculos tuvieran lados con lo que intuyó la idea de transversabilidad de la luz. Esta idea fue tomada por el médico inglés Thomas Young (1773–1829) en 1871 cuando ya no habı́a dudas de la naturaleza ondulatoria de la luz gracias a los experimentos de interferencia del mismo Young (1801) y los de polarización de Étienne Louis Malus (1775–1812) de 1808.
Al estudiar la historia de la electricidad y del magnetismo encontramos muchos ejemplos de intuiciones emocionales. Ası́, el médico y fı́sico inglés William Gilbert (1544–1603), al hacer los primeros estudios sobre estos temas tuvo la intuición de las fuerzas eléctrica y magnética a fines del siglo XVI, una
época en que el mismo concepto de fuerza estaba
por elaborarse. Decı́a Gilbert que cuando un cuerpo electrizable era frotado se extraı́a de él un fluido
eléctrico o humor, las propiedades atractivas y repulsivas del cuerpo se explicaban por un efluvio eléctrico. La explicación actual de un electrón arrancado
por el frotamiento y del efluvio como campo eléctrico resultante de la carga positiva no es muy lejana a
la propuesta original. Para Gilbert no existı́a el humor magnético pues los imanes ya poseı́an el efluvio magnético; la observación de que no se podı́an
aislar polos (humores) magnéticos fue hecha por Petrus Peregrinus de Maricourt (ca. 1240–?) alrededor
de 1269.
André Marie Ampère (1775–1836) repitió en 1820 los
experimentos del fı́sico danés Hans Christian Oersted (1777–1851) acerca del efecto magnético de la corriente eléctrica, notó que un hilo enrollado en espiral (el actual solenoide) se comportaba como un
imán al paso de la corriente eléctrica. También observó que las fuerzas entre los alambres conducto-
70
res eran atractivas para corrientes en el mismo sentido y repulsivas para el sentido opuesto. En 1822,
Ampere tuvo la intuición emocional de que el magnetismo natural resultaba de corrientes circulares diminutas, como si fuesen fluidos eléctricos dentro de
los átomos. Las hoy conocidas como corrientes amperianas estarı́an orientadas en las sustancias no–
magnéticas de forma que su efecto total fuese nulo. El desarrollo de la teorı́a atómica de la materia, basada en el modelo de electrones girando alrededor de un núcleo7 mostró lo correcto de la intuición de Ampere.
El estudio de las propiedades magnéticas de la materia nos da otro ejemplo de intuición emotiva. En
1895, en su tesis de doctorado, el fı́sico francés Pierre Curie (1859–1906) mostró que la susceptibilidad magnética de un material paramagnético (v.gr.
el oxı́geno) variaba en razón inversa de su temperatura absoluta, la hoy conocida ley de Curie, y
que una sustancia ferromagnética se comporta como
una paramagnética cuando se sobrepasa una temperatura crı́tica, la hoy conocida temperatura de Curie. Tales leyes no tenı́an una explicación teórica
hasta que Paul Langevin (1872–1946) en 1905, intuyó que los materiales paramagnéticos presentaban momentos magnéticos permanentes con lo cual
logró demostrar la ley de Curie. Su hipótesis de partida era que el material paramagnético a cierta temperatura colocado en un campo magnético externo
presentaba sus momentos magnéticos permanentes
distribuidos espacialmente según la distribución de
Boltzmann.
La importancia de esta intuición emocional de Langevin se desprende del resultado que obtendrı́a de
la teorı́a clásica lorentziana de los electrones (1892)
7 El modelo planetario tuvo entre sus creadores a Jean Baptiste Perrin (1870–1942) y Hantaro Nagaoka (1865–1950) en
1904.
ContactoS 82, 63-72 (2011)
pues habrı́a llegado a un resultado nulo, mostrando que el paramagnetismo es incompatible con la
mecánica y el electromagnetismo clásicos. Lo que
Langevin intuyó fue que el momento magnético del
átomo o de la molécula tiene un valor fijo con lo
que, sin saberlo, estaba cuantizándolo. Esta cuantización fue determinada experimentalmente en 1922
por los fı́sicos alemanes Otto Stern (1888–1969) y
Walther Gerlach (1899–1979) al observar la desviación de un haz de átomos de plata moviéndose a
través de un campo magnético inhomogéneo; con ello
se mostró que los electrones atómicos no podı́an tomar cualquier orientación espacial (como fue intuido por Langevin) sino sólo algunas. Es oportuno decir que la fórmula de Langevin fue modificada por el
fı́sico francés León Nicolás Brillouin (1889–1969) en
1927 utilizando la mecánica cuántica.
Una de las más notables intuiciones emocionales es la
de lı́nea de fuerza de Faraday (1791–1867) aproximadamente en 1837. En ese tiempo, las fuerzas eléctrica, magnética y gravitacional eran consideradas acciones a distancia, esto es, actuaban en los cuerpos a través del espacio vacı́o. Faraday, al observar las figuras formadas por las limaduras de hierro (también observadas por Petrus Peregrinus en
1269) las interpretó como tubos de hule que se extendı́an más allá de los alambres conductores, de los
imanes, o de los cuerpos electrizados. Para Faraday
las lı́neas de fuerza eléctrica eran debidas a la polarización eléctrica del medio y al espacio dotado de
estas lı́neas lo llamó “campo de fuerzas”. Con estas ideas explicó la aparición de una corriente inducida cuando un tubo de fuerza magnética cortaba a un alambre conductor e, inversamente, el movimiento de los tubos de fuerza eléctrica hacı́a aparecer campos magnéticos. La formalización de la intuición de Faraday (quien no estaba muy dotado en matemáticas) fue hecha por el fı́sico y matemático escocés James Clerk Maxwell (1831–1879) entre 1864 y
1873 con su Teorı́a del Campo Electromagnético cuyo principal resultado fue la unificación de la óptica,
la electricidad y el magnetismo. En 1865, Maxwell
demostró que las ondas electromagnéticas se propagan en el vacı́o a la velocidad de la luz.
En el campo de la mecánica una de las más conocidas intuiciones emocionales es la de Galileo Galilei (1564–1642), descrita en su libro “Diálogo acerca
de dos principales sistemas del mundo” (1632). Galileo discute el resultado de los experimentos mentales acerca del movimiento ascendente y descendente de los cuerpos en planos inclinados lisos. Al observar que un cuerpo, en un plano inclinado, retrasa su movimiento ascendente y acelera el descendente infirió que se moverı́a a velocidad constante en un
plano horizontal. Galileo tuvo la intuición del con-
El papel de las intuiciones en el descubrimiento. . . José M. Filardo Bassalo
cepto de “inercia”; sin embargo, influido por la concepción griega de la perfección del movimiento circular, pensó que el movimiento inercial serı́a circular y no rectilı́neo.
La formulación correcta del principio de inercia fue
dada, en 1644, por el filósofo y matemático francés
René Descartes (1596–1650) en su libro Principia
Philosophiae, al afirmar que un cuerpo no puede alterar por sı́ mismo su estado de movimiento, a no
ser por la acción de otro objeto. Es oportuno recordar que en ese libro introduce el concepto de “cantidad de movimiento” (masa × velocidad) y su ley
de conservación: “El Universo no tiene hoy ni más
ni menos cantidad de movimiento que cuando fue
creado”.
Otro ejemplo notable de intuición emocional es el
que tuvo el matemático francés Pierre Simón de Laplace (1749–1827) acerca de los hoyos negros. En
1795, propuso la invisibilidad de una estrella con masa extraordinaria y densidad enorme partiendo de la
teorı́a gravitacional de Newton y de la óptica. Tal
invisibilidad resultaba del hecho de que la velocidad de escape en la superficie de la estrella serı́a
superior a la velocidad de la luz. Sin embargo, en
1783, John Michell (1724–1793) ya habı́a aventurado tal idea. La demostración matemática de esta intuición fue lograda por el astrónomo alemán Karl
Schwarzchild (1873–1916) al obtener una solución de
las ecuaciones de relatividad generalizada de Einstein, que una estrella, en su proceso evolutivo, podı́a
sufrir un colapso gravitacional volviéndose tan masiva que la radiación luminosa serı́a incapaz de salir de
su interior.
71
Concluiremos la parte referente a las intuiciones
emocionales considerando dos ejemplos de cientı́ficos brasileños. Al estudiar Mario Schenberg en 1941
la teorı́a de los mesones, intuyó que las interacciones fuertes de estas partı́culas sugerı́an una violación de la paridad. Propuesta por el fı́sico húngaro Eugene Paul Wigner (1902–1995) la conservación
de la paridad era un dogma por lo cual el trabajo de Schenberg no fue considerado, a pesar de que
existı́an evidencias de tal violación, como los experimentos con electrones emitidos por sustancias radiactivas (decaimiento β) de Cox, McIlwraith y Kerrelmeyer de 1928 y los de Chase en 1929. Puesto que
la asimetrı́a no se verificó al usarse electrones procedentes de filamentos incandescentes, aquéllos experimentos fueron olvidados. La idea de la violación de la paridad, ahora en interacciones débiles,
fue retomada en el trabajo teórico de Cheng Ning
Yang y Tsung Dao Lee en 1956. La confirmación experimental se tuvo en 1957 con los trabajos independientes de C. S. Wu y sus colaboradores, L. Lederman y asociados, y J. I. Friedman y V. L. Telegdi. Los experimentos del grupo de la señora Wu
se relacionaban con el decaimiento β, el de los dos
últimos grupos con el decaimiento de muones. Ese
mismo año, Lee y Yang recibieron el premio nobel
de fı́sica.
El otro ejemplo brasileño de intuición aislada o
emocional es el de José Leite Lopes. El fı́sico italiano Enrico Fermi (1901–1954) habı́a formulado en
1934 la teorı́a del decaimiento β según la cual el
neutrón, por desintegración, se transforma en un
protón por la emisión de un electrón (o partı́cula β) más una partı́cula que Pauli habı́a propuesto en 1930, el neutrino, nombre dado por Fermi. De
aquı́ Fermi postuló la existencia de una nueva fuerza de la naturaleza responsable de la desintegración
del neutrón; la llamó débil por ser mucho menos intensa que la fuerza electromagnética entre partı́culas cargadas. El fı́sico inglés Paul Adrien Maurice Dirac (1902–1984) logró en 1927 la cuantización de esta última fuerza proponiendo al fotón como quantum mediador de estas interacciones electromagnéticas en la conocida como electrodinámica cuántica.
La teorı́a de Fermi del decaimiento β fue extendida
a los mesones µ (posteriormente nombrados muones
por Fermi) ya que, como los electrones, estos mesones también se desintegraban por interacción débil.
Para Leite Lopes, la asignación de spin 1/2 a los
muones, en un trabajo realizado por Jayme Tiomno
y John Archibald Wheeler, en 1949, fue fundamental para el inicio de la universalización de la teorı́a
propuesta por Femi, conocida como interacción universal de Fermi después de los trabajos de Yang y
Tiomno de 1950.
72
ContactoS 82, 63-72 (2011)
Esta anticipación recuerda a la del mesón neutro,
hecha por Nicholas Kemmer en 1937 al examinar la
independencia de la carga en la teorı́a de los mesones
cargados. Un razonamiento semejante llevó a Leite
Lopes a su predicción.
Un artı́culo de Richard Phillips Feynman y Murray Gell-Mann de 1958 produjo la siguiente intuición en Leite Lopes: los bosones vectoriales responsables de las interacciones débiles y los fotones (también bosones vectoriales) responsables de las fuerzas electromagnéticas deberı́an pertenecer a la misma familia, formar un multipleto y, en consecuencia,
las constantes de acoplamiento de ambas interacciones deberı́an ser iguales gw ≈ e de donde Leite Lopes obtuvo el orden de 50 GeV para la masa de los
bosones vectoriales cargados, partı́culas mediadoras
en las interacciones débiles. En el artı́culo que Leite Lopes publicó en 1958 en Nuclear Physics presenta un resultado inesperado en el mundo cientı́fico internacional: la predicción de un bosón vectorial neutro mediador de la interacción débil y con una masa del mismo orden que la de los bosones vectoriales
cargados.
La unificación de las fuerzas electromagnéticas y
débil, implı́cita en los trabajos de Klein y Leite Lopes, fue formalizada en 1967 por el fı́sico norteamericano Steven Weinberg (1933–) y, en forma independiente, por el paquistanı́ Abdus Salam (1926–1996).
Según esta teorı́a la fuerza electrodébil está mediada por cuatro quanta: el fotón, mediador de la interacción electromagnética y los bosones vectoriales W + , W − y Z o de masas respectivas 75 y 90 GeV,
mediadores de la interacción débil. Estas tres últimas
partı́culas fueron detectadas en 1983 en el CERN
por dos equipos dirigidos por el fı́sico italiano Carlo Rubbia (1934–) y el ingeniero holandés Simon van
der Meer (1925–).
Glashow, Salam y Weinberg recibieron el nobel de
fı́sica en 1979 y Rubbia y van der Meer en 1984.
Hasta aquı́ hemos visto algunos ejemplos de intuiciones aisladas o emocionales que intervienen en la creatividad cientı́fica.
cs
Descargar