DESARROLLO HISTÓRICO DE LA TEORÍA DEL CALOR W. Greiner, L. Neise y H. Stöcker Todas las personas poseemos un sentido natural para calor y temperatura. Sin embargo, el desarrollo histórico de la termodinámica nos muestra lo extremadamente dificil que es sintetizar y entender dichos conceptos en términos físicos y matemáticos. Los problemas que actualmente tienen los estudiantes para entender que calor y trabajo no son variables de estado, o los que tienen con el concepto de entropía, también le han producido dolores de cabeza a muchos grandes físicos. Por lo mismo, es interesante saber cómo se aclaró la naturaleza del calor. I. EL TERMÓMETRO. A Daniel Fahrenheit (1686-1736) se le puede considerar el primero en cuantificar el concepto de temperatura por sus trabajos con termómetros cerrados de líquidos. Los griegos ya usaban la expansión de gases al ser calentados para poner en movimiento autómatas y jugetes. Por ejemplo, al abrir las puertas de un templo encendiendo un fuego. Galileo Galilei (1564-1642), Evangelista Torricelli (1608-1647, conocido por el barómetro y por darle nombre a la unidad de presión Torr) y Otto von Guericke (1602-1686) se esforzaron por usar la expansión de los gases para construir termómetros. La molesta influencia de las variaciones en la presión atmosférica, así como pequeños errores de construcción hicieron imposible la reproducción de sus mediciones. Fahrenheit fue el primero en superar estas dificultades y en introducir una escala de temperatura razonable. Utilizó como punto cero la mezcla más fría que pudo producir (0 ◦ F= −17.8 ◦ C) y definió como 100 ◦ F la temperatura normal de la sangre (= 37.8 ◦ C). Desde entonces se utilizaron muchos otros puntos fijos, como el punto de fusión del hielo y el de ebullición del agua, el punto de fusión de la mantequilla o del aceite de anís, así como la temperatura más baja observada en Florencia. De esta forma, es natural que no se haya desarrollado una convención general o escala absoluta. Esto también debido a la gran diferencia entre los métodos de medición entonces usados. Por ejemplo, el líquido elegido. John Dalton (1766-1844) reconoció que de la Ley de GayLussac se deriva la existencia de un punto cero absoluto. Sin embargo, fue Lord Kelvin quien logró eliminar la arbitrariedad ya entonces generalizada. Joseph Black (1728-1793) aclaró la diferencia conceptual entre temperatura θ y cantidad de calor Q. Definió en 1760 a la caloría como la cantidad de calor que necesita 1g de agua para aumentar su temperatura en 1 ◦ C. También introdujo los conceptos de calor específico y de calor latente. Desde entonces, y hasta aproximadamente 1850, el calor fue visto como un tipo de sustancia. II. LEY DE LOS GASES IDEALES. En 1654 Otto von Guericke presentó al senado de Ratisbona un impresionante experimento: Con su bomba de pistones evacuó el interior de un pequeño cascarón esférico formado por dos hemisferios, permitiendo primero que dos caballos, luego cuatro e incluso ocho intentaran separarlos. Sólo con 16 caballos fue posible hacerlo, después de un intenso estallido. Sus bombas permitieron variar la presión de los gases en varios órdenes de magnitud. Robert Boyle (1627-1691) utilizó esta técnica en 1661 para estudiar la elastisidad de los gases. Townley repitión en 1669 los experimentos de Boyle y reconoció que a temperatura constante el producto de la presión por el volumen no cambia, lo que actualmente se conoce como Ley de Boyle-Mariotte, dado que también fue descubierta por Edme Mariotte en 1676. J. Bernoulli reconoció en 1683 que dicha ley sólo se cumple de forma aproximada y que depende también de la fórmula barométrica. Por 1800 Joseph Louis Gay-Lussac notó que el coeficiente de expansión volumétrica α, V = V0 (1 + αθ), es aproximadamente el mismo para todos los gases, y obtuvo un valor de 1/267 ◦ K−1 . Juntando la Ley de BoyleMariotte y el Principio de Avogadro, de que en el mismo volumen distintos gases bajo las mismas condiciones contienen el mismo número de partículas (1811), se obtiene la Ley de los Gases Ideales pV = N kT . Esta fue mejorada por primera vez por el holandés J. D. van der Waals en 1870 cuando buscaba una forma de describir transiciones de fase en líquidos. III. LA NATURALEZA DEL CALOR. Ya en el siglo XVIII había físicos que entendían al calor como un tipo de movimiento. Así fue como la Teoría Cinética de Daniel Bernoulli proporcionó una definición estadística de calor con la medida mv 2 . Desafortunadamente sus ideas fueron olvidadas rápidamente. Muchas interpretaciones del concepto de calor se toparon principalmente con el fenómeno de su generación por fricción. Por ejemplo, en 1798 B. Thomson, Conde de Rumford, mostró en Munich que al taladrar cañones con brocas romas se puede generar mucho calor y que este es proporcional al trabajo realizado por el taladro. Sin embargo, la hipótesis dominante, sugerida por los métodos calorimétricos de medición, era que existía una sustancia nombrada caloricum que se conservaba y que fluía de cuerpo en cuerpo. Distintos materiales tendrían distintas capacidades para esta sustancia de fricción, y al friccionar dos cuerpos el caloricum sería literalmente extraido. J. T. Mayer intentó explicar la contradicción con las ob- 2 servaciones de B. Thomson sugiriendo que el caloricum extraido era sustituido por caloricum de los alrededores que se introducía al cañón. La hipótesis de la sustancia calórica fue apoyada por la Teoría de la Conducción del Calor desarrollada por J. B. Fourier entre 1811 y 1822. Hasta entonces existía sólo para la Mecánica una teoría matemática, fundada por Newton, mientras que la enseñanza de los fenómenos calóricos era empírica y tan sólo contenía caracteres descriptivos. Fourier fue el primero en lograr construir una teoría matemática del calor con su ∂ ∂T ecuación de conducción ρc ∂T ∂t = ∂x (κ ∂x ) y el Método de Series de Fourier utilizado por primera vez al resolverla. Partió de la hipótesis de la sustancia calórica y demostró que su teoría cumplía con la condición de la conservación del caloricum. Fourier, quien tomó parte activa durante la Revolución Francesa, por lo que fue encarcelado y estuvo en Egipto con Napoleón, le daba mucha importancia al haber convertido a la enseñanza de los fenómenos calóricos en una ciencia rigurosa. Además, todos los partidarios del caloricum veían es su teoría un poderoso argumento a favor de su tesis. No sorprende por lo tanto que incluso Sadi Carnot incluyera la conservación del caloricum, además de la conservación del trabajo, en sus famosos experimentos pensados sobre procesos cíclicos (1824). Supuso que la temperatura era el nivel de la energía potencial de la sustancia calórica y que el trabajo mecánico se desarrollaba cuando el caloricum pasaba de una temperatura a otra más baja, de la misma forma en que una caida de agua hace girar la rueda de un molino. Bajo dicha suposición pudo mostrar que la eficiencia del ciclo llamado por su nombre es independiente del material y de condiciones secundarias ( W Q = f (θf , θc )). Sus reflexiones habrían sido exáctas si en vez de calor hubiera usado entropía, o bien si hubiera advertido que su calor no era el mismo que se medía con un calorímetro. De hecho, parece ser que lo notó, pues en sus obras póstumas se encuentra la sugerencia de que el calor es equivalente al trabajo, así como una estimación del valor en trabajo de una caloría. Con el tiempo se impuso la idea de que el calor es una forma de energía, lo que condujo finalmente a la Primera Ley de la Termodinámica. IV. LA HISTORIA DEL CONCEPTO DE ENERGÍA. Como se mencionó en el párrafo anterior, ya entonces se discutía la posibilidad de que el calor fuera una forma de movimiento interno de los cuerpos. Desde Descartes se había fijado en la cabeza de los científicos la idea de la indestructibilidad del movimiento. Por esto se entendía entonces lo que ahora llamaríamos conservación del momento, pero Huygens encontró (a más tardar en 1673) el principio de conservación de la energía para un campo uniforme, Newton para el campo gravitacional y finalmente D. Bernoulli formuló una expresión general para la energía mecánica. Leibniz usó mv 2 como medida de la fuerza viva y creía en su conservación, pensando que durante la fricción se convertía en algún tipo de energía oculta. La opinión generalizada, sobre todo la de H. Helmholtz, era que la física consistía por completo de mecánica sin fricción. Por ejemplo, Fresnel representaba a la luz como vibraciones del ether con una fuerza viva que era absorvida por los medios convirtiéndose en movimiento oculto, o calor (fuerza era el término que entonces se usaba para referirse a la energía, o más bien a todo lo que producía movimiento). Fourier contradecía estas ideas aduciendo que su Teoría de la Conducción del Calor no era de naturaleza mecánica. Una expresión de la firme convicción de que la energía no podía crearse fue la resolución de 1775 de la Academia de París en el sentido de no tomar en cuenta ninguna propuesta más sobre un perpetuum mobile. El primero en formular un principio general para la conservación de la energía fue F. Mohr en 1837. En un párrafo que desgraciadamente pasara casi inadvertido escribiría: Además de los 54 elementos químicos conocidos hay en la naturaleza de las cosas sólo un ages más, llamado fuerza; puede bajo las condiciones apropiadas manifestarse como movimiento, afinidad química, cohesión, electricidad, luz, calor y magnetismo, y a partir de cualquiera de estas manifestaciones puede ser llamada cualquiera de las otras. En 1840 H. Hess demostró que el calor generado en transformaciones químicas no dependía de la ruta de la reacción (Principio del Calor de Hess). En 1842 Robert Mayer publicó sus Notas sobre Fuerzas en la Naturaleza Inerte. Mayer provenía de Heilbronn y era una persona con amplia educación e intereses generales. En 1840 viajó a la India como médico de un barco y descubrió que en el trópico la sangre de las personas era más clara, es decir, que contenía menos oxígeno. ¡Debido a las altas temperaturas el cuerpo necesitaba disponer de menos energía, es decir, se respiraba menos!. De esto concluyó que el calor era un tipo de energía, y que la energía se conservaba. Su descubrimiento en todo caso no fue tomado en cuenta y por lo mismo una versión preliminar de un artículo nunca se publicó. Mucho después fue que se reconoció el valor de su trabajo (recibió el doctorado honoris causa en Tubinga y se convirtió en miembro de la Academia de Ciencias de Baviera), pero para entonces Mayer padecía de una larga enfermedad mental. Mientras que Mayer fue más bien un filósofo de la naturaleza, James Prescott Joule (1818-1889) buscaba pruebas empíricas. Él demostró que el calor generado en un circuito conectado a un elemento galvánico (calentamiento por efecto Joule) era igual al cambio calórico de la celda en que se desarrollaba la reacción química, y que disminuía si el circuito realizaba algún tipo de trabajo mecánico. En resumen, demostró la equivalencia de energía química, eléctrica, mecánica y calor. A Helmholtz se le puede considerar como el primero en darle una estructura matemática al principio general de conservación de la energía, puesto que derivó a partir 3 de este principio las expresiones correctas para energía eléctrica y magnética. Muchas otras personas también trataron con este problema y a pesar del escepticismo inicial para 1860 el principio ya había sido aceptado firmemente y se convertiría un uno de los pilares de la física moderna. V. ENTROPÍA Y LA 2a LEY DE LA TERMODINÁMICA. Ya Carnot había reconocido que no hay máquinas periódicas capaces de convertir todo el calor en trabajo, es decir, no hay un perpetuum mobile de 2◦ tipo, aunque al hacerlo haya hecho uso del supuesto equivocado de que la cantidad de calor no variaba. Su concepto entraba en problemas al tratar de explicar, por ejemplo, cómo es que en la conducción de calor no se realiza trabajo, a pesar de que el caloricum pasa de una temperatura mayor a una menor. Sin embargo, Rudolf Clausius (1822-1888) demostró en 1850 que la escencia del Principio de Carnot podía interpretarse como la equivalencia de calor y trabajo. Si la razón W Q no fuera la misma para todos los procesos reversibles entre las temperaturas θf y θc , entonces se podría encontrar una combinación de procesos capaz de transmitir una cantidad indeterminada de calor de un cuerpo frío a uno caliente. Por lo tanto, se debe cumplir que W Q = f (θf , θc ). Para diferencias infinitecimales de la dθ temperatura encontró que dW Q = C(θ) , relación que ya antes había sido encontrada por Benoit Clapeyron y de la cual es fácil derivar la forma actual de la Ecuación de Clausius-Clapeyron. Motivado por las mediciones de Clapeyron de 1834, que mostraban que para gases C(θ) era proporcional a pV , William Thomson propuso en 1848 la introducción de una escala absoluta de temperaturas basada en la definición dθ dT C(θ) = T . Él reconoció también que como consecuencia de la forma revisada del Principio de Carnot la energía interna de los gases ideales sólo podía depender de la temperatura, lo que demostró en 1853 con el conocido experimento de Joule-Thomson. Con algunas interrupciones, Thomson fue profesor en Glasgow de 1846 a 1899, además de experto en el tendido submarino de cables, lo que le produjo mucho dinero y le permitió obtener un título de nobleza. Era un excelente orador y conocía muy bien todos los tópicos de la física. Él y Maxwell fueron las personalidades más influyentes de la física en la Inglaterra del siglo XIX. Clausius enunció en 1854 la 2a Ley de la Termodinámica (él fue también quienH le bautisó así) para procesos reversibles en la forma δQ T = 0, y para procesos H δQ < 0. En 1862 generalizó la forirreversibles como RT δQ R < y le llamó a la integral valor mulación a irr δQ T rev T de transformación del calor, y a partir de 1865 entropía del griego o τ ρoπoς que significa cambio de forma. VI. MECÁNICA ESTADÍSTICA. Aunque en el siglo XIX muchos físicos eran de la idea de que la naturaleza completa podía ser explicada con la mecánica (a Max Planck por ejemplo se le recomendó no estudiar física, ¡pues a través de la Mecánica de Newton ya todo se conocía!) los intentos por explicar el calor en términos estadísticos casi siempre se tomaron a broma y pocas veces fueron apoyados. No es sorpresa pues que para 1900 sólo haya tres nombres conocidos; Ludwig Boltzmann, James Clerk Maxwell y Josiah Williard Gibbs. La distribución de velocidades de Maxwell-Boltzmann puede considerarse como la primera expresión de la Mecánica Estadística (después de la Teoría Cinética), por primera vez publicada por Maxwell en 1860. Su demostración basada en la conservación de la energía durante los choques microscópicos se le ocurrió en 1866. En 1868 Boltzmann la generalizó introduciendo el facε tor e− kT y proporcionando en 1877 una buena argumentación para el mismo a través de la fórmula S = k ln Ω. En 1872 se formuló el famoso Teorema H de BoltzR mann. Considerando la cantidad d3 v f (v) ln f (v), siendo f (v) la distribución de velocidades, a la que primero llamó E, y luego H (Eta), quedándosele H, demostró que no cambia con los choques cuando f (v) es la distribución de Maxwell-Boltzmann y que de lo contrario disminuye. Es decir, −H se comporta como la entropía. La suposición de que el número de microestados Ω es proporcional a la extensión Φ del estado macroscópico en el espacio fase, es decir S ∼ ln Φ, se debe a Maxwell y profundizó la comprensión del significado estadístico de la entropía. Hubo muchas críticas en contra. La más dura se refería a la reversibilidad. ¿Cómo podría obtenerse de los principios de invarianza temporal de la mecánica una dirección privilegiada del tiempo de acuerdo con dS ≥ 0?. Boltzmann mostró que esto sería posible si el universo tuviera condiciones iniciales muy improbables. La reversibilidad de Henri Poincaré (1896) pudo ser contraargumentada según los enormes tiempos requeridos por sistemas con muchos grados de libertad. Una estructuración clara de los fundamentos de la física estadística la logró Gibbs en 1902 en sus Elementary Principles of Statistical Mechanics. Definió el ensamble canónico y fundamentó los conocimientos ya existentes. Gibbs era profesor de físico-matemáticas en la Universidad de Yale, donde era sujeto de muy mal trato y sólo con mucho retraso se pusieron medios a su disposición. Por lo mismo, es impresionante su enorme contribución a la Termodinámica y a la Mecánica Estadística: La regla de Fases, la Relación de Gibbs-Duhem, el factor de corrección de Gibbs, y mucho más. Actualmente es el mayor orgullo de Yale. En 1917 escribía Albert Einstein: A través del conocimiento de los principios del movimiento Browniano desapareció cualquier duda sobre la corrección de la 4 explicación que Boltzmann le dió a las leyes de la termodinámica. En efecto, la explicación del movimiento aleatorio experimentado por las pequeñas partículas suspendidas en agua descubiertas en 1827 por Robert Brown (1773-1858) fue un triunfo de la Mecánica Estadística. Después de muchas pruebas que permitieron eliminar causas como gradientes de temperatura, perturbaciones mecánicas, efectos capilares y corrientes de convección, surgió a partir de 1860 la opinión (al principio puramente especulativa) de que el movimiento Browniano era producto de los choques con las moléculas del agua. Hubo muchas opiniones en contra, pues dichas fuerzas son demasiado pequeñas como para producir un movimiento en zic-zac, aparte de que en promedio deberían suprimirse. Además, se violaría la 2a Ley, pues el movimiento debería transformarse en calor. Mientras que este último argumento resultaba muy complicado de refutar, ya para mayo de 1905 Albert Einstein había mostrado que muchos pequeños choques efectivamente podían reproducir el movimiento observado. Describió la distribución n(x, t) de partículas suspendidas con la ecuación de ­ 2® 2 difusión D ∂∂xn2 = ∂n = 2Dt para el de∂t y obtuvo x splazamiento cuadrático medio. Al mismo tiempo le dió un nuevo significado a la ecuación de difusión al visualizarla como un proceso Markoviano; una sucesión de pequeños movimientos aleatorios. La teoría de Einstein fue rápidamente comprobada experimentalmente. También Smoluchowski (1872-1917) llegó al mismo resultado un año después, pero considerando la cinética de choques entre esferas duras como modelo para los choques con las moléculas del agua, y calculó el movimiento promedio. A pesar de sus muchos éxitos, la Mecánica Estadística también hizo algunas predicciones falsas. Por ejemplo, los coeficientes adiabáticos de los gases y en especial el calor específico de sólidos a bajas temperaturas. Kelvin le llamó a este fracaso una de las nubes sobre la Teoría del Calor. La Estadística Cuántica eliminaría estos prob- lemas. La Estadística Cuántica surge al mismo tiempo que la Teoría Cuántica. A fines de 1900 Max Planck, que fue uno de los primeros en enterarse de las nuevas mediciones, encontró la fórmula correcta para la densidad de energía por volumen y unidad de frecuencia para la radiación de cuerpo negro: w(ν, T ) = 8π hν 3 . c3 eβhν − 1 Lo logró interpolando entre las leyes de radiación de Rayleigh y de Wien. Para explicar su resultado supuso que los osciladores sólo poseen niveles discretos de energía Ni hν (siendo Ni un entero), contó cada serie (Ni ) como un suceso (lo que corresponde a suponer que los cuantos son indistinguibles y que cada oscilador puede poseer varios, es decir, que obedecen la estadística de Bose) y aplicó la Mecánica Estadística, la que hasta ese momento había rechazado. Posteriormente se dió cuenta de que el n-ésimo modo propio ocupaba el volumen nh en el espacio de fases, y reconoció que el volumen h en el espacio de fases debía contarse como un suceso. En 1912 Sackur y Tetrode encontraron experimentalmente que para el tamaño de celda h la entropía de punto cero S0 se anulaba. Ya para 1907 Einstein pudo reproducir cualitativamente la disminución del calor específico de sólidos a baja temperatura usando un modelo de osciladores cuánticos. Considerando que un cristal posee muchas frecuencias propias diferentes Debye, lo mismo que Born y Kàrmàn pudieron independientemente reproducir los datos experimentales con gran precisión, liberando a la Mecánica Estadística de sus nubes. Actualmente la Física Estadística es una parte decisiva y muy productiva del cuadro moderno de la naturaleza.