ENTROPIA Prof. Jose Alberto Villalobos M. * El concepto de entropia, uno de los mas dificiles de comprender en toda Ia Fisica, es sin embargo de los mas fundamentales. Muchos cientificos han contribuido al desarrollo de este concepto. Desde 1795 con Ia invencion de Ia maquina de vapor por James Watt, se comenzo a pensar en las relaciones entre energia termina y mecanica. Luego, a traves de los trahajos experimentalcs de Benjamin Thompson (Conde de Rumford), James Prescott Joule y sus contemporaneos; el calor fue reconocido como una forma de energia, y en 1842 Robert Julius Mayer formulo el principio de conservacion de Ia energia, en terminos de Ia Primera I..ey de Ia Te.rmodinamica. "Un J!!!~Croestado de equilibrio de un sistema puede caracterizarse por una cantidad E (Hamada energia inte~a) que posee las siguientes propiedades: Para un sistema aislado, 6 E = constante. Si el sistemaj_nteracciona y entonces va de un macroestado a otro, el cambio resultant en E es, 6 E =W + Q, donde W es el trabajo macroscopico hecho sobre el sistema como resultado de cambios en sus parametros externos, y Q, es el calor absorbido por el sistema". En 1828, Sadi Carnot, investigando sobre las limitaciones de Ia conversion de calor en trabajo, y basandose sobre condiciones teOricas, calculo el rendimiento maximo de un motor termino ideal. Seglin Carnot: "Ninguna maquina operando entre dos focos calorificos puede ser mas eficiente que una maquina de Carnot. Todas las maquinas de Carnot operando entre los mismos dos focos calorificos, son igualmente eficientes ". Estas limitaciones obviamente necesitaban de Ia formulacion de Ia Segunda Ley de Ia Termondinamica, y en 1850 Rudolf Oausius, uno de los cientificos que mas contribuyo en Ia elaboracion de una estructura cientifica para Ia teoria de los gases, formulo Ia scgunda ley de esta manera: "No es posible ninglin proceso, cuyo unico resultado sea Ia extraccion de . Profesor del Departamento de Ffsica y Matematicas. Facultad de Ciencias y Letras. 191 calor de una fuente a una cierta temperatura, y Ia ahsorcion de una canti,L.,j igual de calor por una fuente de temperatura mas elevada ". Un aiio despues, William Thomson (Lord Kelvin), uno de los precursores de !1 termondiruirnica clasica, formulo Ia segunda ley de esta forma: "No es posible ninglln proceso ciclico cuyo uruco resultado sea Ia extraccion de calor de una unica fuente, y Ia produccion de una cantidad equivalente de trabajo ". En d mismo afio, Wilhelm Ostwal.d formulo Ia segunda ley asi: "Movimiento perpetuo de Ia segunda clase ( el que transforma calor en trabajo, sin ninguna limitacion), es imposible". Los tres enunciados anteriores son equivalentes, lo cual puede demostrarse facilmente. Sin embargo, la forma correcta de la segunda ley, para su desarrollo matematico, es en terrninos de Ia entropia, y fue utilizada por Oausius por primera vez en 1865. En 1906 el fisico aleman Walther Nernst propuso elllamado 'principio del calor', el cual consideramosahoracomola Tercera Ley de la Termodinamica: "La entropia de tocio cuerpo quimicamente homogeneo, de densida.ll finita, tiende indefinidamente hacia cero, a medida que disrninuye lu temperatura tambien indefinidamente ". El desarrollo hasta nuestros dias, del concepto de entrop1a, se debe principalmenl , a la labor de tres fisicos notables; Ludwig Boltzmann (1844-1906), MaxPlanc!k (1858- 19~7) y Josiah Williard Gibbs (1839- 1903). Planck, quien tledico los primeros 15 afios de su carrera cientifica a Ia clarificaciol\ 1 aplicacion y expansion de Ia segunda ley y especialmente al concepto :de irreversibilidaJ. ex pres<> la tercera ley de la siguiente forma: "Cuando Ia temperatura de una sustancia tiende a cero absoluto, ~•• entropia tiende al valor S0 , el cual es independiente de la presion, estado cl agregacion, etc". Boltzmannfue quien introdujo Ia nocion de prohahilidud en la de entropia, 1tl formular Ia segunda ley como una ley estadistica, introduciendo Ia relacion basica S =kin , entre Ia entropia y el numero de estados acc~ibles. Gibbs fue el primer fisico teorico e8tadounidense de renombre, a el se le debe gran parte del desarrollo analitico _de Ia termodimimica. A principios de siglo desarrollo una formulacion de Ia mecanica estadistica en terminos del concepto de conjuntos. CALOR Y DEPOSITOS DE CALOR La energia media transferida de un sistema macroscopico a otro, como consecuen· cia de una interaccion puramente termica, eR decir aquella en la que los parametros exterilos del sistema permanecen fij~, se llama calor Q ahsorbido por el sistema, (ciertos parametros independientes, macroscopicamente mensurable!!.. que afectan a las ecuaciones de movirniento, con los campos magneticos y electricos y el volumen, se llaman parametros externos). En terminos de la primera ley 192 (l) Q= 6 E + W Adernas, decimos que un sistema actua como un foco calorifico o dep6sito de calor, respecto a otro sistema rna~ pequefio, cuando es tan grande que su paramctro de temperatura pennanece escncialmcnte invariable, cualquiera que sea Ia cantidad de calor Q que haya absorbido del sistema mas pequefio. Si un deposito de calor a Ia temperatura T absorbe una cantidad de calor Q, se define Ia propiedad Hamada entropia del deposito tal que, su variacion es 6 S = Q/T. Y para un sistema en contacto con dicho deposito de ralor y cuya temperatura difiere infinitesimalmente de Ia temperatura T del deposito . ~S= Q/T, don de $ Q es el calor absorbido por el sistema. TEOREMA DE CLAUSIUS Y LA DEFINICION DE ENTROPIA En 1865 Clausius establccio cl siguiente teorema: "En cualquier transformacion ciclica a traves de Ia cualla temperatura esta perfcctamcnte dcfinida, se cumple Ia siguiente desigualdad 0 (2) donde Ia integral se extiende sobre un ciclo de Ia transformacion. La igualdad se cumplc si Ia transformacion es cuasi-estatica (reversible). Para una transformacion cuasi-estatica, Ia integral f (lQ/T es independit:_nte de Ia trayectoria y depende solamente de los estados de equilibrio inicial y final de Ia transformacion". En lo anterior entendemos por proceso cuasi-estatico (reversible), si el sistema al interaccionar con otros sistemas lo haec tan lentamente que, siempre permanece arbitrariamente proximo al equilibrio en. todas las fases de dicho proceso. EI rcsultado anterior permite definir una funcion de cstado, Ia entropia, S tal que Ia diferencia de entropia entre dos estados de equilibrio i y f es: (3) donde el subindicc eq indica explicitamente el hccho de que Ia integral debe calcularse para cualquir proceso cuasi- estatico (reversible). Entonces, para una transformacion infinitesimal cuasi- estatica (reversible), el cambio en entropla esta dado por : dS= 00 T (4) Ia cual es una diferencial exacta. La ecuacion anterior es Ia formulacion matematica de Ia segunda ley de Ia termodinamica. 193 PROPIEDADES DE LA ENTROPIA a) Para una transformacion arbitraria (5) donde Ia igualdad se cumple solamente si Ia transformaciOn. es cuasi-estatica b) Segunda Ley: Un macroestado de equilibrio de un sistema pucde caracterizarse por una cantidad S, Ia entropia, que tiene las siguientes propiedades. l) La entropia de un sistema termicamente aislado nunca decrece, es decir, (6) Ia igualdad se cumple si Ia transformacion es cuasi-estatica. Una inmediata consecuencia de lo anterior es que para un sistema termicamente aislado, el estado de equilihrio es aquel de entropia maxima consistente con las restricciones (ligaduras) externas. De otra manera, si el sistema no esta en equilihrio, evolucionara naturalmente en Ia direccion en Ia cual la entropia aumenta. 2) Si el sistema no esta aislado y sufre un proceso cuasi-estatico infinitesimal en el cual ahsorbe una cantidad de calor aQ, entonces d S = aQ/T, donde T es Ia temperatura absoluta del sistema. c) Tercera ley: La entropia S de un sistema tiene Ia propiedad limite de que cuanto T .. 0, s .. S 0 (7) siendo S0 una constante independiente de todos los parametros del sistema particular. Generalmente S0 = 0. d) La en tropia es una magnitud extensiva, ya que el calor absorhido lo es. CALCULOS DE VARIACIONES DE ENTROPIA Si consideramos un sistema termodinamico cuyos parametros sean p, V y T (presiOn., volumen y temperatura), comhinando Ia primera con la segundaley ohtenemos una pareja de ecuaciones comunmente conocidas como ecuaciones T ds TdS=aQ=~d'f +exT_ dV (8) Kt T dS = u Q =CP d'f - 0( TV dp (9) que perrniten el cruculo de variacion de entropia entre dos estados descritos por las parejas de variables independientes (V, 'f) o (p, 'f). Si los estados estan a lo largo de una isoterma, b.S =Q/T, como por ejemplo en los cambios de fase de primer orden, don de el camhio en en tropia es- simplemente b.S = L/T, siendo L el calor de transformacion. Es interesante notar que el cambio en entropia producido al vaporizarse l mol de un liquido a su punto normal de vaporizacion, es aproximadamente el mismo para muchos liquidos, alrededor de 20 e cal/K, (regia de Trouton). 194 Si los estados estan concetados por una adiabatiea !::.S = 0, esta transformacion se denomina isentropica. Si el proceso noes cuasi-estatico, I::.S =F 0. LA DEFINICION ESTADISTICA DE ENTROPIA. Boltzmann define Ia entropia de un sistema termodinamico como : S--= kIn 12(E, x1 ..... ) (10) donde k es Ia constante de Boltzmann (k = 1.38054 X 10 - 23 Joulesi'K) yA (E, Xl····) es el numero total de estados accesibles al sistema, que en general es funcion de·la energia interna y de los panimetros externos. El comportarniento de ..c:(E, X1····) condiciona el de S. Es interesante hacer no tar que si se eliminan ciertas ligaduras a un sistema aislado, los parametros extemos tienden a ajustarse de tal manera que .12 (E, XJ .. .. ) tiende a un maximo. Ademas, una espccifieacion cuantica de los estados accesibles de un sistema implica que ..l2(E, X}···) esta completamente determinado y S tiene un valor "lmico" calculable a partir del conocimiento microscopico del sistema. El comportamiento limite de S cuando T tiende a cero, (tercera ley) es evidente de Ia definicion anterior, ya que en estas circunstancias ocurre que-..L2(E, XJ ... ) es igual a Ia unidad 0 es un numero relativamente pequefio. De acuerdo con Gibbs, para un sistema fisico espacialmente confinado y en equi!ibrio a Ia temperatura de T grados Kelvin, Ia entropia es S = -'k ~ P· In P· J J (11) donde el indice de suma recorre sobre un conjunto completo de estados propios (eigenstates) del sistema, y no solo sobre los niveles de energla. Pj es Ia probabilidad de encontrar al sistema en el estado j, dada por: (12) donde Ej es el autovalor de Ia energia del estado j, (3 = 1/ kT, y Z =~ e-~ Fi, es Ia funcion suma sobre estados o funcion de particion. Puede demostrarse que las definiciones de Boltzmann y de Gibbs son equivalentes. El concepto de entropia se ha extendido a muchos campos del conocimiento hurnano, especialmente en Ia teoria de probabilidades, Ia estadistica, Ia lingulstica y el aruilisis numerico. Sin embargo es en Ia teoria matematica de los procesos de informacion que ha alcanzado un desarrollo considerable. Se define Ia informacion asociada con un evento aleatorio como H = -~ Pj In Pj. Donde Pj es Ia probabilidad de ocurrencia de Ia forma j del evento. Por su semejanza con Ia de~inicior: (ll) se le da a H tambien cl nombre de entropia. La en tropia juega un papcl importante en Ia teoria de Ia informacion, proporciona una medida de Ia informacion y entonces tiene acceso a las diferentes ramas del pensarniento humano. 195 BIBLIOGRAFIA F. Rei£. Fundamentals of Statistical and Thermal Physics. M.W, Semansky. Heat and Thermodinamics. A. I. Khinchin. Mathematical Foundations of Information Theroy A. I. Khinchin. Statistical Mechanics L. Brillouin. Science and Information Theory. H. 13. Callen. Thermodynamics K. Dutta. A Hundred Years of Entopy. Phisics Today 21-1-1969 R Baierlein. Forces Uncertainty, and Gibbs Entropy American Journal of Physict, 36-7- 1968. 111