Y el tiempo fluye...II J. Rubén G. Cárdenas. La teoría de relatividad de Einstein, niega el significado absoluto y universal del momento actual, por lo tanto la abstracción contenida en la frase ?el tiempo fluye? es definitivamente discutible (Ver: El tiempo fluye I). Por mera convención, la flecha del tiempo apunta en dirección al futuro y aunque la recta del tiempo indique una dirección no indica una velocidad, es como decir que porque una brújula apunte al Norte, entonces se dirige hacia ahí. Las posibles direcciones del eje temporal, pasado y futuro, simulan precisamente una antisimetría, no un movimiento, la flecha del tiempo denota una antisimetría en el tiempo, no una simetría del o en el tiempo. Es decir, hablar del pasado y del futuro (en este contexto) tiene tan poco significado como hablar del arriba o del abajo. Sin embargo, negar que el tiempo fluya no significa que los conceptos de ?pasado? y ?futuro? carezcan de fundamento físico. Definitivamente los hechos cotidianos parecieran llevar una secuencia unidireccional de la que habla la teoría termodinámica clásica en cuanto a procesos irreversibles, como que un bañista se arroje desde un trampolín hacia una alberca ó que una casa con explosivos dentro explote en pedazos; jamás se ha visto a un bañista salir disparado de la alberca hacia el trampolín o a una casa reconstruirse a partir de una explosión. Puesto que la naturaleza presenta muchos casos de procesos irreversibles, la segunda ley de la termodinámica desempeña un papel importante en dotar al mundo de una asimetría entre las direcciones del pasado y del futuro a lo largo del eje del tiempo. Otro de los aspectos que tienden a crear la impresión de que el tiempo fluye es la diferencia del pasado y el futuro, para la termodinámica clásica, esto se explica en términos de entropía. La entropía es una consecuencia de la segunda ley de la termodinámica y es la medida de degradación de la energía que tiene un sistema cerrado y que se incrementa con el tiempo. Podemos pensar en la degradación de la energía como en la cantidad de energía de la que puede disponer un sistema, que ya no es la misma después de un cierto tiempo, esto es, ya no es ?accesible? para el sistema; por esto la entropía es la responsable de que nuestras células ?envejezcan? y nuestra vida termine. Generalmente se habla de que la entropía mide el grado de ?desorden? de un sistema, pero si se piensa así lo que se hace en realidad, es relacionar al término de ?menos desordenado? con las posibilidades del sistema a ?acceder? a energía y al término de ?mas desordenado? con el hecho de que, después de un intervalo de tiempo existe una cantidad de energía que ya no está disponible para ningún proceso; pero se habla de energía todo el tiempo. La termodinámica clásica define muy bien cuales son los sistemas cerrados y en ellos, no cabe duda, la entropía aumenta. Sin embargo, el mismo problema puede ser abordado con un enfoque distinto, Ludwig Boltzmann en el siglo XIX dio una posible explicación de tipo probabilística; considerando que la entropía aumenta con el tiempo, existen más probabilidades de que un sistema esté en desorden a que esté en orden. Si el sistema está mas o menos ordenado ahora probablemente esté mas desordenado dentro de un instante, razonamiento que es simétrico en el tiempo: También el sistema era probablemente mas desordenado hace un instante. El físico austriaco Ludwig Boltzmann (1844-1906), logró proporcionar una profunda interpretación a la ley de la degradación de la energía al hacerse la pregunta de ¿por qué crece la entropía siempre con cada acontecer espontáneo en la naturaleza? Al vincular la teoría cinética con la termodinámica, Boltzmann buscó la solución a la pregunta anterior en el carácter peculiar del calor desde el punto de vista estadístico, como un efecto, en nuestra escala macroscópica debido al incesante movimiento molecular presente en la escala microscópica. Sin embargo, ya James Maxwell había puesto en evidencia que el cálculo permite asociar a cada estado global del sistema, caracterizado por las posiciones y velocidades de sus partículas, una cierta y bien definida probabilidad. Basado en esto, Boltzmann llegó a la conclusión de que la entropía (S) de un sistema aislado está ligada a la probabilidad (p) de su estado actual por la relación S ? k log p + C , siendo k y C constantes. La entropía es, pues, proporcional al logaritmo de la probabilidad del estado en que el sistema se encuentra, de donde resulta que la variación de la entropía entre dos estados sucesivos, es proporcional a la diferencia logarítmica de las probabilidades de estos dos estados. Como esa diferencia es siempre positiva, dado que la entropía es una función creciente, se sigue que la probabilidad del estado posterior debe ser siempre mayor que la del estado anterior. De este modo, en la perspectiva del teorema de Boltzmann el aumento ininterrumpido de la entropía pierde su carácter enigmático: traduce el pasaje del mundo de un estado menos probable a estados cada vez más probables. La ciencia apenas se está ocupando de lo que significa el tiempo en todas sus dimensiones y no es de extrañar que los humanos contemos con un órgano responsable de que esa sensación sea tan real para cada uno de nosotros. De cualquier modo el tiempo, como concepto, nos rebasa en acaecimiento y en imaginación por lo que harán falta debates aún muy largos casi ?atemporales? sobre su significado. Bibliografía. ?The Unreality of Time? . John Ellis Mc Taggart. Mind .vol17. 1908. ?Real Time? Gary Stix. Scientific American, Año 1 Num. 5 .Año 2002. Ver: Sarmiento, Antonio. El fantasma cuyo andar deja huella. La ciencia para todos 103. Fonde de Cultura Económica 2000,México. Sarmiento, Antonio. Los disfraces del fantasma que nos horada. La ciencia desde México 134. FCE 1994.México. Hacyan, Shahen. Relatividad para principiantes. La ciencia para todos 78. FCE 2002. México. F.Reif.? Statistical Physics? . Mc Grow Hill. España. 1969.