TRADUCCIÓN Reduccionismo y emergencia De manera que no puedo entrar al detalle, a lo exacto, sino únicamente a lo general, lo aproximado. Aún allí donde debería de detenerme, volverme más explícito, me arrastra la corriente del discurso... 2) Friedrich Dürrenmatt, “Cohesiones”, Editorial Arche, Zürich 1976 Lo poco que sé de Max Planck y lo cual posiblemente no es del conocimiento de todos, lo aprendí como estudiante de Res Jost. Adonde él escuché una lectura científicahistórica sobre Max Planck, especialmente de sus controversias con Ludwig Boltzmann, sus paseos errantes al imperio de la irreversibilidad y finalmente su grandioso triunfo con la fórmula para la densidad de energía espectral de la radiación del vacío. Aquí está: (ver texto original) De esta fórmula, de las constantes de gas R, de las constantes de Faraday F para electrolitos y de la ley de fuerza de gravitación de Newton, Planck destiló algo como una agenda para la física del siglo veinte y – con miras hacia delante y la inseguridad con la que uno habla del futuro – la del siglo veintiuno; sin embargo sin sospechar todo el alcance de sus simples deliberaciones teóricas. En la fórmula de Planck y la ley de gravitación de Newton aparecen todas las constantes naturales fundamentales adolecidas de dimensiones: la velocidad de la luz, ya conocida de la óptica y la electrodinámica c; las constantes naturales k y h denominadas por primera vez por Planck en una comparación de su fórmula con el experimento, es decir la constante de Boltzmann y la cantidad de efecto de Planck la cifra de Loschmidt N de los átomos en un ‘Mol Gas’ se define entonces de R y k, la carga elemental e de N y F. finalmente la constante Gn de Newton que aparece en la ley de gravitación , la cantidad de efecto y la velocidad de la luz definen conjuntamente una longitud fundamental, la denominada longitud Planck lp. Cada una de las cuatro constantes k, c, h y lp, respectivamente diferentes combinaciones de las mismas, representan una revolución de la visión del mundo físico que se llevó a cabo durante el siglo veinte; empero la combinación de todas las cuatro constantes representa una revolución que, como indicado por las diferentes revoluciones ‘Superstring’, se tendrá que llevar a cabo en un futuro cercano o más lejano. Es una importante característica de esta revolución que ‘puede mejorar y ampliar, pero nunca destruir las ideas de nuestros antecesores’; lo cual como es sabido no se puede afirmar de las revoluciones políticas. ¿Que tienen que ver las constantes k, c, h, y lp con cambios revolucionarios en la visión del mundo físico? De experiencias que hemos podido coleccionar en las transiciones de la mecánica de Newton a la relativista, de la termodinámica a la mecánica estadística, de la teoría de la relatividad especial a la general y de la mecánica cuantitativa de Hamilton concluimos que las constantes naturales k, c-1, h y lp juegan – matemáticamente hablando – los papeles de parámetros de deformación. Se deben de diferenciar de las relaciones entre parámetros de escala, como entre la Rydberg y la escala QCD, o de la -2masa del ‘Z-Bosons’ y de las constantes de acoplamiento sin dimensiones, así como de las constantes de estructura fina o las constantes de acoplamiento del modelo estándar de Yukawa. Donde estos últimos se pueden interpretar como módulos que parametrizan las familias de teorías, la transición de una teoría con k=0, h=0, ... a una teoría con k-0, h-0 (ver texto original)..., un cambio fundamental en la estructura matemática de la descripción teórica. Deformar una familia de teorías en una nueva teoría es el tema de la teoría de la deformación; la transición de una descripción efectiva de los procesos naturales en una escala microscópica a una descripción efectiva en una escala macroscópica se puede entender como la materia central de la teoría de la re-estandarización de grupos. Teoría de deformación es álgebra, teoría de re-estandarización de grupos es análisis. Esfuerzos teóricos los cuales le encuentran las deformaciones correspondientes de la estructura matemática de teorías físicas a las constantes k, c-1, h y lp, ergo ultimadamente el marco básico teórico de la descripción natural física, están en el centro del programa del reduccionismo que jugó un papel central en la física del siglo veinte. Localizar las consecuencias de teorías conocidas en el nivel microscópico en diferentes áreas marginales, en especial en niveles accesibles a la experiencia experimental, confronta al físico con el fenómenos de la emergencia. Los progresos significativos de la física teórica también en el futuro se basarán en los progresos de las teorías de la deformación y de la re-estandarización de grupos, de tales en álgebra, geometría y el análisis y naturalmente en la interpretación de nuevos datos experimentales; se lograrán con medios matemáticos y heurísticos estrictos, por reduccionistas y aquellos que estudian fenómenos emergentes – tal como en el siglo veinte. La guerra de ideas ‘Reduccionismo contra Emergencia’ no es más que una lucha por recursos y puestos. Deformación y re-estandarización Considerando todas las cosas me parece probable que Dios en un principio formó materia en partículas sólidas, masivas, duras, impenetrables y movibles.... 3) Isaac Newton “Ópticas’ Sin el teorema de Newton para la ley de fuerza 1/r2 , y si los cuerpos celestiales fueran menos estáticos y bola-simétricos, la mecánica clásica hubiera tenido que surgir como una mecánica de medios continuos con grados de libertades infinitos, tal como Euler ya la emprendió a desarrollar. Aunque la hipótesis del átomo surgió en la edad antigua griega y aunque desde finales del siglo 18 les pareció evidente como elemento fundamental de la descripción natural a los químicos, se integró hasta los trabajos de Maxwell, Boltzmann, Einstein, Smoluchowski y Gibbs. La transición de la teoría del continuismo al atomismo, de la termodinámica a la mecánica estadística se señaliza en las constantes k de Boltzmann. La estructura atomística de la materia, combinada con el magnetismo eléctrico ha sacudido las estructuras de la física clásica en sus fundamentos. La medida de Liouville sobre el espacio de fases de un sistema con f grados de libertad, fundamental para la mecánica estadística , tiene la dimensión (efecto) f. Para poder calcular con ella sumas existentes sin dimensiones, se tiene que introducir a la teoría una cantidad con la dimensión de un efecto y, para llegar a potenciales termodinámicos extensivos, partículas idénticas tienen que ser tratadas como diferenciables, tal como lo reconoció J.W. Gibbs. La deformación de una teoría -3de continuismo a una teoría atomista de la materia hubiera tenido que llamar a aquellos de la mecánica clásica a la mecánica cuántica, si Planck no hubiera descubierto la teoría cuántica antes de Einstein y Gibbs, intentando de tratar la radiación del vacío con las reglas de una mecánica estadística en estado de formación, lo cual no es realizable en forma consistente en el marco de la física clásica. La deformación de la mecánica clásica de Hamilton a la mecánica cuántica está acompañada de un cambio radical del concepto de estado. Expresado matemáticamente corresponde a una deformación de la geometría simpléctica a la geometría no conmutativa, unitaria de “espacios de fases mecánicos-cuantitativos”. En ella también ya está escondido el principio de Eich. Con las deformaciones de una teoría de continuismo a una atomista y de la mecánica de Hamilton a una cuántica, bajo conservación del principio espacio-tiempo de Newton, se hubiese podido ‘vivir’ cómodamente – si no existiera la electrodinámica, la cual se resistía tenazmente a dejarse identificar como un fenómeno emergente de un modelo del éter mecanista. Ella pedía una deformación del espacio-tiempo de Newton al de Minkowski, del grupo Galilei al de Poincaré, y una reconstrucción relativista de la mecánica; parámetro de deformación = c-1! Las deformaciones correspondientes a k, h y c-1 dejaron emerger una co-variante relativista de la teoría cuántica de Poincaré, la teoría de campo cuántico relativista, la cual constituye un tema central en la investigación de todas las generaciones de doctrinarios desde 1927, incluyendo la mía propia. Donde se edifica la mecánica cuántica no relativista en el concepto de sistemas físicos con grados de libertad definidos, sistemas de la teoría cuántica relativista requieren de grados de libertad infinitos. Es una teoría de continuismo que se basa en forma central en el concepto de campo. Sistemas de la teoría cuántica de campo pueden ocupar estados en los cuales se incitan cualquier cantidad de grados de libertad en áreas pequeñas discrecionales de espacio-tiempo; entre más mayor la energía. Esa condición conduce a las bien conocidas divergencias ultravioletas en el tratamiento alterado-teórico de teorías de campo cuántico, cuyo dominio fue y es uno de los objetos centrales de investigación de mi generación y la de mis maestros. A ella se debe la creación de la teoría de reestandarización, en particular la del grupo de re-estandarización. Si se coloca k=h=0, sin embargo c-1, lp-0 (ver texto original) se llega con Einstein a una teoría relativista de la gravitación, la teoría general de la relatividad. La gravitación se entiende como una consecuencia de la curvatura del espacio-tiempo. El tiempo-espacio se convierte en un medio dinámico y continuo con grados de libertad infinitos. Con la electrodinámica cuantitativa y la teoría general de la relatividad aparecen por primera vez grupos simétricos de dimensiones infinitas, los grupos de Eich y difeomorfismos, en la escena de la física. Posteriormente se descubrirán en esta área las anomalías. Para una descripción consistente matemática de la naturaleza, en la cual todas las constantes k, h, c-1 y lp tienen el valor 1 en unidades naturales de Planck, nos falta un fundamento conceptual asegurado. La teoría relativista de campo cuántico se entiende como una teoría cuántica local y causal. La formulación precisa de localidad y casualidad requiere la definición de un atado de conos luminosos. ¡Una teoría de gravitación relativista le quita a la teoría cuántica de campo precisamente este fundamento esencial! Una cosa parece cierta: una teoría cuántica relativista de materia, radiación y gravitación tendrá como consecuencia cambios revolucionarios en el concepto de espacio-tiempo. Como se argumentó repetidamente, de último por Doplicher, -4Fredenhagen y Roberts, en tales teorías en el mejor de los casos se pueden localizar eventos en áreas de espacio-tiempo de una extensión mediana =lp (ver texto original), lo cual tiene que tener como consecuencia que en células de espacio-tiempo de extensión limitada solamente se incitan grados de libertad limitados (y con eso se deberían de haber limitado todas las divergencias ultravioletas), y que el espacio-tiempo tiene que tener “características mecánicas cuánticas” aún en escalas muy pequeñas. La teoría ‘Superstring’ actualmente se acerca más a tales conceptos. Su relación a una teoría cuántica relativista de materia, radiación y gravitación se podría comparar comprensiblemente a aquella de la teoría cuántica de construcción del átomo de Bohr y Sommerfeld a la mecánica cuántica, como la que fue descubierta por Born, Heisenberg, Jordan, Schrödinger y Pauli. Resumo estas exposiciones en una representación gráfica (ver cuadro 1). 2. La nueva teoría tiene que reproducir a las teorías antecesoras en áreas marginales Comencemos con una pregunta que solo en el futuro se podrá formular en forma precisa (aún cuando en la actualidad ya se trabaja en ella). - lp-0 (ver texto original): ¿Cómo se pueden deducir de la teoría M teorías de campo realistas, como el modelo estándar de la física de pequeñas partículas, en área marginal de frente a energías profundas de la escala de Planck? Con más probabilidades de éxito ya se puede trabajar en preguntas de la siguiente clase: - C-1-0 (ver texto original): ¿Cómo se pueden deducir modelos de la mecánica cuántica no relativista en el área marginal de fuerzas débiles entre partículas compuestas y – frente a la velocidad de la luz – velocidades bajas, de aquellas de la teoría cuántica de campo? (lemas aquí son: física de átomos livianos, enlaces químicos, ecuación Bethe-Salpeter ...). Considero que una de las preguntas realmente centrales – que ya fue planteada en 1926 por Schrödinger y desde entonces todavía espera una respuesta satisfactoria y compleja: - h-0 (ver texto original): ¿En cual área experimental relevante, para cual conjunto de condiciones y que clase de dimensiones observadas se vuelve precisa la dinámica de sistemas mecánicos cuánticos por una aproximación de la dinámica clásica (Hamilton)? Esta pregunta está cercanamente ligada a aquella de la interpretación de la mecánica cuántica, la cual con justa razón todavía es causa de debates severos: - k-0 (ver texto original): ¿En que conjunto de condiciones se deja aproximar la dinámica de un sistema grande no relativista de partículas múltiples por una ecuación de Boltzmann o por ecuaciones hidrodinámicas? ¡Teoría del transporte! TRADUCIDO POR ANDRÉ HAWENER CORTESÍA DE LA CÁMARA ALEMANA-SALVADOREÑA DE COMERCIO E INDUSTRIA