INTRODUCCION La física es una ciencia fundamental que tiene una profunda influencia en todas las otras ciencias. Por consiguiente, no sólo los estudiantes de física e ingeniería, sino todo aquel que piense seguir una carrera científica (biología, química y matemática) debe tener una completa comprensión de sus ideas fundamentales. La palabra física viene del término griego que significa naturaleza, y por ello la física debía ser una ciencia dedicada al estudio de todos los fenómenos naturales. La física es una ciencia muy compleja y desarrollada, pero a la vez muy simple, puesto que trata de las características más simples y fundamentales que son comunes a cualquier proceso, sistema, fenómeno, etc. Es la ciencia más general, puesto que sus principios son independientes de la naturaleza particular del objeto de estudio, y son válidos para cualquier fenómeno que se produzca en la naturaleza. La simplicidad de la física reside en que sus principios fundamentales son únicamente dos. Efectivamente, todo lo que enseña la física acerca de la naturaleza puede resumirse en dos afirmaciones. Ahora bien, tales afirmaciones o principios distan mucho de ser obvios, y su comprensión requiere un importante esfuerzo y preparación conceptual. Por ejemplo, para su correcta comprensión es necesaria una preparación matemática que permita el manejo de diversos conceptos matemáticos, tales como fuerza, trabajo, energía, etc. Decimos esto porque a menudo se tiene la impresión de que la física afirma muchas y complejas cosas, y uno difícilmente llega a comprender la verdadera enseñanza de la física. La física se estructura en diversas ramas o subdisciplinas. Desde un punto de vista estrictamente teórico, Por tanto bajo este enfoque observaras que la física se divide en dos áreas teóricas: la mecánica y la termodinámica. Además sus disciplinas tienen ya un carácter aplicado, como por ejemplo, la dinámica de fluidos, el electromagnetismo, la electrónica, la acústica, la física molecular, atómica y nuclear, la óptica, la química física, la física del estado sólido, etc. Todas ellas se fundamentan en la mecánica (clásica y cuántica) y la termodinámica. Estos temas incluyen a dos grandes grupos de la física la clásica y la moderna I. MECÁNICA. Rama de la física que se ocupa del movimiento de los objetos y de su respuesta a las fuerzas. Las descripciones modernas del movimiento comienzan con una definición cuidadosa de magnitudes como el desplazamiento, el tiempo, la velocidad, la aceleración, la masa y la fuerza. Sin embargo, hasta hace unos 400 años el movimiento se explicaba desde un punto de vista muy distinto. Por ejemplo, los científicos razonaban —siguiendo las ideas del filósofo y científico griego Aristóteles— que una bala de cañón cae porque su posición natural está en el suelo; el Sol, la Luna y las estrellas describen círculos alrededor de la Tierra porque los cuerpos celestes se mueven por naturaleza en círculos perfectos. El físico y astrónomo italiano Galileo reunió las ideas de otros grandes pensadores de su tiempo y empezó a analizar el movimiento a partir de la distancia recorrida desde un punto de partida y del tiempo transcurrido. Demostró que la velocidad de los objetos que caen aumenta continuamente durante su caída. Esta aceleración es la misma para objetos pesados o ligeros, siempre que no se tenga en cuenta la resistencia del aire (rozamiento). El matemático y físico británico Isaac Newton mejoró este análisis al definir la fuerza y la masa, y relacionarlas con la aceleración. Para los objetos que se desplazan a velocidades próximas a la velocidad de la luz, las leyes de Newton han sido sustituidas por la teoría de la relatividad de Albert Einstein. Para las partículas atómicas y subatómicas, las leyes de Newton han sido sustituidas por la teoría cuántica. Pero para los fenómenos de la vida diaria, las tres leyes del movimiento de Newton siguen siendo la piedra angular de la dinámica (el estudio de las causas del cambio en el movimiento). 1.1. SISTEMA BIDIMENSIONAL 1.1.1. TIRO PARABÓLICO En este programa, se estudia un caso particular de movimiento curvilíneo, el tiro parabólico, que es la composición de dos movimientos: Uniforme a lo largo del eje X. Uniformemente acelerado a lo largo del eje vertical Y. Para resolver un problema de tiro parabólico es necesario seguir los siguientes pasos 1.-Establecer el sistema de referencia, es decir, el origen y los ejes horizontal X, y vertical Y 2.-Determinar el valor y el signo de la aceleración vertical 3.-Las componentes de la velocidad inicial (incluido el signo) 4.-La posición inicial 5.-Escribir las ecuaciones del movimiento 6.-A partir de los datos, hallar las incógnitas 1.1.1 Interpretación grafica del tiro parabólico Las ecuaciones del movimiento de un proyectil bajo la aceleración constante de la gravedad son: Eliminado el tiempo en las ecuaciones que nos dan las posiciones x e y, obtenemos la ecuación de la trayectoria, que tiene la forma y=ax2 +bx +c, lo que representa una parábola. Obtenemos la altura máxima, cuando la componente vertical de la velocidad vy es cero; el alcance horizontal x cuando el cuerpo retorna al suelo y=0. Las ecuaciones del movimiento de un proyectil bajo la aceleración constante de la gravedad son: Eliminado el tiempo en las ecuaciones que nos dan las posiciones x e y, obtenemos la ecuación de la trayectoria, que tiene la forma y=ax2 +bx +c, lo que representa una parábola. Obtenemos la altura máxima, cuando la componente vertical de la velocidad vy es En la figura tenemos un proyectil que se ha disparado con una velocidad inicial v0, haciendo un ángulo con la horizontal, las componentes de la velocidad inicial son Como el tiro parabólico es la composición de dos movimientos: movimiento rectilíneo y uniforme a lo largo del eje X uniformemente acelerado a lo largo del eje Y cero; el alcance horizontal x cuando el cuerpo retorna al suelo y=0. 1.1.3. MOVIMIENTO CIRCULAR Se define movimiento circular como aquél cuya trayectoria es una circunferencia. Una vez situado el origen O de ángulos describimos el movimiento circular mediante las siguientes magnitudes. Posición angular, En el instante t el móvil se encuentra en el punto P. Su posición angular viene dada por el ángulo , que hace el punto P, el centro de la circunferencia C y el origen de ángulos O. El ángulo , es el cociente entre la longitud del arco s y el radio de la circunferencia r, posición angular es el cociente =s/r. La entre dos longitudes y por tanto, no tiene dimensiones. En la figura tenemos un proyectil que se ha disparado con una velocidad inicial v0, haciendo un ángulo con la horizontal, las componentes de la velocidad inicial son Como el tiro parabólico es la composición de dos movimientos: movimiento rectilíneo y uniforme a lo largo del eje X uniformemente acelerado a lo largo del eje Y 1.1.4. VELOCIDAD ANGULAR En el instante t' el móvil se encontrará en la posición P' dada por el ángulo habrá desplazado tiempo = ' - '. El móvil se en el intervalo de t=t'-t comprendido entre t y t'. Se denomina velocidad angular media al cociente entre el desplazamiento y el tiempo. Como ya se explicó en el movimiento rectilíneo, la velocidad angular en un instante se obtiene calculando la velocidad angular media en un intervalo de tiempo que tiende a cero. 1.1.4. Aceleración angular Si en el instante t la velocidad angular del móvil es y en el instante t' la velocidad angular del móvil es '. La velocidad angular del móvil ha cambiado = ' - en el intervalo de tiempo t=t'-t comprendido entre t y t'. Se denomina aceleración angular media al cociente entre el cambio de velocidad angular y el intervalo de tiempo que tarda en efectuar dicho cambio. La aceleración angular en un instante, se obtiene calculando la aceleración angular media en un intervalo de tiempo que tiende a cero. Dada la velocidad angular, hallar el desplazamiento angular Si conocemos un registro de la velocidad angular del móvil podemos calcular su desplazamiento El producto - 0 entre los instantes t0 y t, mediante la integral definida. dt representa el desplazamiento angular del móvil entre los instantes t y t+dt, o en el intervalo dt. El desplazamiento total es la suma de los infinitos desplazamientos angulares infinitesimales entre los instantes t0 y t. En la figura, se muestra una gráfica de la velocidad angular en función del tiempo, el área en color azul mide el desplazamiento angular total del móvil entre los instantes t0 y t, el arco en color azul marcado en la circunferencia. Hallamos la posición angular inicial 0 del móvil en el instante t, sumando la posición al desplazamiento, calculado mediante la medida del área bajo la curva -t o mediante cálculo de la integral definida en la fórmula anterior. Dada la aceleración angular, hallar el cambio de velocidad angular Del mismo modo que hemos calculado el desplazamiento angular del móvil entre los instantes t0 y t, a partir de un registro de la velocidad angular tiempo t, podemos calcular el cambio de velocidad - 0 en función del que experimenta el móvil entre dichos instantes, a partir de una gráfica de la aceleración angular en función del tiempo. En la figura, el cambio de velocidad área bajo la curva - 0 es el - t, o el valor numérico de la integral definida en la fórmula anterior. Conociendo el cambio de velocidad angular y el valor inicial 0 0, en el instante inicial t0, podemos calcular la velocidad angular instante t. - en el Resumiendo, las fórmulas empleadas para resolver problemas de movimiento circular son similares a las del movimiento rectilíneo. 1.2. Movimiento circular uniforme Un movimiento circular uniforme es aquél cuya velocidad angular es constante, por tanto, la aceleración angular es cero. La posición angular del móvil en el instante t lo podemos calcular integrando - 0= (t-t0) o gráficamente, en la representación de en función de t. Habitualmente, el instante inicial t0 se toma como cero. Las ecuaciones del movimiento circular uniforme son análogas a las del movimiento rectilíneo uniforme Movimiento circular uniformemente acelerado Un movimiento circular uniformemente acelerado es aquél cuya aceleración es constante. Dada la aceleración angular podemos obtener el cambio de velocidad angular - 0 entre los instantes t0 y t, mediante integración, o gráficamente. Dada la velocidad angular en función del tiempo, obtenemos el desplazamiento - 0 del móvil entre los instantes t0 y t, gráficamente (área de un rectángulo + área de un triángulo), o integrando Habitualmente, el instante inicial t0 se toma como cero. Las fórmulas del movimiento circular uniformemente acelerado son análogas a las del movimiento rectilíneo uniformemente acelerado. Despejando el tiempo t en la segunda ecuación y sustituyéndola en la tercera, relacionamos la velocidad angular ù con el desplazamiento è-è0 1.2 SISTEMA TRIDIMENSIONAL 1.2.1 CONDICIONES DE EQUILIBRIO. El equilibrio mecánico es una situación estacionaria en la que la se cumplen una de estas dos condiciones: (1) Un sistema está en equilibrio mecánico cuando la suma de fuerzas y momentos, sobre cada partícula del sistema es cero. (2) Un sistema está en equilibrio mecánico si su posición en el espacio de configuración es un punto en el que el gradiente de energía potencial es cero. La alternativa (2) de definición equilibrio que es más general y útil (especialmente en mecánica de medios continuos). Definición basada en equilibrio de fuerzas Como consecuencia de las leyes de la mecánica, una partícula en equilibrio no sufre aceleración lineal ni de rotación, pero puede estar moviéndose a velocidad uniforme o rotar a velocidad angular uniforme. Esto es ampliable a un sólido rígido. Las ecuaciones necesarias y suficientes de equilibrio mecánico son: Una partícula o un sólido rígido esta en equilibrio de traslación cuando: la suma de todas las fuerzas que actúan sobre el cuerpo es cero. En el espacio, tiene tres ecuaciones de fuerzas, una por dimensión; Descomponiendo cada fuerza en sus coordenadas tenemos: Y como un vector es cero, cuando cada una de sus componentes es cero, tenemos: 1. 2. 3. Un solidó rígido esta en equilibrio de traslación cuando la suma, de las componentes, de las fuerzas que actúan sobre él es cero. Un sólido rígido esta en equilibrio de rotación, si la suma de momentos sobre el cuerpo es cero. En el espacio tiene las tres ecuaciones una por dimensión; por un razonamiento similar al de las fuerzas: Resultando: 1. 2. 3. Un sólido rígido está en equilibrio de rotación cuando la suma de las componentes de los momentos que actúan sobre él es cero Un sólido rígido está en equilibrio si está en equilibrio de traslación y de rotación. Se distingue un tipo particular de equilibrio mecánico llamado equilibrio estático que correspondería a una situación en que el cuerpo está en reposo, con velocidad cero: una hoja de papel sobre un escritorio estará en equibrio mecánico y estático, un paracaidista cayendo a velocidad constante, dada por la velocidad límite estaría en equilibrio mecánico pero no estático. Definición basada en la energía potencial La definición (1) del principio de este artículo es de poca utilidad en mecánica de medios continuos, puesto que esa definición no es fácilmente generalizable a un medio continuo. Además dicha definición no proporciona información sobre uno de los aspectos más importantes del estado de equilibrio, la estabilidad. Para este tipo de sistemas lo más cómodi es usar la definición (2). Debido a la relación fundamental entre fuerza y energía, esta definición es equivalente a la primera definición (1). Además esta segunda definición puede extenderse fácilmente para definir el equilibrio estable. Si la función de energía potencial es diferenciable, entonces los puntos de equilibrio coincidirán con los puntos donde ocurra un máximo o un mínimo locales de la energía potencial. Estabilidad del equilibrio El análisis de la estabilidad del equilibrio puede llevarse a cabo estudiando los mínimos y máximos locales (extremos locales) de la función de energía potencial. Un resultado elemental del análisis matemático dice una condición necesaria para la existencia de un extremo local de una función diferenciable es que todas las derviadas primeras se anulen en algún punto. Para determinar problemas unidimensionales, comprobar si un punto de equilibrio es estable, inestable o indiferente implica verificar las derivadas segundas de la energía potencial: Un punto es de equilibrio inestable, si la segunda derivada de la energía potencial < 0 y por tanto la energía potencial tiene un máximo local. Si el sistema se sufre una desplazamiento ni que sea pequeño de su posición de equilibrio entonces se alejará más y más de él (de ahí el nombre inestabilidad para esa situación). Un punto es de equilibrio indiferente o neutral, si la segunda derivada = 0, entonces encontramos una región donde la energía no varía. Así si el sistema es desplazado de la posición de equilibrio una cantidad suficientemente pequeña, posiblemente no volverá a acercarse al equilibrio pero tampoco divergerá mucho de la posición anterior de equilibrio. Un punto es dequilibrio estable si la segunda derivada > 0 y por tanto la energía potencial tiene un mínimo local. La respuesta del sistema frente a pequeñas perturbaciones o un alejamiento arbitrariamente pequeño de del punto de equilibrio es volver u oscilar alrededor del punto de equilibrio. Si existe más de un punto de equilibrio estable para un sistema, entonces se dice que cualquiera de ellos cuya energía potencia es mayor que el mínimo absoluto representa un estado metaestable. Para problemas bidimensionales y tridimensionales (o más generalmente ndimensionales) la discusión anterior de la estabilidad se hace más complicada y requiere examinar la forma cuadrática Q(x1,...,xn) definida por la matriz hessiana de la energía potencial: Equilibrio estable, se da cuando la forma cuadrática Q(x1,...,xn) es definida positiva y, por tanto, todos sus autovalores son números positivos. Equilibrio totalmente inestable, se da cuando la forma cuadrática Q(x1,...,xn) es definida negativa, por tanto, todos sus autovalores son negativos. Equilibrio mixto inestable, se da cuando la forma cuadrática Q(x1,...,xn) es no es definida positiva y alguno de sus autovalores es negativo. Esto implica que según ciertas direcciones puede haber estabilidad unidimensional pero según otras habrá inestabilidad unidimensional 1.2.2 MOMENTO DE FUERZA En mecánica newtoniana, se denomina momento de fuerza, momentum, torque, par (o sencillamente momento) [respecto a un punto fijado B] a la magnitud que viene dada por el producto vectorial de una fuerza por un vector director. Más concretamente si llamamos F a una fuerza, aplicada en un punto A, su momento respecto a otro punto B viene dado por: Donde el vector director que va desde A a B. Por la propia definición del producto vectorial, el momento y es un vector perpendicular al plano formado por . Se expresa en unidades de fuerza por unidades de distancia. En el Sistema Internacional de Unidades resulta Newton·metro. Interpretación del momento El momento de una fuerza con respecto a un punto da a conocer en que medida existe tendencia en una fuerza o desequilibrio de fuerzas que pueda causar la rotación de un cuerpo con respecto a éste. Momento de una fuerza Supongamos que tenemos tres llaves que actúan sobre tres tornillos en la forma indicada por las figuras. Se aplica una fuerza F en el extremo de la llave. Es fácil contestar a las siguientes preguntas: ¿En qué situaciones se enrosca el tornillo? ¿En que situaciones se desenrosca el tornillo? ¿Cuáles producen el mismo resultado o son equivalentes?. En la primera figura, el tornillo avanza en una dirección perpendicular al plano de la página, y hacia el lector. El módulo del momento es F·d. En la segunda figura, el tornillo avanza en la misma dirección y sentido. El módulo del momento es F/2·(2d)=F·d. Con una llave más larga estamos en una situación más favorable que con una llave más corta. En la tercera figura, el tornillo avanza en la misma dirección pero en sentido contrario. Un momento se considera positivo, si el tornillo sale, avanza hacia el lector, la llave gira en sentido contrario al movimiento de las agujas del reloj. Un momento se considera negativo, si el tornillo entra, la llave gira en el sentido del movimiento de las agujas del reloj. Se denomina momento de una fuerza respecto de un punto, al producto vectorial del vector posición r de la fuerza por el vector fuerza F. M=r F El vector M tiene Por módulo, M=F·r·senè=F·d. Siendo d el brazo de la fuerza (la distancia desde el punto O a la dirección de la fuerza) Dirección, perpendicular al plano determinado por la fuerza F y el punto O. Sentido, la aplicación de la regla del sacacorchos La analogía de la llave y el tornillo, nos ayuda a entender el significado físico de la magnitud momento, y a determinar correctamente el módulo, la dirección y el sentido del momento de una fuerza: El módulo es el producto de la fuerza F por la longitud d de la llave. M=F·r·senè=F·d La dirección, es la del eje del tornillo, eje Z El sentido viene determinado por el avance del tornillo (hacia dentro, negativo) cuando hacemos girar a la llave. Varilla que pende de dos muelles La varilla delgada de masa m kg y longitud L pende de dos muelles elásticos verticales de constantes k1 y k2 y de longitudes l01 y l02 sin deformar, situados a una distancia d1 y d2 a uno y otro lado del c.m de la varilla La fuerza que ejerce el muelle situado a la izquierda del c.m. es F1=k1x1, donde x1 es la deformación del muelle La fuerza que ejerce el muelle situado a la derecha del c.m. es F2=k2x2, donde x2 es la deformación del muelle Cuando la varilla está en equilibrio en posición horizontal. La resultante de las fuerzas sobre la varilla debe ser cero y el momento resultante respecto del c.m. debe ser cero. k1x1+ k2x2=mg -k1x1·d1+ k2x2·d2=0 Despejamos x1 y x2 El muelle de la izquierda se ha de colgar de un punto situado a l1=l01+x1 por encima de la varilla horizontal El muelle de la derecha se ha de colgar de un punto situado a l2=l02+x2 por encima de la varilla horizontal Ejemplo: Constantes elásticas de los muelles: k1=50 N/m, k2=25 N/m Masa de la barra, m=1 kg Longitud de los muelles sin deformar, l01=l02=0.5 m Cuando d1=75 cm, d2=90 cm, las deformaciones son El muelle de la izquierda se ha de colgar de un punto situado a l1=50+10.7=60.7 cm por encima de la varilla horizontal El muelle de la derecha se ha de colgar de un punto situado a l2=50+17.8=67.8 cm por encima de la varilla horizontal 1.2.3 CENTRO DE MASA El centro de masas de un sistema discreto es el punto geométrico que dinámicamente se comporta como si estuviese sometido a la resultante de las fuerzas externas al sistema. De manera análoga. Normalmente se abrevia como CM. En física, el centroide, el centro de gravedad y el centro de masas pueden, bajo ciertas circunstancias, coincidir entre sí. En estos casos se suele utilizar los términos de manera intercambiable, aunque designan conceptos diferentes. El centroide es un concepto puramente geométrico mientras que los otros dos términos se relacionan con las propiedades físicas de un cuerpo. Para que el centroide coincida con el centro de masa, el objeto debe tener densidad uniforme, o la distribución de materia a través del objeto debe tener ciertas propiedades, tales como simetría. Para que un centroide coincida con el centro de gravedad, el centroide debe coincidir con el centro de masa y el objeto debe estar bajo la influencia de un campo gravitatorio uniforme. En un tratamiento de sistemas de masas puntuales el centro de masas es el punto donde se supone concentrada toda la masa del sistema. El concepto se utiliza para análisis físicos en los cuales no es importante considerar la distribución de masa. Por ejemplo, en las órbitas de los planetas. Un isobaricentro (iso: mismo) es un baricentro con todas las masas iguales entre sí; es usual en tal caso tomarlas iguales a 1. Si no se precisan las masas, el baricentro es por defecto el isobaricentro. El baricentro coincide con la noción física de centro de gravedad, también llamado centro de masa, en algunos casos como: El baricentro de {A, es el centro de masa del segmento [A;B], o sea de una barra de extremos A y B, de masa uniformemente distribuida. El baricentro de {A, B, es el centro de gravedad del triángulo ABC, suponiéndole una densidad superficial uniforme (por ejemplo, al recortar un triángulo en una hoja de cartón). Corresponde al punto donde se cortan las medianas. El triángulo de cartón se mantendrá en equilibro (inestable) en la punta de un lápiz o de un compás si éste está colocado justo debajo del centro de masa. El baricentro de un triángulo tiene además la propiedad de pertenecer a la recta de Euler. El baricentro de cuatro puntos {A, B, C, D} del espacio es el centro de gravedad del tetraedro, suponiéndole una densidad volúmica uniforme. Corresponde al punto donde se cortan los segmentos que unen cada vértice con el isobaricentro de la cara opuesta. Se puede generalizar lo anterior en cualquier dimensión. La coincidencia del baricentro y el centro de gravedad permite localizar el primero de una forma sencilla. Si tomamos el pedazo de cartón antes comentado y lo sujetamos verticalmente desde cualquiera de sus puntos, girará hasta que el centro de gravedad (baricentro) se sitúe justamente en la vertical del punto de sujeción; marcando dicha vertical sobre el cartón y repitiendo el proceso sujetando desde un segundo punto, encontraremos el baricentro en el punto de intersección. 1.2.4 CENTRO DE GRAVEDAD El centro de gravedad (C.G. o también, bajo ciertas circunstancias, llamado centro de masas) es el punto de aplicación de la resultante de todas las fuerzas de gravedad que actuán sobre las distintas masas materiales de un cuerpo. En física, el centroide, el centro de gravedad y el centro de masas pueden, bajo ciertas circunstancias, coincidir entre sí. En éstos casos es válido utilizar estos términos de manera intercambiable. El centroide es un concepto puramente geométrico, mientras que los otros dos términos se relacionan con las propiedades físicas de un cuerpo. Para que el centroide coincida con el centro de masas, el objeto tiene que tener densidad uniforme, o la distribución de materia a través del objeto debe tener ciertas propiedades, tales como simetría. Para que un centroide coincida con el centro de gravedad, el centroide debe coincidir con el centro de masas y el objeto debe estar bajo la influencia de un campo gravitatorio uniforme. En geometría, el centroide o baricentro de un objeto X perteneciente a un espacio n-dimensional es la intersección de todos los hiperplanos que dividen a X en dos partes de igual n-volumen con respecto al hiperplano. Informalmente, es el promedio de todos los puntos de X. En física, el centroide puede, bajo ciertas circunstancias, coincidir con el centro de masas del objeto y además con el centro de gravedad. En algunos casos, esto hace utilizar estos términos de manera intercambiable. Para que el centroide coincida con el centro de masa, el objeto tiene que tener densidad uniforme, o la distribución de materia a través del objeto debe tener ciertas propiedades, tales como simetría. Para que un centroide coincida con el centro de gravedad, el centroide debe coincidir con el centro de masa y el objeto debe estar bajo la influencia de un campo gravitatorio uniforme. Una figura cóncava tendrá su centroide en algún punto fuera de la figura misma. El centroide de una lámina con forma de luna creciente estará en algún lugar del espacio vacío central. El centroide de un triángulo (también llamado baricentro) se encuentre en el punto donde se intersectan sus medianas (líneas que unen un vértice con el punto medio del lado opuesto). Este punto es además el centro de masa del triángulo si éste está hecho de una lámina de material uniforme además de ser también su centro de gravedad si éste es de proporciones humanas y no astrales o atómicas. 2. ONDAS Imaginemos un estanque de agua quieta al que tiramos una piedra, pronto, pero no instantáneamente, se formarán olas. Esas "olas" en realidad son ondas que se propagan desde el centro donde la piedra, al caer, es la "fuente" de perturbaciones circulares. Si llevamos este ejemplo a un parlante, este igual que la piedra, perturba el medio propagándose y alejándose de su fuente. Así como las ondas necesitaban al agua para poder difundirse, el sonido necesita del aire para lograr lo mismo. Al arrojar una roca aun recipiente con agua (H2O) observamos la propagación de la onda de un lado a otro, por medio del agua, en ella se nota el movimiento ondulatorio. La onda consta de dos movimientos: uno es la vibración de las partículas y otro es la propagación de la onda en sí. Si el movimiento de cada partícula es " de arriba hacia abajo y viceversa" la onda se llama transversal.. Si la partícula se mueve en la misma dirección de propagación moviéndose atrás y adelante, la onda recibe el nombre de longitudinal. El sonido es una onda longitudinal mientras que la luz y cualquier onda electromagnética es transversales. Si hacemos ondas con una soga nos dará ondas transversales mientras que un resorte puede transportar ambos tipos de ondas. Una onda es una perturbación periódica que se propaga en un medio o en el espacio transportando energía. La propagación de una onda involucra el desplazamiento elástico de partículas materiales o cambios periódicos en alguna cantidad física como la presión, la temperatura o los cambios electromagnéticos. Para descubrir una onda se considera: el valle, la cresta, el nodo, frecuencia, longitud de onda, la amplitud y la velocidad de propagación. Lo que afirma la ley de la conservación de la energía; “La energía ni se crea ni se destruye simplemente se transforma”, la energía puede ser propagada a través del espacio y de la materia por medio de vibraciones, por ejemplo el sonido, la luz, las ondas de radio, esto se comprende estudiando como se forman, como se comportan y como se propagan. En física una onda es una oscilación que se propaga por el espacio a partir de un medio, transportando energía pero no materia. Una onda es causada por algo que oscila, es decir, que se mueve repetidamente de un lado a otro en torno a una posición central o de equilibrio. Las ondas son una perturbación periódica del medio en que se mueven. En las ondas longitudinales, el medio se desplaza en la dirección de propagación. Por ejemplo, el aire se comprime y expande (figura 1) en la misma dirección en que avanza el sonido. En las ondas transversales, el medio se desplaza en ángulo recto a la dirección de propagación. Por ejemplo, las ondas en un estanque avanzan horizontalmente, pero el agua se desplaza verticalmente. Los terremotos generan ondas de los dos tipos, que avanzan a distintas velocidades y con distintas trayectorias. Estas diferencias permiten determinar el epicentro del sismo. Las partículas atómicas y la luz pueden describirse mediante ondas de probabilidad, que en ciertos aspectos se comportan como las ondas de un estanque. Propagación de las ondas El mecanismo mediante el cual una onda mecánica monodimensional se propaga a través de un medio material puede ser descrito inicialmente considerando el caso de las ondas en un muelle. Cuando el muelle se comprime en un punto y a continuación se deja en libertad, las fuerzas recuperadoras tienden a restituir la porción contraída del muelle a la situación de equilibrio. Pero dado que las distintas partes del muelle están unidas entre sí por fuerzas elásticas, la dilatación de una parte llevará consigo la compresión de la siguiente y así sucesivamente hasta que aquélla alcanza el extremo final. En las ondas en la superficie de un lago, las fuerzas entre las moléculas de agua mantienen la superficie libre como si fuera una película tensa. Tales fuerzas de unión entre las partículas componentes son las responsables e que una perturbación producida en un punto se propague al siguiente, repitiéndose el proceso una y otra vez de forma progresiva en todas las direcciones de la superficie del líquido, lo que se traduce en el movimiento de avance de ondas circulares. Como puede deducirse del mecanismo de propagación descrito, las propiedades del medio influirán decisivamente en las características de las ondas. Así, la velocidad de una onda dependerá de la rapidez con la que cada partícula del medio sea capaz de transmitir la perturbación a su compañera. Los medios más rígidos dan lugar a velocidades mayores que los más flexibles. En un muelle de baja constante elástica k una onda se propagará más despacio que en otra que tenga una k mayor. Lo mismo sucede con los medios más densos respecto de los menos densos. Ningún medio material es perfectamente elástico. Las partículas que lo forman en mayor o menor grado rozan entre sí, de modo que parte de la energía que se transmite de unas a otras se disipan en forma de calor. Esta pérdida de energía se traduce, al igual que en el caso de las vibraciones, en una atenuación o amortiguamiento. Sin embargo, el estudio de las ondas en las condiciones más sencillas prescinde de estos efectos indeseables del rozamiento. Características de las ondas LONGITUD DE ONDA Es la distancia entre una cresta y otra o valles consecutivos. Parámetro físico que indica el tamaño de una onda. Si se representa la onda como una serie de crestas regulares (una línea ondulada), la longitud de onda sería la distancia entre dos crestas consecutivas. Se representa con la letra griega l (lambda) En espectroscopía, la longitud de onda es el parámetro usado para definir el tipo de radiación electromagnética, y se mide usualmente en nanómetros. Una longitud de onda corta indica que la radiación es muy energética, y viceversa. Por ejemplo, la longitud de onda de la radiación ultravioleta de una lámpara de las usadas para comprobar billetes es de 254 nanómetros, mientras que la longitud de onda de la radiación infrarroja emitida por una bombilla es de unos 700 nanómetros. Es la distancia entre dos puntos iguales correspondientes a dos ondas sucesivas. La longitud de onda esta relacionada con la frecuencia V de la onda mediante la formula: Se expresa en unidades de longitud; metros, centímetros, kilómetros y las longitudes de onda de la luz son de orden de millonésimas de metro (micrometros) NODO Es el punto donde la onda cruza la línea de equilibrio. OSCILACIÓN Se lleva a cabo cando un punto en vibración ha tomado todos los valores positivos y negativos. Son los puntos medios que están entre las crestas y los valles en la línea central de los desplazamientos. ELONGACIÓN Es la distancia en forma perpendicular de un punto de la onda a la línea o posición de equilibrio. AMPLITUD Es la distancia entre el punto extremo que alcanza una partícula vibrante y su posición de equilibrio. La amplitud es la máxima elongación. La amplitud de onda está directamente relacionada con la intensidad de la onda, la amplitud es el ancho de onda, es decir, la distancia que separa a dos crestas o dos valles sucesivos. FRECUENCIA: Es el numero de veces que se representa un fenómeno periódico en la unidad de tiempo, es decir, el numero de ondas que pasan por segundo, la unidad en la que se mide la frecuencia se llama hertz (hz) en honor a Heinrich Hertz, quien demostró la existencia de las ondas de radio en 1886. Y se calcula como ciclos entre segundos, es decir, el numero de veces por segundo que ocurre algún fenómeno. 1 Hz = 1/s Una vibración por segundo corresponde a una frecuencia de 1 hertz; dos vibraciones por segundo equivalen a 2 hertz, y así sucesivamente. Las grandes frecuencia se miden en kilohertz (kHz) y las frecuencias aún más elevadas en megahetz (MHz). Las ondas de radio de amplitud modulada se transmiten en kilohertz, mientras que las ondas de frecuencia modulada se transmiten en megahertz. Por ejemplo, una estación ubicada en la posición correspondiente a 960 kHz en la banda de AM emite ondas de radio cuya frecuencia es de 960 000 vibraciones por segundo. Una estación ubicada en la posición de 101 MHz de la banda de FM emite ondas de radio cuya frecuencia es de 101 000 000 hertz. La frecuencia con que vibra la fuente y la frecuencia de las ondas que produce son iguales. PERIODO: Tiempo que tarda un cuerpo que tiene un movimiento periódico –el cual el cuerpo se mueve de un lado a otro, sobre una trayectoria fija-en efectuar un ciclo completo de su movimiento. Su unidad, oscilación, onda, ciclo, vibración, segundo. RELACIÓN ENTRE FRECUENCIA Y PERIODO Por ejemplo, un centro emisor produce una onda en ½ segundo, o sea su periodo es de T= ½ segundo y su frecuencia, f, será 2 ondas/segundo. Lo que significa que f y T son reciprocas, es decir: VELOCIDAD DE PROPAGACIÓN Desplazamiento de una onda en una unidad de tiempo, es decir, habrá realizado una oscilación completa cuando la onda se haya desplazado una longitud de onda. Si el periodo (T) es el tiempo en que el punto considerado tarda en realizar una oscilación, podemos decir que la onda ha avanzado una distancia ë en un tiempo, es decir: V = ë / T, pero como el periodo T es igual a 1/f, la expresión anterior también podemos expresarla de la siguiente manera: V = ëf. Velocidad de propagación es igual al valor de la longitud de onda entre el periodo. Sus unidades son, cm/s, m/s. La velocidad con que se propague un fenómeno ondulatorio depende de la naturaleza del medio en que se realiza la propagación. Así, la velocidad del sonido no es la misma en el aire que en el agua o que en el acero, ni tampoco la velocidad de la luz en la misma en el vació que en el agua, aire o vidrio. La velocidad de la luz en el vació es igual a 300 000 km/s y es la máxima velocidad que se puede alcanzar en la naturaleza. Las ondas sonoras por ejemplo, viajan con rapidez de 330 o 350 m/s en el aire (dependiendo la temperatura) y unas cuatro veces mas aprisa en el agua. Cual sea el medio, la rapidez de una onda esta relacionada con su frecuencia y su longitud de onda. VALLE La parte inferior de una onda CRESTA La parte superior de una onda 2.1 PROCESOS TERMODINÁMICOS En termodinámica se designa como proceso adiabático a aquel en el cual el sistema (generalmente, un fluido que realiza un trabajo) no intercambia calor con su entorno. Un proceso adiabático que es además reversible se conoce como proceso isentrópico. El extremo opuesto, en el que tiene lugar la máxima transferencia de calor, causando que la temperatura permanezca constante, se denomina como proceso isotérmico. El término adiabático hace referencia a elementos que impiden la transferencia de calor con el entorno. Una pared aislada se aproxima bastante a un límite adiabático. Otro ejemplo es la temperatura adiabática de llama, que es la temperatura que podría alcanzar una llama si no hubiera pérdida de calor hacia el entorno. En climatización los procesos de humectación (aporte de vapor de agua) son adiabáticos, puesto que no hay transferencia de calor, a pesar que se consiga variar la temperatura del aire y su humedad relativa. El calentamiento y enfriamiento adiabático son procesos que comúnmente ocurren debido al cambio en la presión de un gas. Esto puede ser cuantificado usando la ley de los gases ideales Existen tres relaciones en el enfriamiento adiabático del aire: 1. La relación ambiente de la atmósfera, que es el proporción a la que el aire se enfría a medida que se gana altitud. 2. La tasa seca adiabática, es de unos -10° por cada 1000 metros de subida. 3. La tasa húmeda adiabática, es de unos -6° por cada 1000 metros de subida. La primera relación se usa para describir la temperatura del aire circundante a través del cual está pasando el aire ascendente. La segunda y tercera proporción son las referencias para una masa de aire que está ascendiendo en la atmósfera. La tasa seca adiabática se aplica a aire que está por debajo del punto de rocío, por ejemplo si no está saturado de vapor de agua, mientras que la tasa húmeda adiabática se aplica a aire que ha alcanzado su punto de rocío. El enfriamiento adiabático es una causa común de la formación de nubes. El enfriamiento adiabático no tiene por qué involucrar a un fluido. Una técnica usada para alcanzar muy bajas temperaturas (milésimas o millonésimas de grado sobre el cero absoluto) es la desmagnetización adiabática, donde el cambio en un campo magnético en un material magnético es usado para conseguir un enfriamiento adiabático. La ecuación matemática que describe un proceso adiabático en un gas es donde P es la presión del gas, V su volumen y siendo CP el calor específico molar a presión constante y CV el calor específico molar a volumen constante. Para un gas monoatómico ideal, γ = 5 / 3. Para un gas diatómico (como el nitrógeno o el oxígeno, los principales componentes del aire) γ = 1,4 Derivación de la fórmula La definición de un proceso adiabático es que la transferencia de calor del sistema es cero, Q = 0. Por lo que de acuerdo con el primer principio de la termodinámica, donde U es la energía interna del sistema y W es el trabajo realizado por el sistema. Cualquier trabajo (W) realizado debe ser realizado a expensas de la energía U, mientras que no haya sido suministrado calor Q desde el exterior. El trabajo W realizado por el sistema se define como Sin embargo, P no permanece constante durante el proceso adiabático sino que por el contrario cambia junto con V. Deseamos conocer como los valores de ΔP y ΔV se relacionan entre sí durante el proceso adiabático. Para ello asumiremos que el sistema es una gas monoatómico, por lo que donde R es la constante universal de los gases. Dado ΔP y ΔV entonces W = PΔV y Ahora sustituyendo las ecuaciones (2) y (3) en la ecuación (1) obtenemos simplificando dividiendo ambos lados de la igualdad entre PV Aplicando las normas del cálculo diferencial obtenemos que que se puede expresar como Para ciertas constantes P0 y V0 del estado inicial. Entonces elevando al exponente ambos lados de la igualdad eliminando el signo menos por lo tanto 3. OPTICA Óptica, rama de la física que se ocupa de la propagación y el comportamiento de la luz. En un sentido amplio, la luz es la zona del espectro de radiación electromagnética que se extiende desde los rayos X hasta las microondas, e incluye la energía radiante que produce la sensación de visión. El estudio de la óptica se divide en dos ramas, la óptica geométrica y la óptica física. Propagación de la luz. o Observación fenomenológica del hecho que la luz se refleja, transmite y absorbe, al igual que el sonido. Distinción entre la propagación de una onda en un medio (sonido) y en el vacío (luz). Historia del debate entre la hipótesis corpuscular y la hipótesis ondulatoria, para explicar estos fenómenos. o Derivación geométrica de la ley de reflexión, a partir del principio de Fermat. Distinción cualitativa del comportamiento de la luz reflejada por espejos convergentes y divergentes. Espejos parabólicos. o Distinción cualitativa entre lentes convergentes y divergentes. La óptica del ojo humano. Defectos de la visión y su corrección mediante diversos tipos de lentes. o El telescopio y su impacto en nuestra concepción del Universo, a través de la historia. Naturaleza o de la luz. Demostración fenomenológica de la descomposición de la luz blanca en un prisma. El arco iris: debate acerca de diversas hipótesis explicativas de su origen. o La luz como una onda. Observación y discusión de esta característica a través de la difracción en bordes y fenómenos de interferencia. o Distinción entre luz visible, radiación infrarroja y ultravioleta, rayos X, microondas, ondas de radio. El radar. El rayo láser como fuente de luz coherente y monocromática. La luz como una forma de energía. Descripción del espectro de radiación del Sol y su carácter de principal fuente de energía para la vida en la Tierra. 3.3 ESPEJOS Y LENTES Los espejos son superficies muy pulimentadas, con una capacidad reflectora del 95% o superior de la intensidad de la luz incidente. Consideremos un rayo de luz que se refracta desde un medio de índice n a otro hipotético de índice de refracción –n. Aplicando la ley de Snell: n sen i = -n sen r De donde se deduce que: i = -r Un ángulo de refracción negativo equivale a una inversión en el sentido del rayo. Espejos esféricos formación de imágenes por espejos esféricos Un espejo esférico está caracterizado por su radio de curvatura R. En el caso de los espejos esféricos solo existe un punto focal F=F´=R/2 cuya posición coincide con el punto medio entre el centro del espejo y el vértice del mismo. Se encontrará a la izquierda del vértice para los espejos cóncavos y a la derecha para los espejos convexos. El aumento del espejo será A =y´/y y dependerá de la curvatura del espejo y de la posición del objeto. Formación de imágenes La construcción de imágenes es muy sencilla si se utilizan los rayos principales: Rayo paralelo: Rayo paralelo al eje óptico que parte de la parte superior del objeto. Después de refractarse pasa por el foco imagen. Rayo focal: Rayo que parte de la parte superior del objeto y pasa por el foco objeto, con lo cual se refracta de manera que sale paralelo . Después de refractarse pasa por el foco imagen. Rayo radial: Rayo que parte de la parte superior del objeto y está dirigido hacia el centro de curvatura del dioptrio. Este rayo no se refracta y continúa en la mismas dirección ya que el ángulo de incidencia es igual a cero. Hay que distinguir entre los espejos cóncavos y los convexos: Espejos cóncavos 1. Objeto situado a la izquierda del centro de curvatura. La imagen es real, invertida y situada entre el centro y el foco. Su tamaño es menor que el objeto. 2. Objeto situado en el centro de curvatura. La imagen es real, invertida y situada en el mismo punto. Su tamaño igual que el objeto. 3. Objeto situado entre el centro de curvatura y el foco. La imagen es real, invertida y situada a la izquierda del centro de curvatura. Su tamaño es mayor que el objeto. 4. Objeto situado en el foco del espejo. Los rayos reflejados son paralelos y la imagen se forma en el infinito. 5. Objeto situado a la derecha del foco. La imagen es virtual, y conserva su orientación. Su tamaño es mayor que el objeto. a) Objeto situado a la izquierda del centro de curvatura. La imagen es real, invertida y situada entre el centro y el foco. Su tamaño es menor que el objeto. b) Objeto situado en el centro de curvatura. La imagen es real, invertida y situada en el mismo punto. Su tamaño igual que el objeto. c) Objeto situado entre el centro de curvatura y el foco. La imagen es real, invertida y situada a la izquierda del centro de curvatura. Su tamaño es mayor que el objeto. d) Objeto situado en el foco del espejo. Los rayos reflejados son paralelos y la imagen se forma en el infinito. e) Objeto situado a la derecha del foco. La imagen es virtual, y conserva su orientación. Su tamaño es mayor que el objeto. Espejos convexos Se produce una situación en la que la imagen es virtual, derecha y más pequeña que el objeto. Se produce una situación en la que la imagen es virtual, derecha y más pequeña que el objeto. Para observar la formación de rayos pulsa start y cambia la posición del objeto y el radio de curvatura de los espejos. Se puede cambiar entre lentes y espejos. Lentes delgadas convergentes y divergentes Una lente es un medio transparente limitado por dos superficies curvas. Una onda incidente sufre dos refracciones al pasar a través de la lente. Hay dos tipos de lentes: convergentes y divergentes. En las lentes convergentes el foco imagen está a la derecha de la lente, f´ > 0. En la lentes divergentes el foco imagen está a la izquierda de la lente, f´ < 0. Las lentes convergentes son más gruesas por el centro que por los extremos, mientras que las divergentes son más gruesas por los extremos que por el centro. Se define además la potencia de una lente como la inversa de su distancia focal imagen P=1/f´ y mide la mayor o menor convergencia de los rayos emergentes, a mayor potencia mayor convergencia de los rayos. La unidad de potencia de una lente es la dioptría, que se define como la potencia de una lente cuya distancia focal es de un metro. Formación de imágenes por lentes delgadas La construcción de imágenes es muy sencilla si se utilizan los rayos principales: - Rayo paralelo: Rayo paralelo al eje óptico que parte de la parte superior del objeto. Después de refractarse pasa por el foco imagen. - Rayo focal: Rayo que parte de la parte superior del objeto y pasa por el foco objeto, con lo cual se refracta de manera que sale paralelo . Después de refractarse pasa por el foco imagen. - Rayo radial: Rayo que parte de la parte superior del objeto y está dirigido hacia el centro de curvatura del dioptrio. Este rayo no se refracta y continúa en la mismas Rayo focal en una lente convergente. Lentes convergentes Tanto en la lentes convergentes como en las divergentes hay dos posibilidades para situar el espejo: más lejos de la lente que el foco objeto (imágenes reales) o entre ambos (imágenes virtuales). Lentes divergentes Hay dos posibilidades para situar el espejo: más lejos de la lente que el foco objeto o entre ambos. En ambos casos las imágenes que se forman son virtuales. Una cantidad importante es el cociente entre el tamaño de la imagen y el tamaño del objeto A=y´/ý cantidad que recibe el nombre de aumento lateral. Instrumentos ópticos El trazado de rayos en sistemas de lentes y espejos es particularmente importante para el diseño de los siguientes instrumentos ópticos: a) El microscopio: Es un sistema de lentes que produce una imagen virtual aumentada de un apequeño objeto. El microscopio más simple es una lente convergente, la lupa. El objeto se coloca entre la lente y el foco, de modo que la imagen es virtual y está a una distancia que es la distancia mínima de visón nítida, alrededor de 25 cm. El microscopio compuesto consiste en dos lentes convergentes de pequeña distancia focal, llamadas objetivo y ocular. La distancia focal del objetivo f, es mucho menos que la distancia focal f´ del ocular. El objeto AB se coloca a una distancia del objetivo ligeramente mayor que f. El objetivo forma una primera imagen a´b´ que hace de objeto para el ocular. La imagen a´b´ debe estar a una distancia del ocular ligeramente menor que f´. La imagen final ab es virtual, invertida y mucho mayor que el objeto. El objeto AB se coloca de tal manera que ab está a una distancia del ocular igual a la distancia mínima de visión nítida, alrededor de 25 cm. Esta condición se realiza mediante el enfoque que consiste en mover todo el microscopio respecto al objeto.(Se puede observar la imagen a través de una lente convexa). b) El Telescopio: El objetivo es una lente convergente de distancia focal f muy grande, a veces de varios metros. Como el objeto AB es muy distante, su imagen a´b´ producida por el objetivo, está en su foco F0. Sólo se necesitan los rayos centrales para conocer la posición de la imagen. El ocular es una lente convergente de distancia focal f´ mucho menor. De coloca de tal que la imagen intermedia a´b´ esté entre el ocular y su foco. y la imagen final ab esté a la la distancia mínima de visón nítida, alrededor de 25 cm. El enfoque se hace moviendo el ocular ya que nada se gana moviendo el objetivo. (Se puede observar la imagen a través de una lente concava). Interferencia, efecto que se produce cuando dos o más ondas se solapan o entrecruzan. Cuando las ondas interfieren entre sí, la amplitud (intensidad o tamaño) de la onda resultante depende de las frecuencias, fases relativas (posiciones relativas de crestas y valles) y amplitudes de las ondas iniciales (véase Movimiento ondulatorio). Por ejemplo, la interferencia constructiva se produce en los puntos en que dos ondas de la misma frecuencia que se solapan o entrecruzan están en fase; es decir, cuando las crestas y los valles de ambas ondas coinciden. En ese caso, las dos ondas se refuerzan mutuamente y forman una onda cuya amplitud es igual a la suma de las amplitudes individuales de las ondas originales. La interferencia destructiva se produce cuando dos ondas de la misma frecuencia están completamente desfasadas una respecto a la otra; es decir, cuando la cresta de una onda coincide con el valle de otra. En este caso, las dos ondas se cancelan mutuamente. Cuando las ondas que se cruzan o solapan tienen frecuencias diferentes o no están exactamente en fase ni desfasadas, el esquema de interferencia puede ser más complejo. La luz visible está formada por ondas electromagnéticas que pueden interferir entre sí. La interferencia de ondas de luz causa, por ejemplo, las irisaciones que se ven a veces en las burbujas de jabón. La luz blanca está compuesta por ondas de luz de distintas longitudes de onda. Las ondas de luz reflejadas en la superficie interior de la burbuja interfieren con las ondas de esa misma longitud reflejadas en la superficie exterior. En algunas de las longitudes de onda, la interferencia es constructiva, y en otras destructiva. Como las distintas longitudes de onda de la luz corresponden a diferentes colores, la luz reflejada por la burbuja de jabón aparece coloreada. El fenómeno de la interferencia entre ondas de luz visible se utiliza en holografía e interferometría (véase Holograma; Interferómetro). La interferencia puede producirse con toda clase de ondas, no sólo ondas de luz. Las ondas de radio interfieren entre sí cuando rebotan en los edificios de las ciudades, con lo que la señal se distorsiona. Cuando se construye una sala de conciertos hay que tener en cuenta la interferencia entre ondas de sonido, para que una interferencia destructiva no haga que en algunas zonas de la sala no puedan oírse los sonidos emitidos desde el escenario. Arrojando objetos al agua estancada se puede observar la interferencia de ondas de agua, que es constructiva en algunos puntos y destructiva en otros. 3.6 POLARIZACION DE LA LUZ Los átomos de una fuente de luz ordinaria emiten pulsos de radiación de duración muy corta. Cada pulso procedente de un único átomo es un tren de ondas prácticamente monocromático (con una única longitud de onda). El vector eléctrico correspondiente a esa onda no gira en torno a la dirección de propagación de la onda, sino que mantiene el mismo ángulo, o acimut, respecto a dicha dirección. El ángulo inicial puede tener cualquier valor. Cuando hay un número elevado de átomos emitiendo luz, los ángulos están distribuidos de forma aleatoria, las propiedades del haz de luz son las mismas en todas direcciones, y se dice que la luz no está polarizada. Si los vectores eléctricos de todas las ondas tienen el mismo ángulo acimutal (lo que significa que todas las ondas transversales están en el mismo plano), se dice que la luz está polarizada en un plano, o polarizada linealmente. Cualquier onda electromagnética puede considerarse como la suma de dos conjuntos de ondas: uno en el que el vector eléctrico vibra formando ángulo recto con el plano de incidencia y otro en el que vibra de forma paralela a dicho plano. Entre las vibraciones de ambas componentes puede existir una diferencia de fase, que puede permanecer constante o variar de forma constante. Cuando la luz está linealmente polarizada, por ejemplo, esta diferencia de fase se hace 0 o 180°. Si la relación de fase es aleatoria, pero una de las componentes es más intensa que la otra, la luz está en parte polarizada. Cuando la luz es dispersada por partículas de polvo, por ejemplo, la luz que se dispersa en un ángulo de 90°. Con la trayectoria original del haz está polarizada en un plano, lo que explica por qué la luz procedente del cenit está marcadamente polarizada. Para ángulos de incidencia distintos de 0 o 90°, la proporción de luz reflejada en el límite entre dos medios no es igual para ambas componentes de la luz. La componente que vibra de forma paralela al plano de incidencia resulta menos reflejada. Cuando la luz incide sobre un medio no absorbente con el denominado ángulo de Brewster, llamado así en honor al físico británico del siglo XIX David Brewster, la parte reflejada de la componente que vibra de forma paralela al plano de incidencia se hace nula. Con ese ángulo de incidencia, el rayo reflejado es perpendicular al rayo refractado; la tangente de dicho ángulo de incidencia es igual al cociente entre los índices de refracción del segundo medio y el primero. Algunas sustancias son anisótropas, es decir, muestran propiedades distintas según la dirección del eje a lo largo del cual se midan. En esos materiales, la velocidad de la luz depende de la dirección en que ésta se propaga a través de ellos. Algunos cristales son birrefringentes, es decir, presentan doble refracción. A no ser que la luz se propague de forma paralela a uno de los ejes de simetría del cristal (un eje óptico del cristal), la luz se separa en dos partes que avanzan con velocidades diferentes. Un cristal uniáxico tiene uno de estos ejes. La componente cuyo vector eléctrico vibra en un plano que contiene el eje óptico es el llamado rayo ordinario; su velocidad es la misma en todas las direcciones del cristal, y cumple la ley de refracción de Snell. La componente que vibra formando un ángulo recto con el plano que contiene el eje óptico constituye el rayo extraordinario, y la velocidad de este rayo depende de su dirección en el cristal. Si el rayo ordinario se propaga a mayor velocidad que el rayo extraordinario, la birrefringencia es positiva; en caso contrario la birrefringencia es negativa. Cuando un cristal es biáxico, la velocidad depende de la dirección de propagación para todas las componentes. Se pueden cortar y tallar los materiales birrefringentes para introducir diferencias de fase específicas entre dos grupos de ondas polarizadas, para separarlos o para analizar el estado de polarización de cualquier luz incidente. Un polarizador sólo transmite una componente de la vibración, ya sea reflejando la otra mediante combinaciones de prismas adecuadamente tallados o absorbiéndola. El fenómeno por el que un material absorbe preferentemente una componente de la vibración se denomina dicroísmo. El material conocido como Polaroid presenta dicroísmo; está formado por numerosos cristales dicroicos de pequeño tamaño incrustados en plástico, con todos sus ejes orientados de forma paralela. Si la luz incidente es no polarizada, el Polaroid absorbe aproximadamente la mitad de la luz. Los reflejos de grandes superficies planas, como un lago o una carretera mojada, están compuestos por luz parcialmente polarizada, y un Polaroid con la orientación adecuada puede absorberlos en más de la mitad. Este es el principio de las gafas o anteojos de sol Polaroid. Los llamados analizadores pueden ser físicamente idénticos a los polarizadores. Si se cruzan un polarizador y un analizador situados consecutivamente, de forma que el analizador esté orientado para permitir la transmisión de las vibraciones situadas en un plano perpendicular a las que transmite el polarizador, se bloqueará toda la luz procedente del polarizador. Las sustancias ‘ópticamente activas’ giran el plano de polarización de la luz linealmente polarizada. Un cristal de azúcar o una solución de azúcar, pueden ser ópticamente activos. Si se coloca una solución de azúcar entre un polarizador y un analizador cruzados tal como se ha descrito antes, parte de la luz puede atravesar el sistema. El ángulo que debe girarse el analizador para que no pase nada de luz permite conocer la concentración de la solución. El polarímetro se basa en este principio. Algunas sustancias —como el vidrio y el plástico— que no presentan doble refracción en condiciones normales pueden hacerlo al ser sometidas a una tensión. Si estos materiales bajo tensión se sitúan entre un polarizador y un analizador, las zonas coloreadas claras y oscuras que aparecen proporcionan información sobre las tensiones. La tecnología de la fotoelasticidad se basa en la doble refracción producida por tensiones. También puede introducirse birrefringencia en materiales normalmente homogéneos mediante campos magnéticos y eléctricos. Cuando se somete un líquido a un campo magnético fuerte, puede presentar doble refracción. Este fenómeno se conoce como efecto Kerr, en honor del físico británico del siglo XIX John Kerr. Si se coloca un material apropiado entre un polarizador y un analizador cruzados, puede transmitirse o no la luz según si el campo eléctrico en el material está conectado o desconectado. Este sistema puede actuar como un conmutador o modulador de luz extremadamente rápido. 4. ELECTRICIDAD 4.1 Circuitos eléctricos Un circuito eléctrico está compuesto normalmente por un conjunto de elementos activos -que generan energía eléctrica (por ejemplo baterías, que convierten la energía de tipo químico en eléctrica)- y de elementos pasivos -que consumen dicha energía (por ejemplo resistencias, que convierten la energía eléctrica en calor, por efecto Joule)- conectados entre sí. El esquema siguiente presenta un circuito compuesto por una batería (elemento de la izquierda) y varias resistencias. Las magnitudes que se utilizan para describir el comportamiento de un circuito son la Intensidad de Corriente Eléctrica y el Voltaje o caída de potencial. Estas magnitudes suelen representarse, respectivamente, por I y V y se miden en Amperios (A) y Voltios (V) en el Sistema Internacional de Unidades. La intensidad de corriente eléctrica es la cantidad de carga que, por segundo, pasa a través de un cable o elemento de un circuito. El voltaje es una medida de la separación o gradiente de cargas que se establece en un elemento del circuito. También se denomina caída de potencial o diferencia de potencial (d.d.p.) y, en general, se puede definir entre dos puntos arbitrarios de un circuito. El voltaje está relacionado con la cantidad de energía que se convierte de eléctrica en otro tipo (calor en una resistencia) cuando pasa la unidad de carga por el dispositivo que se considere; se denomina fuerza electromotriz (f.e.m.) cuando se refiere al efecto contrario, conversión de energía de otro tipo (por ejemplo químico en una batería) en energía eléctrica. La f.e.m. suele designarse por e y, lógicamente, se mide también en Voltios. Los elementos de un circuito se interconectan mediante conductores. Los conductores o cables metálicos se utilizan básicamente para conectar puntos que se desea estén al mismo potencial (es decir, idealmente la caída de potencial a lo largo de un cable o conductor metálico es cero). 4.1.1 Leyes de Kirchoff Las leyes de Kirchoff se utilizan para la resolución de un circuito en la forma que se expone a continuación. Utilizaremos como ejemplo de aplicación el circuito ya presentado anteriormente: 4.1.2. MALLAS Y NODOS La ley de nudos proviene de la conservación de la carga y dice, esencialmente, que la suma de las corrientes que llegan a un nodo es cero; es decir, que el total de corriente que entra (signo mas, por ejemplo) es igual al total de la corriente que sale del nudo (signo menos en su caso). Esta ley ha de aplicarse a tantos nudos existan en nuestro circuito, menos uno. En nuestro caso, a un nudo; seleccionando el nudo A y suponiendo definimos como positiva la corriente entrante en el nudo: I1 - I2 - I3 = 0 La ley de mallas establece que la suma de caídas de potencial a lo largo de una malla debe coincidir con la suma de fuerzas electromotrices (de los elementos activos) a lo largo de la misma. Si no hubiera elementos activos, la suma de potenciales a lo largo de un recorrido cerrado es cero, lo cual está ligado al carácter conservativo del campo eléctrico. Para su aplicación es preciso previamente asignar un sentido de recorrido a las mallas y dar algún convenio de signos: Una f.e.m se tomará como positiva si en nuestro recorrido salimos por el polo positivo. Una caída de potencial se tomará como positiva si en nuestro recorrido vamos a favor de la corriente cuando pasamos por el elemento. En nuestro circuito las caídas de potencial son todas en resistencias óhmicas; si es I la intensidad que atraviesa a una resistencia R, la caída de potencial es IR. En nuestro caso, utilizando las mallas I y II recorridas en los sentidos indicados tendremos las siguientes ecuaciones: e1 = I1R1 + I3R3 -e2 = I2R2+I2R4– I3R3 = I2(R2 + R4) – I3R3 Conocidos los valores de los elementos que constituyen nuestro circuito, las tres ecuaciones anteriormente expuestas configuran un sistema lineal del que se pueden despejar los valores de I1, I2 e I3. Obsérvese que en el circuito anterior R2 y R4 se asocian como si fueran una sola resistencia de valor (R2 + R4). Este es un ejemplo de cómo se asocian resistencias en serie, que son las que están en una misma rama no importando en qué ubicación. 4.1 Asociación de elementos en Serie y en Paralelo Previo a analizar un circuito conviene proceder a su simplificación cuando se encuentran asociaciones de elementos en serie o en paralelo. El caso estudiado anteriormente corresponde, como se ha dicho, a una asociación de resistencias en Serie. Se dice que varios elementos están en serie cuando están todos en la misma rama y, por tanto, atravesados por la misma corriente. Si los elementos en serie son Resistencias, ya se ha visto que pueden sustituirse, independiente de su ubicación y número, por una sola resistencia suma de todas las componentes. En esencia lo que se está diciendo es que la dificultad total al paso de la corriente eléctrica es la suma de las dificultades que individualmente presentan los elementos componentes RS = R1 + R1 + R3 Esta regla particularizada para el caso de Resistencias sirve también para asociaciones de f.e.m. (baterías). Por otra parte, se dice que varios elementos están en Paralelo cuando la caida de potencial entre todos ellos es la misma. Esto ocurre cuando sus terminales están unidos entre si como se indica en el esquema siguiente Ahora la diferencia de potencial entre cualquiera de las resistencias es V, la existente entre los puntos A y B. La corriente por cada una de ellas es V/Ri (i=1,2,3) y la corriente total que va de A a B (que habría de ser la que atraviesa Rp cuando se le aplica el mismo potencial) será I1 + I2 + I3. Para que esto se cumpla el valor de la conductancia 1/Rp ha de ser la suma de las conductancias de las Resistencias componentes de la asociación: 1/Rp = 1/R1 + 1/R2 + 1/R3 Lo cual significa que, al haber tres caminos alternativos para el paso de la corriente, la facilidad de paso (conductancia) ha aumentado: la facilidad total es la suma de las facilidades. Las baterías No suelen asociarse en paralelo, debido a su pequeña resistencia interna. Si se asociaran tendrían que tener la misma f.e.m. que sería la que se presentaría al exterior. Pero cualquier diferencia daría lugar a que una de las baterías se descargara en la otra. 4.2 CIRCUITOS ELECTRONICOS DE CORRIENTE ALTERNA 4.2.1 CIRCUITOS RC Los circuitos RC son circuitos que están compuestos por una resistencia y un condensador. Se caracteriza por que la corriente puede variar con el tiempo. Cuando el tiempo es igual a cero, el condensador está descargado, en el momento que empieza a correr el tiempo, el condensador comienza a cargarse ya que hay una corriente en el circuito. Debido al espacio entre las placas del condensador, en el circuito no circula corriente, es por eso que se utiliza una resistencia. Cuando el condensador se carga completamente, la corriente en el circuito es igual a cero. La segunda regla de Kirchoff dice: V = (IR) - (q/C) Donde q/C es la diferencia de potencial en el condensador. En un tiempo igual a cero, la corriente será: I = V/R cuando el condensador no se ha cargado. Cuando el condensador se ha cargado completamente, la corriente es cero y la carga será igual a: Q = CV CARGA DE UN CONDENSADOR Ya se conoce que las variables dependiendo del tiempo serán I y q. Y la corriente I se sustituye por dq/dt (variación de la carga dependiendo de la variación del tiempo): (dq/dt)R = V - (q/C) dq/dt = V/R - (q/(RC)) Esta es una ecuación Diferencial. Se pueden dq/dt = (VC - q)/(RC) Separar variable dq/(q - VC) = - dt/(RC) Al integrar se tiene ln [ - (q - VC)/VC)] = -t/(RC) Despejando q q dt = C V [(1 - e-t/RC )] = q (1- e-t/RC ) El voltaje será )=V DESCARGA DE UN CONDENSADOR Debido a que la diferencia de potencial en el condensador es IR = q/C, la razón de cambio de carga en el condensador determinará la corriente en el circuito, por lo tanto, la ecuación que resulte de la relación entre el cambio de la cantidad de carga dependiendo del cambio en el tiempo y la corriente en el circuito, estará dada remplazando I = dq/dt en la ecuación de diferencia de potencial en el condensador: q = Q e-t/RC Donde Q es la carga máxima La corriente en función del tiempo entonces, resultará al derivar esta ecuación respecto al tiempo: I = Q/(RC) e-t/RC Se puede concluir entonces, que la corriente y la carga decaen de forma exponencial. 4.2.2 CIRCUITOS RL Los circuitos RL son aquellos que contienen una bobina (inductor) que tiene autoinductancia, esto quiere decir que evita cambios instantáneos en la corriente. Siempre se desprecia la autoinductancia en el resto del circuito puesto que se considera mucho menor a la del inductor. Para un tiempo igual a cero, la corriente comenzará a crecer y el inductor producirá igualmente una fuerza electromotriz en sentido contrario, lo cual hará que la corriente no aumente. A esto se le conoce como fuerza contraelectromotriz. Esta fem está dada por: V = -L (inductancia) dI/dt Debido a que la corriente aumentará con el tiempo, el cambio será positivo (dI/dt) y la tensión será negativa al haber una caída de la misma en el inductor. Según kirchhoff: V = (IR) + [L (dI / dt)] IR = Caída de voltaje a través de la resistencia. Esta es una ecuación diferencial y se puede hacer la sustitución: x = (V/R) - I es decir; dx = -dI Sustituyendo en la ecuación: x + [(L/R)(dx/dt)] = 0 dx/x = - (R/L) dt Integrando: ln (x/xo) = -(R/L) t Despejando x: x = xo e -Rt / L Debido a que xo = V/R El tiempo es cero Y corriente cero V/R - I = V/R e -Rt / L I = (V/R) (1 - e -Rt / L) El tiempo del circuito está representado por _ = L/R I = (V/R) (1 - e - 1/_) Donde para un tiempo infinito, la corriente de la malla será I = V/R. Y se puede considerar entonces el cambio de la corriente en el tiempo como cero. Para verificar la ecuación que implica a _ y a I, se deriva una vez y se reemplaza en la inicial: dI/dt = V/L e - 1/_ Se sustituye: V = (IR) + [L (dI / dt)] V = [ (V/R) (1 - e - 1/_)R + (L V/ L e - 1/_)] V - V e - 1/_ = V - V e - 1/_ OSCILACIONES EN UN CIRCUITO LC Cuando un condensador se conecta a un inductor, tanto la corriente como la carga den el condensador oscila. Cuando existe una resistencia, hay una disipación de energía en el sistema porque una cuanta se convierte en calor en la resistencia, por lo tanto las oscilaciones son amortiguadas. Por el momento, se ignorará la resistencia. En un tiempo igual a cero, la carga en el condensador es máxima y la energía almacenada en el campo eléctrico entre las placas es U = Q2máx/(2C). Después de un tiempo igual a cero, la corriente en el circuito comienza a aumentar y parte de la energía en el condensador se transfiere al inductor. Cuando la carga almacenada en el condensador es cero, la corriente es máxima y toda la energía está almacenada en el campo eléctrico del inductor. Este proceso se repite de forma inversa y así comienza a oscilar. En un tiempo determinado, la energía total del sistema es igual a la suma de las dos energías (inductor y condensador): U = Uc + UL U = [ Q2/(2C) ] + ( LI2/2 ) 4.2.3 CIRCUITO RLC Un circuito RLC es aquel que tiene como componentes una resistencia, un condensador y un inductor conectados en serie En un tiempo igual a cero, el condensador tiene una carga máxima (Qmáx). Después de un tiempo igual a cero, la energía total del sistema está dada por la ecuación presentada en la sección de oscilaciones en circuitos LC U = [ Q2/(2C) ] + ( LI2/2 ) En las oscilaciones en circuitos LC se había mencionado que las oscilaciones no eran amortiguadas puesto que la energía total se mantenía constante. En circuitos RLC, ya que hay una resistencia, hay oscilaciones amortiguadas porque hay una parte de la energía que se transforma en calor en la resistencia. El cambio de la energía total del sistema dependiendo del tiempo está dado por la disipación de energía en una resistencia: dU/dt = - I2R Luego se deriva la ecuación de la energía total respecto al tiempo y se remplaza la dada: LQ´ + RQ´ + (Q/C) = 0 Se puede observar que el circuito RCL tiene un comportamiento oscilatorio amortiguado: m(d2x/dt2) + b(dx/dt) + kx = 0 Si se tomara una resistencia pequeña, la ecuación cambiaría a : Q = Qmáx e -(Rt/2L)Cos wt w = [ (1/LC) - (R/2L)2 ] 1/2 Entre más alto el valor de la resistencia, la oscilación tendrá amortiguamiento más veloz puesto que absorbería más energía del sistema. Si R es igual a (4L/C) ½ el sistema se encuentra sobreamortiguado. carga 5. INTERACCIONES MATERIA Y ENERGIA 5.1 MECANICA CUANTICA Modelo atómico de Bohr Diagrama del modelo atómico de Bohr. Niels Bohr se basó en el átomo de hidrógeno para realizar el modelo que lleva su nombre. Bohr intentaba realizar un modelo atómico capaz de explicar la estabilidad de la materia y los espectros de emisión y absorción discretos que se observan en los gases. Describió el átomo de hidrógeno con un protón en el núcleo, y girando a su alrededor un electrón. El modelo atómico de Bohr partía conceptualmente del modelo atómico de Rutherford y de las incipientes ideas sobre cuantización que habían surgido unos años antes con las investigaciones de Max Planck y Albert Einstein. Debido a su simplicidad el modelo de Bohr es todavía utilizado frecuentemente como una simplificación de la estructura de la materia. En este modelo los electrones giran en órbitas circulares alrededor del núcleo, ocupando la órbita de menor energía posible, o sea la órbita más cercana al núcleo posible. El electromagnetismo clásico predecía que una partícula cargada moviéndose de forma circular emitiría energía por lo que los electrones deberían colapsar sobre el núcleo en breves instantes de tiempo. Para superar este problema Bohr supuso que los electrones solamente se podían mover en órbitas específicas, cada una de las cuales caracterizada por su nivel energético. Cada órbita puede entonces identificarse mediante un número entero n que toma valores desde 1 en adelante. Este número "n" recibe el nombre de Número Cuántico Principal. Bohr supuso además que el momento angular de cada electrón estaba cuantizado y sólo podía variar en fracciones enteras de la constante de Planck. De acuerdo al número cuántico principal calculó las distancias a las cuales se hallaba del núcleo cada una de las órbitas permitidas en el átomo de hidrógeno. Estos niveles en un principio estaban clasificados por letras que empezaban en la "K" y terminaban en la "Q". Posteriormente los niveles electrónicos se ordenaron por números. Cada órbita tiene electrones con distintos niveles de energía obtenida que después se tiene que liberar y por esa razón el electrón va saltando de una órbita a otra hasta llegar a una que tenga el espacio y nivel adecuado, dependiendo de la energía que posea, para liberarse sin problema y de nuevo volver a su órbita de origen. El modelo atómico de Bohr constituyó una de las bases fundamentales de la mecánica cuántica. Explicaba la estabilidad de la materia y las características principales del espectro de emisión del hidrógeno. Sin embargo no explicaba el espectro de estructura fina que podría ser explicado algunos años más tarde gracias al modelo atómico de Sommerfeld. Históricamente el desarrollo del modelo atómico de Bohr junto con la dualidad onda-corpúsculo permitiría a Erwin Schrödinger descubrir la ecuación fundamental de la mecánica cuántica. Postulados de Bohr En 1913 Niels Bohr desarrolló su célebre modelo atómico de acuerdo a cuatro postulados fundamentales: 1. Los electrones orbitan el átomo en niveles discretos y cuantizados de energía, es decir, no todas las órbitas están permitidas, tan sólo un número finito de éstas. 2. Los electrones pueden saltar de un nivel electrónico a otro sin pasar por estados intermedios. 3. El salto de un electrón de un nivel cuántico a otro implica la emisión o absorción de un único cuanto de luz (fotón) cuya energía corresponde a la diferencia de energía entre ambas órbitas. 4. Las órbitas permitidas tienen valores discretos o cuantizados del momento angular orbital L de acuerdo con la siguiente ecuación: Donde n = 1,2,3,… es el número cuántico angular o número cuántico principal. La cuarta hipótesis asume que el valor mínimo de n es 1. Este valor corresponde a un mínimo radio de la órbita del electrón de 0.0529 nm. A esta distancia se le denomina radio de Bohr. Un electrón en este nivel fundamental no puede descender a niveles inferiores emitiendo energía. Se puede demostrar que este conjunto de hipótesis corresponde a la hipótesis de que los electrones estables orbitando un átomo están descritos por funciones de onda estacionarias. La mecánica cuántica, conocida también como mecánica ondulatoria y como física cuántica, es la rama de la física que estudia el comportamiento de la materia a escala muy pequeña. El concepto de partícula "muy pequeña" atiende al tamaño en el cual comienzan a notarse efectos como la imposibilidad de conocer con exactitud, arbitraria y simultáneamente, la posición y el momento de una partícula (véase Principio de indeterminación de Heisenberg), entre otros. A tales efectos suele denominárseles "efectos cuánticos". Así, la mecánica cuántica es la que rige el movimiento de sistemas en los cuales los efectos cuánticos sean relevantes. Se ha documentado que tales efectos son importantes en materiales mesoscópicos (unos 1000 átomos). Las suposiciones más importantes de esta teoría son las siguientes: La energía no se intercambia de forma continua, sino que en todo intercambio energético hay una cantidad mínima involucrada, es decir un cuanto (cuantización de la energía). Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al concepto de trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una partícula queda regido por una función matemática que asigna, a cada punto del espacio y a cada instante, la probabilidad de que la partícula descrita se halle en tal posición en ese instante (al menos, en la interpretación de la Mecánica cuántica más usual, la probabilística o interpretación de Copenhague). A partir de esa función, o función de ondas, se extraen teóricamente todas las magnitudes del movimiento necesarias. Aunque la estructura formal de la teoría está bien desarrollada, y sus resultados son coherentes con los experimentos, no sucede lo mismo con su interpretación, que sigue siendo objeto de controversias. La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos experimentales como los siguientes, inexplicables con las herramientas teóricas "anteriores" de la mecánica clásica o la electrodinámica: Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más pequeños entre los valores discretos son llamados quanta (singular: quantum, de la palabra latina para "cantidad", de ahí el nombre de mecánica cuántica.") El tamaño de los cuantos varía de un sistema a otro. Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben un comportamiento corpuscular, de partícula, ("partícula" quiere decir un objeto que puede ser localizado en una región especial del Espacio), como en la dispersión de partículas. Este fenómeno se conoce como dualidad onda-partícula. Las propiedades físicas de objetos con historias relacionadas pueden ser correlacionadas en una amplitud prohibida por cualquier teoría clásica, en una amplitud tal que sólo pueden ser descritos con precisión si nos referimos a ambos a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron de las mayores comprobaciones de la mecánica cuántica. Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa "misteriosa" necesidad de cuantizar la energía. Efecto Compton. El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de muchos y muy buenos físicos y matemáticos de la época como Erwin Schrödinger, Werner Heisenberg, Albert Einstein, P.A.M. Dirac, Niels Bohr y Von Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada como la teoría subyacente a muchos campos de la física y la química, incluyendo en materia condensada, química cuántica y física de partículas. La región de origen de la mecánica cuántica puede localizarse en la Europa central, en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX. LOS CUANTA DE ENERGÍA El problema de la radiación térmica también conocido como el problema del "cuerpo negro", fue resuelto por Max Planck en el año de 1900. Así se inició una de las más importantes ramas de lo que ahora llamamos física moderna. Planck halló la solución al postular que la energía de una onda electromagnética (o cualquier otro sistema oscilante) puede existir en forma de paquetes llamados cuanta. La energía E de cada cuanta es directamente proporcional a la frecuencia de oscilación. Esto es E = hv donde h es una constante universal, hoy conocida como constante de Planck y que vale h = 6.6256 x 10-34 joules-segundo. Con esta suposición y haciendo uso de la física estadística se puede ahora calcular la distribución de energía emitida por longitud de onda por un cuerpo a la temperatura T. El resultado es una expresión matemática que concuerda maravillosamente con los resultados experimentales mostrados en la figura I.2. ¡El problema del cuerpo negro estaba así resuelto! Aunque Planck tuvo la necesidad de postular la cuantificación de la energía, él no creía realmente en la existencia física de tales paquetes energéticos. Sin embargo la evidencia experimental mostró, en efecto, que un sistema físico no puede intercambiar cantidades arbitrarias de energía sino sólo cantidades cuantizadas. Asimismo, dicha evidencia experimental mostró que los cuanta se comportan como partículas. Es decir, los cuanta no eran sólo un recurso matemático que permitió resolver un problema, sino entes físicos reales. Dos importantes experimentos que apoyaron decididamente esta idea fueron el efecto fotoeléctrico y el efecto Compton; el primero fue explicado por Albert Einstein en 1905 y el segundo por Arthur H. Compton en 1923. ÁTOMOS Y TRANSICIONES ELECTRÓNICAS El primer modelo "moderno" del átomo fue proporcionado por Ernest Rutherford. Este modelo estaba basado en sus resultados experimentales que mostraban conclusivamente que el átomo está formado por un núcleo muy masivo con carga positiva, alrededor del cual giraban los electrones, con carga negativa, formando un sistema similar a un pequeño sistema planetario. El problema fundamental de este modelo estaba en que, de acuerdo con la teoría electromagnética clásica, una partícula cargada como un electrón, girando en una órbita, debería radiar ondas electromagnéticas y perder así rápidamente toda su energía. Es decir, un átomo sería un sistema inestable en el cual sus electrones se colapsarían siguiendo órbitas espirales hacia el núcleo atómico y emitiendo en el proceso un breve destello de radiación electromagnética de una cienmillonésima de segundo. El universo, tal como lo conocemos, no podría existir. Nuevamente, como en el problema de la radiación térmica, la física clásica era incapaz de proporcionar una respuesta congruente con la observación experimental. Quien solucionó en 1913 esta paradójica situación fue el físico Niels Bohr al proponer un modelo atómico en el cual los electrones únicamente pueden encontrarse en un número discreto de órbitas alrededor del núcleo; para que un electrón pase de una órbita a otra debe emitir (o absorber, según el caso) un cuanto de energía. Así, Bohr sintetizó con su modelo los resultados experimentales de Rutherford y las proposiciones teóricas de Planck. La figura I.3 muestra la estructura de un átomo de acuerdo con la teoría de Bohr. En este ejemplo tenemos que un electrón puede encontrarse solamente en una de las cinco órbitas mostradas. Para que el electrón pase de la primera a la segunda órbita necesita recibir un cuanto con energía exactamente igual a la diferencia de energía entre la primera y la segunda órbita. Igualmente, el paso de un electrón de una órbita superior a otra inferior sólo será posible si éste emite un cuanto con energía igual a la diferencia de energía entre dichas órbitas. Figura I.3. Nótese que si el electrón se encuentra en la primera órbita no podrá emitir ningún cuanto de energía puesto que ya no hay órbitas de menor energía a las cuales pueda descender. Por otra parte, también debe observarse que a partir de la última órbita (en el caso de la figura, la 5ª. órbita), si el electrón recibe otro cuanto de energía éste pasará a ser un "electrón libre" y se separará del átomo, pues ya no hay más órbitas superiores a las cuales pasar. Entonces decimos que el átomo está ionizado, esto es, se ha convertido en un átomo que ha perdido uno o varios de sus electrones. El modelo de Bohr explicó los espectros de emisión de átomos simples como el hidrógeno y el helio, y proporcionó las bases para comprender el espectro de átomos más complejos. Claro está, la física atómica no se detuvo allí; pronto este modelo fue incapaz de explicar nuevas observaciones experimentales y como consecuencia tuvo que ser mejorado. No obstante, las ideas esenciales del modelo atómico de Bohr que hemos expuesto son suficientes para comprender lo que veremos a continuación. INTERACCIÓN ÁTOMO-CUANTO Ahora enunciaremos los procesos básicos de interacción entre la materia y la radiación electromagnética que en su más pequeña escala se reducen a los procesos de interacción entre átomos y cuantos de energía de radiación electromagnética. Supondremos un sistema atómico elemental con dos niveles de energía E1 y E2 en el cual el primer nivel corresponde a un electrón en su órbita inferior y el segundo nivel corresponde a un electrón en su órbita superior. En el primer caso diremos que el átomo se encuentra en su estado base y en el segundo caso en su estado excitado. Como vimos en la sección anterior, este sistema atómico sólo podrá interaccionar con cuantos que tengan una energía E igual a la diferencia de energía E = E2 - E1. Por lo tanto, la frecuencia v asociada a dichos cuantos de energía es E2 - E1 v = h En tal caso diremos que la interacción átomo-cuanto es un proceso resonante. En este libro sólo consideraremos interacciones resonantes. Por brevedad, de ahora en adelante llamaremos fotón a un "cuanto de radiación electromagnética". El término fotón fue introducido por Einstein al estudiar el efecto fotoeléctrico. El primer proceso de interacción átomo-fotón que veremos es el proceso de absorción, que se muestra esquemáticamente en la figura I.4. Consiste en la interacción entre un fotón y un átomo que inicialmente se encuentra en su estado base. El resultado de esta interacción es que el átomo "absorbe" al fotón y usa su energía para pasar a su estado excitado. Figura I.4. Absorción El siguiente proceso importante de interacción átomo- fotón es el proceso de emisión espontánea, el cual se muestra esquemáticamente en la figura I.5. Ahora tenemos un átomo ya excitado inicialmente, que en forma espontánea (y generalmente en un tiempo breve, del orden de 10-8 segundos) pasa a su estado base emitiendo en el proceso un fotón con energía igual a la diferencia de energía entre los dos estados. El fotón se emite en una dirección totalmente aleatoria. Figura I.5. Emisión espontánea Finalmente, el otro proceso importante de interacción átomo-fotón es el proceso de emisión estimulada. Su existencia fue propuesta por Albert Einstein en 1917 y es el proceso fundamental gracias al cual existe el láser. La figura I.6 muestra esquemáticamente tal proceso. En él tenemos la interacción entre un fotón y un átomo que inicialmente se encuentra en su estado excitado. Como resultado de esta interacción el átomo pasa a su estado base emitiendo en el proceso un fotón que tiene las mismas características de dirección y de fase que el fotón inicial. Por lo tanto, decimos que la radiación electromagnética que resulta es coherente. Figura I.6. Emisión estimulada Podemos realmente afirmar que el germen que dio origen al desarrollo del láser fue dado a la vida cuando este fenómeno de "emisión estimulada" fue propuesto. De hecho, la palabra láser es el acrónimo de la expresión en inglés Light Amplification by Stimulated Emission of Radiation, que en español podemos traducir como "amplificación de la luhttp://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/105/htm/sec_5.ht mz por emisión estimulada de radiación".JORGE FLORES VALDÉS NÚMEROS CUÁNTICOS n, l, ml Cuando se resuelve la Ecuación H =E para encontrar la función de onda (x,y,z) y describir los orbitales, resulta que muchas soluciones existen de modo que cada una presenta números cuánticos que describen las propiedades de estos orbitales: Número Cuántico Principal n que puede adquirir los valores n=1,2,3..... Este número cuántico se relaciona directamente con el tamaño y la energìa del orbital. A medida que n crece, el orbital es más grande y el electrón que lo ocupa, permanece más tiempo alejado del núcleo. Un aumento en n implica entonces un aumento en la energía del orbital. Este número cuántico corresponde al que Bohr planteó en su modelo para los orbitales esféricos. Número Cuántico azimutal l, adquiere los valores enteros desde 0 hasta n-1, para cada valor de n. Este número l se relaciona directamente con la forma que adquiere ese orbital en el espacio. La manera de usar su significado en Quìmica, es definirlos mediante letras s, p, d, f, g. ..según el valor que l adquiere: Números Cuánticos Azimutales y sus correspondientes Orbitales Atómicos Valor de l 0 1 2 3 4 Letra usada s p d f g Número Cuántico Magnético ml adquiere "todos" los valores comprendidos entre -l y +l , y se relaciona con la orientación del orbital en el espacio, relativo a los otros orbitales en el átomo. En resumen, estos números cuánticos pueden llegar a tomar valores como se muestra a continuación: n = 1, 2, 3, 4, 5, ... l = 0, 1, 2, 3, 4, ... (n-1) para cada n ml = -l, ..., 0, ...,+l , Números Cuánticos de los primeros cuatro niveles de Orbitales en el átomo H n l 1 0 2 3 4 Designación ml N° de orbitales 1s 0 1 0 2s 0 1 1 2p -1,0,+1 3 0 3s 0 1 1 3p -1,0,+1 3 2 3d -2,-1,0,+1,+2 5 0 4s 0 1 1 4p -1,0,+1 3 2 4d -2,-1,0,+1,+2 5 3 4f -3,-2,-1,0,+1,+2,+3 7 orbital Ejemplo Para el nivel principal cuántico con n=5, determine las subcapas que tienen diferentes valores de l. Indique la designación y cantidad para cada uno de ellos. R Para n=5, los valores permitidos para l son 0, 1, 2, 3, 4. Así, la designación de las subcapas son l= 0 Designación 5s 5p 5d 5f 5g Cantidad de niveles 1 1 3 2 5 3 4 7 9 5.1.2 IMPACTO DE LA FÍSICA NUCLEAR EN LA SOCIEDAD El objetivo de la física nuclear es el entendimiento fundamental de los núcleos, que constituyen la parte central de los átomos, donde reside casi toda la masa de la materia común. Los físicos nucleares estudian cómo se formó esta materia, cómo se mantiene unida, cómo es su estructura, cómo interacciona en colisiones y cómo se transforma en el interior de las estrellas. La persecución de estos objetivos involucra desarrollar nuevas tecnologías e instalaciones avanzadas, educar científicos jóvenes, entrenar cuadros técnicos altamente especializados y contribuir a la empresa científica y tecnológica más amplia a través de las muchas intersecciones de la física nuclear con otras disciplinas. En este documento se describen brevemente algunos ejemplos selectos que dan una idea del impacto que la física nuclear ha tenido en la sociedad mundial y que ilustran la importancia de invertir recursos en las ciencias nucleares. Por necesidad, no es posible hacer justicia a toda la gama de aplicaciones existentes en el corto espacio disponible y se han tenido que omitir innumerables ejemplos importantes. Los ejemplos escogidos son relevantes en los campos de Ciencias Ambientales, Energía, Materiales y Física Médica. Física Nuclear en México La ciencia nuclear continúa empujando las fronteras del conocimiento y expandiendo las capacidades de la tecnología. Los frutos de las investigaciones fundamentales actuales indudablemente llevaría a nuevas aplicaciones tan importantes como las descritas aquí que seguramente cristalizarán en la medida en que exista una contraparte industrial interesada. En México existen varios grupos de investigadores de alto nivel con formación en física nuclear, producto de una tradición de alrededor de cinco décadas en las que la física nuclear, tanto teórica como experimental, ha sido parte esencial y en ocasiones símbolo y motor de la ciencia mexicana, con una contribución fundamental a la formación de recursos humanos de muy alto nivel. Estos han sido a su vez investigadores y profesores universitarios, y muchos de ellos han evolucionado hacia áreas de interés fuera de la física nuclear, tanto en aplicaciones de los métodos de la física nuclear teórica a otros campos, como de las técnicas de la física nuclear experimental (p. ej. PIXE, RBS, channeling, etc.) a otras áreas. Puesto que la presencia de la física nuclear en el mundo es grande, como lo ilustran los ejemplos anteriores, es clara la importancia de que haya mucha gente que la entienda en toda sociedad, en particular en la sociedad mexicana. La investigación por sí misma reviste una gran importancia en general, y muy particularmente en física nuclear. Se genera conocimiento que a corto o mediano plazo se convierte en dinero. Producir investigación básica es una condición necesaria para poder generar en el futuro nuevos conocimientos, nuevas aplicaciones, nuevas tecnologías. Dentro de la física nuclear teórica, la comunidad mexicana ha hecho contribuciones de gran importancia mundial en estudios de estructura nuclear, introduciendo métodos originales de cálculo y desarrollando modelos nucleares novedosos. Los grupos experimentales, por su parte, se mantienen a la vanguardia en campos de actualidad tales como reacciones nucleares con haces nucleares radiactivos (de importancia en estudios de estructura nuclear y en astrofísica nuclear), reacciones nucleares con iones pesados a energías bajas e intermedias y desarrollo de métodos originales de detección. Entre algunos de los físicos nucleares mexicanos se comparten intereses con áreas relacionadas, tales como la Física de radiaciones, la aplicación de diferentes técnicas nucleares y la física médica. Es importante que se aporten los recursos necesarios para que el país no quede al margen de los avances actuales en física nuclear. PROBLEMAS DE FÍSICA NUCLEAR Se sabe que al medir con precisión la masa que corresponde al núcleo de un átomo, resulta siempre que la masa de dicho núcleo es inferior a la suma de las masas de los nucleones que lo forman. ¿A qué equivale este defecto de masa? Razona la respuesta. (P.A.U. Jun 92) ¿Cuál es la diferencia fundamental entre fisión y fusión nuclear? Razona la respuesta. (P.A.U. Jun 92) Cuestión: Analogías y diferencias entre la fisión y fusión nuclear. Jun 93) (P.A.U. Cuestión; La masa de los núcleos de los átomos no coincide exactamente con la suma de las masas de los nucleones constituyentes. ¿Por qué? (P.A.U. Jun 93) Cuestión: Los rayos g rompen el núcleo de partícula se obtiene y por qué? Rta.: 11H, conservación nº másico y carga 9 Be 4 para formar 8 Li. 3 ¿Qué otra (P.A.U. Sep 94) Una muestra de material radiactivo contiene 500 millones de núcleos radiactivos. La vida media es de 30 segundos. Determinar: El número de núcleos radiactivos que existen en la muestra después de 15 segundos. La constante , de decaimiento exponencial, o constante radiactiva del núcleo. Rta.: 300 millones; 0’033 s-1 (P.A.U. Jun 92) Un miligramo de 60 Co se desintegra de acuerdo con la reacción 27 60 27 Co 60 28 0 0 1 0 Ni e siendo el periodo de semidesintegración igual a 5´3 años. Hallar la energía desprendida el número de desintegraciones por segundo en el momento inicial. Datos mCo =59’919010 ·u , mNi= 59’915439·u ; me=5’486·u siendo u= u.m.a.= 1’66·10-27 kg y velocidad de la luz en el vacío, c= 3’00·108m·s-1 Rta. : 4’539·106 J ; 4’16·1010 átomos/s (P.A.U. Jun96) Sitúase un detector de radiactividade fronte a unha mostra radiactiva que posúe un periodo de semidesintegración de 60 s. No instante t= 0 o detector marca unha velocidade de desintegración de 2000 contas/s . Calcular a) a constante de desintegración ou constante radiactiva . E b) a velocidade de desintegración ó cabo dun minuto. Rta: a) = 1'16·10 -2 s -1; b) A = 1000 contas/s. (P.A.U. Junio 98) Se dispone de 1 mol de 32 P radiactivo, cuyo período de semidesintegración es de 14'6 días . a) ¿ Cuántas desintegraciones por segundo se producen?. B) ¿Cuántos días tardará en desintegrarse el 90 % del material? Rta : = 5'5 ·10 -7 s -1; b) t=48'5 días ( P.A.U Junio 99) 5.2 MECANICA RELATIVISTA 5.2.1 TEORIA ESPECIAL DE LA RELATIVIDAD Albert Einstein publicó en 1905 la Teoría especial de la relatividad, que sostiene que lo único constante en el universo es la velocidad de la luz en el vacío y todo lo demás (velocidad, longitud, masa y paso del tiempo) varía según el marco referencial del observador. La teoría resolvió muchos de los problemas que habían preocupado a los científicos hasta entonces. La famosa ecuación resultante de la teoría E = mc2 establece que la energía (E) es igual a la masa (m) por la velocidad de la luz (c) al cuadrado. -Masa y energía Einstein estableció la ecuación E = mc2 (donde E es energía; m, masa; y c, la velocidad constante de la luz) para explicar que masa y energía son equivalentes. Hoy se sabe que masa y energía son formas distintas de una misma cosa que recibe el nombre de masa-energía. Si la energía de un objeto disminuye una cantidad E, su masa también se reduce una cantidad igual a E/c2. Pero la masaenergía no desaparece, sino que se libera en forma de la llamada energía radiante. -Espacio-tiempo Doscientos años antes de que Albert Einstein formulara sus teorías sobre la relatividad, el matemático inglés Isaac Newton sugirió que el espacio y el tiempo eran absolutos (fijos) y que el primero estaba totalmente separado del segundo. Según la teoría de la relatividad, sin embargo, el tiempo y las tres dimensiones del espacio (longitud, altura y profundidad) constituyen un marco de cuatro dimensiones que recibe el nombre de continuum espacio-temporal. -Longitud relativa El físico irlandés George Fitzgerald sugirió que la materia se contrae en la dirección de su movimiento. Por ejemplo, desde el punto de vista de un observador estático un cohete que viajara casi a la velocidad de la luz parecería más corto que si estuviera estático, aunque los ocupantes no notarían diferencia. Einstein demostró que cualquier objeto que viajara a la velocidad de la luz se encogería hasta una longitud cero. -Tiempo relativo La teoría especial de la relatividad sostiene que el tiempo no es absoluto (fijo). Según Einstein, el tiempo de un objeto visto por un observador externo pasa más lentamente a medida que aumenta su movimiento lineal, lo que se ha demostrado con relojes atómicos sincronizados: mientras uno permanece en la Tierra, el otro es sometido a un viaje muy rápido (por ejemplo, en un reactor); al compararlos, el estacionario está algo más avanzado que el móvil. Einstein puso de ejemplo la famosa paradoja de los gemelos, en la que se explica que un hombre viaja al espacio casi a la velocidad de la luz dejando en la tierra a su hermano gemelo. Al volver en la tierra han pasado 50 años pero para el viajero solo han pasado unos 20. 5.2.2 TEORÍA DE LA RELATIVIDAD GENERAL. Albert Einstein (1879-1955) formuló su teoría general de la relatividad. Einstein demostró que el espacio es finito pero ilimitado, como si se tratara de un universo bidimensional que tuviera la forma de la superficie de una esfera: sería finito, pero no tendría límites. Ese universo finito pero ilimitado descrito por Einstein era, en principio, estático aunque de hecho podía ser objeto de un movimiento de expansión o contracción. Esta teoría explicaba tambien que los efectos de la gravedad y la aceleración son indistinguibles y por lo tanto equivalentes. También explicaba que las fuerzas gravitatorias están vinculadas a la curvatura del espaciotiempo. Mediante un modelo matemático, Einstein demostró que cualquier objeto flexiona el espacio-tiempo que lo rodea. Si tiene una masa relativamente grande, como una estrella, la curvatura que produce puede cambiar la trayectoria de todo lo que pase cerca, incluso de la luz. Todo esto significa que todo objeto con masa produce o genera gravedad hacia los objetos que le rodean, generalmente cuanto más grande es la masa, más gravedad produce. Este hecho se rompe ante la presencia de un agujero negro o ante una estrella de neutrones cuyas masas son muy pequeñas sin embargo la fuerza de la gravedad es enorme. La teoría general de la relatividad sostiene que las fuerzas gravitatorias son consecuencia de la curvatura del espacio-tiempo. Al pasar cerca de un objeto masivo, la luz describe una trayectoria curva al seguir la curvatura del espaciotiempo causada por la masa del objeto. Los agujeros negros tienen una concentración de masa tal que la curvatura del espacio-tiempo a su alrededor es tan pronunciada que ni la luz puede escapar de ellos Con el nombre de Teoría de la Relatividad se engloban generalmente dos cuerpos de investigación en ciencias físicas, usualmente conectadas con las investigaciones del físico Albert Einstein: su Teoría de la Relatividad Especial y su Teoría de la Relatividad General. La primera, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia de fuerzas gravitatorias. La segunda, de 1915, es una teoría de la gravedad que reemplaza a la gravedad newtoniana pero se aproxima a ella en campos gravitatorios débiles. La teoría general se reduce a la especial en ausencia de campos gravitatorios. Conceptos principales La idea esencial de ambas teorías es que dos observadores que se mueven relativamente uno al otro con gran velocidad a menudo medirán diferentes intervalos de tiempo y espacio para describir las mismas series de eventos. Sin embargo, el contenido de las leyes físicas será el mismo para ambos observadores. Artículo principal: Teoría de la Relatividad Especial La Teoría de la Relatividad Especial, también llamada Teoría de la Relatividad Restringida, publicada por Einstein en 1905, describe la física del movimiento en el marco de sistemas de referencia inerciales. Estos conceptos fueron presentados anteriormente por Poincaré y Lorentz, que son considerados también como originadores de la teoría. [editar] La relatividad general Esquema de la curvatura del espacio-tiempo alrededor de una masa. Artículo principal: Teoría de la Relatividad General T.T.'os <e-o>La relatividad general fue publicada por Einstein en 1915 (presentada como conferencia en la Academia de Ciencias prusiana el 25 de noviembre de 1915). Debe notarse que el matemático alemán David Hilbert escribió e hizo públicas las ecuaciones de la covariancia antes que Einstein. Ello resultó en no pocas acusaciones de plagio contra Einstein, pero probablemente sea más cercano a la realidad afirmar que ambos fueron los co-creadores de la relatividad general. Esta teoría introduce una ecuación que precisa, mejora y reemplaza la ley de gravedad de Newton. Utiliza las matemáticas de la geometría diferencial y los tensores a fin de describir los efectos de la interacción gravitatoria, también llamada gravitación o gravedad. Se trata de una perspectiva que considera que todos los observadores son equivalentes, no sólo aquellos que se mueven a velocidad uniforme sino también aquellos que aceleran y retardan sus movimientos. Las leyes de la relatividad general son las mismas para todos los observadores, incluso cuando varían sus movimientos recíprocos. En la relatividad general la gravedad no sigue siendo vista como una fuerza (como se la conceptuaba en la ley de gravedad de Newton) sino como una consecuencia de la curvatura del espacio-tiempo. La relatividad general no puede conceptuar fuerzas, porque es una teoría (o perspectiva) geométrica. La misma postula que la presencia de masa o energía «curva» al espacio-tiempo, y esta curvatura afecta la trayectoria de los cuerpos móviles e incluso la trayectoria de la luz. http://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_relatividad Postulkados Y consecuencias La ciencia específica básica de la naturaleza es la Física; y son la Teoría de la relatividad y la Teoría cuántica las que dominan la Física actual. Sin embargo, a un siglo de sus enunciados fundamentales, persiste el clima controversial en torno de ellas; como lo ha sido desde sus comienzos. La discusión atañe a la propia lógica de las teorías: para algunos no hay nada que objetar, mientras que para otros todo es ilógico de raiz. Nadie que conozca un mínimo de ellas puede abstrarse de esta discusión; por demás apasionante, pues se trata, nada menos, del poder humano sobre la naturaleza. Nuestra intención, como la de todos, es también contribuir a despejar este hambiente enrarecido; y, si no es mucho pedir, encauzar la discusión hacia la fuente problemática de la cual procede la Física actual. Un estudio de la Teoría de la relatividad (parte de un estudio mayor en curso; cuyos resultados confío publicar en fecha no lejana, si la vida y la sociedad me lo permiten) nos conduce a la siguiente interpretación, sinópticamente expuesta. La Teoría de la relatividad parte de dos postulados: I)- El principio de la relatividad. Dos sistemas(K, K') pueden hallarse en reposo o en movimiento rectilíneo y uniforme, uno respecto del otro, gobernados por leyes idénticas. Por ende, la determinación del estado posicional de cada uno exige la consideración de un referente; es decir, de otro respecto del cual reposa o se mueve. II)- La ley de la velocidad constante de la luz. Hecha la medición desde un sistema(K), con los patrones de medición de este sistema, la medida de la velocidad de la luz(l) en el vacío es constante(C), sea que su fuente(f) repose o se mueva, se aleje o se acerque, respecto de dicho sistema(K). Por lo tanto, la velocidad(e/t) de la luz en el vacío no varía respecto de K, no obstante cualquier variación posicional de su fuente respecto de K. Esta ley es indiferente a la velocidad de la luz en sentidos opuestos respecto de K. O mejor dicho, es indiferente al sentido del desplazamiento de la luz. Sin embargo, lo más natural es suponer que es la misma en sentidos opuestos, al recorrer las mismas condiciones. Aun si el medio total de la trayectoria no es homogéneo. La independencia de la velocidad de la luz respecto de su fuente(f) parece corroborar la Teoría ondulatoria de la luz( sugerida por el holandés Huyghens en 1690). Su comportamiento se asemeja al de las ondas, como las del agua o el aire, por ejemplo. Estas ondas viajan con velocidades independientes de su fuente de origen. Lo que nos lleva a suponer un medio de propagación de las ondas-luz, denominado tradicionalmente "éter". Si la luz es onda, existe un medio de su propagación( como son el agua y el aire para sus correspondientes ondas) de extensión universal: através del "vacío" y de los cuerpos, como el aire, el vidrio, el agua, etc., através de los cuales puede desplazarse la luz. Vale recordar que la Teoría ondulatoria explica satisfactoriamente numerosos fenómenos empíricos; uno de los cuales es el espectro de franjas claras y oscuras, supuestas resultantes de la interferencia entre las ondas-luz. Es mas, la Teoría electromagnética(1865) de Clerk Maxwell, unificadora de los conocimientos acerca de la electricidad y la magneticidad en una teoría del campo electromagnético y precursora de los grandes adelantos tecnológicos del siglo XX, incluye la hipótesis de la naturaleza ondulatoria de la radiación electromagnética de la cual es una especie la luz, cuya velocidad es precisamente una constante(C). ____________ Ahora bien, ¿ son compatibles estos postulados? Si la velocidad de una luz es C respecto de K, en un sentido cualquiera, sería diferente de C respecto de K', que se mueve rectilínea y uniformemente respecto de K; por más que K atraviese K'. Esto no parece contradecir al Principio de la relatividad; asi como no lo hace el hecho de que la velocidad de un cuervo que vuela por la corriente de aire que atraviesa al tren(con sus puertas delantera y trasera abiertas) sea, respecto del tren(K'), diferente a su velocidad(w) respecto del aire y la estación(K). Además, si unas ondas del aire de la estación, aire que atraviesa el tren(como un viento respecto de éste), se desplazan a determinada velocidad constante respecto de la estación(K), pero, simultáneamente, a velocidades diferentes, y diferente en sentidos contrarios, respecto del susodicho tren(K'), sin contradecir el Principio de la relatividad, ¿por qué si lo harían las ondas del éter? Porque, tratándose de una Ley(C), una misma luz(l), y cualquier otra, debe cumplirla respecto de ambos sistemas a la vez, tal como se cumplen las demás Leyes físicas de acuerdo al Principio de la relatividad. Tesis que es corroborada por el experimento de Michelson y Morley, y otros semejantes, interpretados según la Teoría ondulatoria. Más aun, ¡no se han detectado velocidades diferentes en sentidos diferentes respecto de K', no obstante su movimiento respecto del éter-K. Si la luz se desplaza a lo largo de dos brazos perpendiculares terrestres, iguales, en ida y vuelta, a diferentes velocidades en sentidos diferentes respecto de estos brazos, como sugiere la hipótesis del éter luminífero(K), el espectro de franjas producidas a su regreso por la interferencia de las ondas-luz se desplazaría en magnitud perceptible con la modificación del emplazamiento de los brazos respecto de la dirección del movimiento traslacional de la Tierra(K') respecto del éter universal(K). Pero, en el experimento crucial(1887) llevado a cabo por Michelson y Morley, y en otros después, no se ha detectado nada atribuible a tiempos y velocidades de la luz diferentes, según su sentido, respecto de la Tierra(K'). El tiempo de recorrido transversal es igual al tiempo de recorrido paralelo; por ende, la velocidad de la luz sería la misma respecto de K' y respecto de K-éter de la Teoría ondulatoria. Esquema 4: Esto equivale a la conjunción utilizada por Einstein de la Ley de la velocidad constante y el Principio de la relatividad en el sentido de que si la velocidad de una luz en el vacío es siempre C respecto de un sistema (K), a la vez la velocidad de la misma luz debe ser también siempre C respecto de otro(K'), en cualquier dirección, en movimiento respecto del primero(K). ¿Qué implica ello? Sean los sistemas K y K' simultáneos(coexistentes). K' se desplaza rectilínea y uniformemente, a velocidad v, respecto de K. En K' se halla emplazado el brazo A_B, de extensión idéntica a la distancia A_B en K. Una luz recorre una trayectoria de ida y vuelta respecto de este brazo, a velocidad C, tanto en la ida como en la vuelta. Velocidad que, supuestamente, también se cumple con la misma luz respecto de K. Por tanto, si la distancia que recorre la luz respecto de K'(brazo) :e' es diferente a la distancia que recorre respecto de K:e, ¡el tiempo(t') que tarda en recorrer la distancia e' sería diferente al tiempo(t) que tarda recorrer la distancia e, a la vez! Entonces, así como resulta la medida C con un reloj de K, debe resultar la medida C con el reloj de K'. No se trata de inventar una hipótesis sino de revelar lo implícito entre el resultado experimental de Michelson-Morley y la Teoría ondulatoria de la luz, o entre el Principio de la relatividad y la Ley de la velocidad constante de la luz. Esquema 5: x :donde y cuando la luz recorrió 1/2 de su recorrido anterior(ida) respecto de K, y A_B(K') también recorrió 1/2 de su recorrido anterior. Total e = eida e > e' y Total e'= e'ida+ e'vuelta vuelta e/t = C = e'/t' por lo tanto, en totales, t > t' Si v fuese mayor( pero aún menor que C), la diferencia de t y t' sería mayor. Si v=C, entonces e'=0 y t'=0. Duración del sistema: La lentitud del reloj de K' (t'<t) implica que cada fase suya dura(T') más que su equivalente en K. El reloj total de K' es lento; lo que se traduce como dilatación del tiempo en K'. Dicho de otro modo, su duración en K'(T') sería igual a la dilatación, o prolongación, de su duración en K(T). Dilatación que debe ser un producto de la duración en K por un factor(1/q) de dilatación. T' > T . T'= T/q * t y t' simbolizan tiempo de recorrido de la luz. * T y T' simbolizan duración de fases. * q es un factor de dilatación. Longitud de A_B : La longitud de A_B según el sistema K es L. La longitud del sistema K' es L' . La longitud puede medirse considerando la velocidad(v) de la barra A_B y el tiempo que tarda en pasar un extremo de la barra después que pasó el otro frente al mismo punto. Esto se cumple en el instante en que A de K' pasa frente a B de K. Es evidente, por los esquemas 5 y 6, que es el momento que el reloj de K' marca un intervalo(t') menor a lo que marca(t) el reloj de K: t' < t . Esquema 6 : Por tanto, la longitud de A_B sería... según K: según K': L=v.t L' = v. t' L' < L L' = L.q * q es el factor de contracción. Si la contracción espacial y la dilatación temporal obedecen a la misma causa, o condicionante, el factor representativo debe ser el mismo. Esto contradice a la premisa de la identidad entre las distancias A_B en K y K' (esquema 5). Así tenemos ¡tiempos diferentes al mismo tiempo, y espacios diferentes entre espacios idénticos! Que un reloj es lento a la vez- es decir al mismo tiempo-que el otro es rápido no es ningún absurdo, pero sí lo es lo que representan: ¡tiempos diferentes al mismo tiempo! La contradicción es descomunal:¡ K y K' son sistemas simultáneos, pero con tiempos diferentes! Si sólo se tratase de las medidas el caso no sería tan grave, aunque nadie entiende que los relojes de un sistema marchen más rápido o más lento que los del otro según la dirección de la luz. Mas, aquí se trata del tiempo mismo si se trata de la velocidad misma, y no solo de su medida. El espectro de interferencias de ondas-luz, en el experimento de Michelson y Morley, y cualquier otro, no obedece a medidas sino a movimientos, y sus velocidades, en sí. Y la Ley de la velocidad constante no sólo se refiere a la medida de la velocidad, sino que de su constancia se infiere la constancia de la velocidad en sí. Hasta aquí aún no hay concordancia plena con el Principío de la relatividad. Pues este principio se basa en la identidad de las leyes que gobiernan los fenómenos físicos respecto de K y K' en movimiento rectilíneo y uniforme, uno respecto del otro. Entonces, los efectos espaciales y temporales deben ser relativos, según el Principio de la relatividad; lo cual implica duplicar la contradicción dentro de otra mayor: lo que ocurre con K' sólo ocurre relativamente: respecto de K; pues todo se debe a su movimiento, y se mueve respecto de lo exterior, en este caso respecto de K. Por lo mismo, debemos considerar que análogamente le ocurre a K, pero respecto de K'; como que se mueve respecto de K'. Einstein: -" ...un observador en reposo en el SC-sistema de coordenadasinferior encontraría que un reloj en movimiento cambia su ritmo. Al mismo resultado llegaría un observador en reposo en el SC superior, al mirar un reloj en movimiento relativo a su sistema;...pues las leyes de la naturaleza deben ser ser las mismas en ambos SC en movimiento relativo."(Física. Aventura del pensamiento. Pág.232). -"No solo nos es posible imaginnar que un reloj en movimiento modifique su ritmo, sino que una barra en movimiento cambie su longitud, siempre que dichas variaciones sean las inerciales."(Ibídem.¨Pág.223). Esquema 7: mismas para todos los SC ¿Cómo entender esto? No se tratarían de perpectivas visuales, como parecen por los esquemas y la inclusión permanente del observador en la disertación de Eisntein, sino de fenómenos independientes de la visión, debidos al movimiento de los sistemas. Los sistemas físicos se mueven aunque no se les observen. La conclusión relativista es una paradoja impresionante. Se trata de una contradición lógica. Ésta puede presentarse en versiones diversas; una, por demás notable, es la de los gemelos: hallándose uno en K y el otro en K', cada cual sería mayor que el otro. No solo en edad, también en dimensión espacial. ¡ Es más, como uno puede llegar a morir de viejo, el otro puede aún estar vivo respecto del muerto, y viceversa! Pero, ¿cuál es el error cometido en el procedimiento de su concepción por el cual se ha caido en este absurdo? Einstein no inventó el Principio de la relatividad, ni la Ley de la velocidad constante de la luz, ni la Teoría ondulatoria, sólo dedujo las consecuencias teóricas relativistas de las premisas que la Física ya había concebido. Einstein: "Con respecto a a teoría de la relatividad no se trata en absoluto de un acto revolucionario, sino del desarrollo natural de una línea que se remonta a siglos y siglos..."(La Teoría de la relatividad. L.Pearce Williams. Alianza Editorial. Madrid, 1981. Pág. 117). No es nada nuevo en la ciencia el que un procedimiento lógicamente correcto conduzca a un absurdo. Y cuando ocurre, no queda sino re-examinar las premisas de su construcción. Es una tarea cualitativa que no puede ser ajena a la Filosofía natural. ¿ Y si sustituimos la Teoría ondulatoria por la Teoría cuántica, o corpuscular, según la cual la unidad de luz es una especie de corpúsculo(fotón)? ¡La Teoría cuántica está plagada también de paradojas, tan o más absurdas que la Teoría de la relatividad! Vale recordar que Einstein contribuyó decisivamente en la construcción de los fundamentos de la Teoría cuántica(que le valieron para ganar el Premio Nóbel de Física de 1921), sin embargo, ni él, ni Max Planck(el fundador de la teoría), nunca quedaron conformes con las consecuencias interpretativas o lógicas de la misma. Además, quedaría la Ley de la velocidad constante de la luz. De esta ley y el Principio de la relatividad es inferible la paradoja relativista, aun sin la Teoría ondulatoria.Salvo que la corrección de una implique la corrección de la otra. Como parece. 5.3 COSMOLOGIA Principios Cosmológicos: El científico, aunque no necesariamente el poeta o el teólogo, comienza su estudio del Universo asumiendo que las leyes físicas, medidas localmente en el laboratorio, tienen una aplicación más general. Si los experimentos comprueban que esta suposición es incorrecta, entonces uno procede a explorar las generalizaciones de la física local. En este espíritu, la cosmología, la ciencia de los estudios del Universo, se desarrolla por extrapolación a lugares remotos en el espacio y el tiempo, de leyes físicas verificadas localmente, que puedan ser comprobadas con las modernas técnicas astronómicas. A diferencia de otras ramas de la ciencia, la cosmología es única en que sólo hay un Universo disponible para el estudio. No podemos ajustar un parámetro, modificar otro, y terminar con un sistema diferente para experimentar. No podremos nunca saber qué tan único es nuestro Universo, porque no tenemos otro Universo para compararlo. El Universo significa todo lo que es o será jamás observable, así que jamás podremos esperar ver otro Universo. Sin embargo, podemos imaginar otros posibles Universos. Podríamos tener un Universo sin galaxias, estrellas o planetas. Es innecesario decir que el hombre no podría existir en tal Universo El hecho mismo de que nuestra especie haya evolucionado en el planeta Tierra impone restricciones significativas sobre las posibles formas en que nuestro Universo ha evolucionado. De hecho, algunos cosmólogos piensan que esta podría ser la única forma en que podremos abordar asuntos tales como: Por qué el espacio tiene tres dimensiones?, o, Por qué el protón tiene una masa que es precisamente 1.836 veces mayor que la del electrón? Si alguno de estos no fuera el caso, nosotros ciertamente no estaríamos aquí. Podemos llevar el argumento más allá: Nuestra actual existencia requiere que el Universo halla tenido tres dimensiones espaciales, y el protón una masa de 1.836 electrones. A esta conclusión se le llama "Principio Cosmológico Antrópico": Particularmente, que el Universo debe ser compatible con el origen y desarrollo de vida inteligente. Por supuesto, esto no es una explicación, y el principio antrópico no tiene significado físico alguno. Más bien, limita nuestras posibilidades. Podría existir una multitud de Universos radicalmente diferentes sobre los que no tenemos que preocuparnos. Es inevitable que un astrónomo estudie objetos remotos en el tiempo, así como en el espacio; La luz viaja una distancia de 300.000 Kilómetros en un segundo, o diez millones de millones de Kilómetros en un año. La estrella más cercana, Alfa Centauri, está a 4,3 años-luz de nosotros: La vemos como era hace más de cuatro años. La galaxia más cercana comparable con nuestra Vía Láctea está a 2 millones de años-luz de distancia: Vemos la Galaxia de Andrómeda, un objeto de ojo desnudo bajo un cielo oscuro, como era cuando el homo sapiens todavía no había evolucionado. Un telescopio grande es una máquina del tiempo que puede llevarnos parte del camino hacia la creación, para examinar regiones de las que la luz emanó hace más de cinco mil millones de años, antes de que nuestro Sol se hubiera formado. Para el cosmólogo, el asunto de la creación es inevitable. Hay tres posibilidades que uno podría concebir para la creación del Universo: 1. El comienzo fue un estado singular, no descriptible por la ciencia física. Un escéptico podría preguntar, Qué hacía Dios antes de que Él creara el Universo? La respuesta apócrifa es que Él estaba preparando el Infierno para la gente que pudiese hacer tales preguntas (atribuida a San Agustín). 2. El comienzo fue el estado más simple y permanente imaginable, conteniendo dentro de sí las semillas de la futura evolución. Esta es la posición moderna, y uno busca las leyes físicas correctas que describan este estado inicial. 3. No hubo creación, y el Universo es inalterable y de edad infinita. Podemos tratar de distinguir entre las últimas dos posibilidades, las únicas dos opciones sobre las que las herramientas científicas podrían ser utilizadas. Las anteriores consideraciones sobre la simplicidad de una teoría exitosa, están incorporadas en un simple principio que sirve de guía para construir un modelo del Universo. Hay varias versiones de tal principio cosmológico. El "Principio Cosmológico" afirma que el Universo, en promedio, se ve igual desde cualquier punto. Es motivado por el argumento de Copérnico sobre que la Tierra no está en una posición central, preferida. Si el Universo es localmente isotrópico, visto desde cualquier punto, es por lo tanto tambien uniforme. Así que el principio cosmológico afirma que el universo es aproximadamente isotrópico y homogéneo, visto por cualquier observador estático. Esto permite la posibilidad de muy diversos estados pasados y futuros para el Universo. Una versión más fuerte, el "Principio Cosmológico Perfecto", va más allá: El Universo parece el mismo desde todo punto y desde todos los tiempos. En otras palabras, no pudo haber evolución: El Universo debe siempre estar en el mismo estado, al menos en un promedio sobre tiempos largos. Finalmente, el "Principio Cosmológico Antrópico" argumenta que el Universo debe haber sido construido como para haber conducido al desarrollo de la inteligencia. Cosmología del Estado Estacionario: "Steady State Universe" (Universo en Estado Estacionario, Bondi, Gold, y Hoyle, 1949) postula la creación de materia a partir del vacío, para satisfacer el Principio Cosmológico Perfecto (la densidad es constante y el Universo parece el mismo, en promedio sobre grandes volúmenes y tiempos). Este postulado fue motivado por un aparente problema de escala de tiempo. Hubble encontró que el Universo de galaxias se expandía con una velocidad dada por: V = H0 * R, que aumentaba sistemáticamente con la distancia R a la galaxia. H0 es la tasa de expansión de Hubble. Esto significa que si no ha habido aceleración o deceleración, toda la materia debe haber estado amontonada al inicio de la expansión; hace un tiempo R/V o 1/H 0. Se encontró que la tasa de expansión de Hubble actualmente era H0= 500 km/s/Mpc en el trabajo original de Hubble. Esto significa que 1/H0 = 2 mil millones de años, era un límite superior para la edad del Universo. Uno podría comparar esto con la técnica de fechado por radioactividad de las rocas antiguas, p. ej. U238 -> Pb205 con una vida-media de 4x109 años. Medidas en diferentes muestras de rocas y meteoritos, las actuales abundancias de isótopos del plomo permiten un estimado de su edad. Inferimos 4.6x10 9 años para las más antiguas rocas meteóricas o Lunares (4.600 millones de años). La teoría de evolución estelar, con fusión de hidrógeno en helio como fuente de energía, produce la edad de los cúmulos globulares, las estrellas más antiguas en nuestra Galaxia. El punto de quiebre en la secuencia principal denota la duración de la era observada de "quemado" de hidrógeno, mientras que la rama horizontal en el diagrama H-R indica la posición de las estrellas que están "quemando" helio. La edad inferida para ajustarse al diagrama H-R observado es 10x109 años (10 mil millones de años). La discrepancia entre la edad de Expansión Universal, por una parte, y las edades de los meteoritos y estrellas por la otra, fue removida en los 1950s, cuando se obtuvo un valor más preciso para H0. El mejor valor moderno es H0 = 50 km/s Mpc, o 1/H0 = 20x109 años (20 mil millones de años). Las predicciones clave de la Cosmología del Estado Estacionario eran que: Hubo y hay creación de un átomo de hidrógeno por metro cúbico cada 10 10 años. La creación se asume que ocurre a partir del vacío, violando radicalmente la ley de conservación de la masa y energía. Se esperaba que tambien se produjera antimateria, produciendo un fondo de rayos gamma que resultaría de la ocasional aniquilación de protones y antiprotones. No se quiere violar tambien otra ley fundamental, la ley de conservación de la carga eléctrica. Por tanto otra posible forma de nueva materia creada son neutrones. Estos decaen dejando gas caliente que emite rayos-X difundiéndose por el Universo. Ni los esperados rayos gamma cósmicos, ni los rayos-X, fueron observados, de modo que la teoría fue modificada para postular creación sólo en densos núcleos que identificamos con los núcleos de las galaxias. No La ha podido cuenta de ocurrir fuentes evolución de radio a grandes investigó distancias. esta predicción: N(>f) es el número observado más brillantes que el flujo f, el cual, para una fuente a una distancia d, con luminosidad L, está dada por f = L/4Pi d 2. Así que la distancia hasta la que es posible observar, en un sondeo limitado por flujo, de fuentes con idéntica luminosidad L es d = (L/4Pi f)1/2. Ahora bien, el número total de fuentes medidas en un sondeo de todo el cielo es N=(4/3)Pi d3n, donde n es la densidad de la fuente. El modelo del Estado Estacionario predice que n = constante, de manera que N(>f) es proporcional a d3 o (L/f)3/2, prediciendo que al aumentar la sensibilidad del sondeo (o al disminuir f), N(>f) debería aumentar como f -3/2 en el espacio Euclidiano. Las observaciones revelaron un aumento mucho más fuerte en la cuenta de fuentes. Los proponentes del modelo del Estado Estacionario en los 1950s argumentaron que podríamos estar viviendo en un rincón muy local. Sin embargo, subsiguientes identificaciones ópticas y determinaciones de distancia han mostrado que principalmente las fuentes de radio son radio galaxias y quasares que están a varios miles de millones de mega-parsecs de nosotros, demostrando que la evolución debe estar ocurriendo sobre una escala del orden de 10 10 años. Las galaxias luminosas emisoras de radio eran mucho más frecuentes en el pasado que lo que parecen ser actualmente. El golpe final para la teoría del Estado Estacionario vino con el descubrimiento del Fondo Cósmico de Microondas en 1964. Este era evidencia directa de radiación originada en una fase densa y caliente del Universo, como predijo la teoría del Big Bang. Está caracterizada por un espectro de cuerpo negro apropiado para un cuerpo negro a 2,75 grados Kelvin. La intensidad de la radiación un cuerpo negro tan frío, llega a un máximo en una longitud de onda de 1mm, en la banda de microondas. Para explicar tal radiación en un modelo de Estado Estacionario se requiere postular la presencia universal de gramos de polvo milimétricos, que absorberían un intenso campo de radiación producido por muchas galaxias excepcionalmente luminosas, y lo re-irradiarían a la temperatura apropiada. Esta interpretación es tan artificial, y requiere tantas conjeturas especiales, que es considerada muy poco posible. INVESTIGACION ACERCA DE LA COSMOLOGÍA Alumno: Tomas Rossini Profesora: Claudia Gonzalez Estudio del Universo en su conjunto, en el que se incluyen teorías sobre su origen, su evolución, su estructura a gran escala y su futuro. Al estudio más específico del origen del Universo y de sus sistemas astronómicos como el Sistema Solar, se le suele llamar cosmogonía. Primeras teorías cosmológicas Las teorías cosmológicas más antiguas datan del 4000 a.C., y son las de los pueblos mesopotámicos, que creían que la Tierra era el centro del Universo y que todos los demás cuerpos celestes giraban alrededor de ella. Algunos clásicos como Aristóteles y el astrónomo griego Tolomeo, explicaban que las estrellas se movían de noche porque estaban fijas en esferas cristalinas rotatorias. El astrónomo griego Aristarco de Samos, alrededor del 270 a.C., sostenía que la Tierra gira alrededor del Sol. Sin embargo, debido sobre todo a la autoridad de Aristóteles, el concepto de que la Tierra era el centro del Universo permaneció inamovible hasta 1543, cuando el astrónomo polaco Nicolás Copérnico publicó sus teorías en De revolutionibus orbium caelestium (Sobre las revoluciones de los cuerpos celestes). Copérnico proponía un sistema en el que los planetas giraban en órbitas circulares alrededor del Sol, el cual estaba situado en el centro del Universo. Atribuía el nacimiento y la colocación de las estrellas a la rotación de la Tierra sobre su eje. El astrónomo alemán Johannes Kepler adoptó el sistema copernicano y descubrió que los planetas giran en órbitas elípticas a velocidad variable, de acuerdo con tres leyes bien definidas (conocidas desde entonces como leyes de Kepler). Galileo, uno de los primeros en observar los planetas con un telescopio, también rechazó la idea de Aristóteles de que la Tierra era el centro del Universo y se convirtió en un defensor de la visión copernicana del mundo. El matemático y físico inglés Isaac Newton demostró que las leyes de Kepler sobre el movimiento planetario podían derivarse de las leyes generales del movimiento y de la gravitación que Newton había descubierto, indicando así que estas leyes físicas eran válidas en todo el Universo. Distancias interestelares Una idea de la escala de las distancias entre las estrellas fue proporcionada a principios del siglo XIX por el astrónomo alemán Friedrich Wilhelm Bessel. Descubrió que la cercana estrella 61 Cygni estaba unas 600.000 veces más lejos de la Tierra que el Sol. En 1917 el astrónomo estadounidense Harlow Shapley calculó que la galaxia de la Tierra, la Vía Láctea, tiene un diámetro de unos 350.000 años luz; ésta fue la primera indicación del tamaño de nuestra galaxia. Por desgracia, Shapley no consideró la absorción de la luz de las estrellas por partículas de polvo en la Vía Láctea, lo que hace que los objetos parezcan más oscuros y, por tanto, más lejos de lo que están en realidad. El actual valor del diámetro de la parte visible de nuestra galaxia es de unos 30.000 parsecs (100.000 años luz). El astrónomo holandés Jan Hendrik Oort descubrió que el Sol tarda 250.000 millones de años en completar una revolución en torno al centro de nuestra galaxia y de esta forma pudo calcular que la masa de la Vía Láctea es de unas 100.000 millones de veces la masa del Sol. Hasta comienzos del siglo XX, los astrónomos no conocían con seguridad la naturaleza de lo que describían como nebulosas espirales y elípticas; no podían determinar si estaban dentro o fuera de nuestra galaxia. En 1924 el astrónomo estadounidense Edwin Hubble logró descubrir estrellas individuales en alguno de estos objetos, entre ellos, la famosa Andrómeda. Varias de estas estrellas eran estrellas pulsantes, llamadas variables cefeidas. Midiendo su periodo de pulsación, los astrónomos pueden determinar el brillo intrínseco de estas estrellas. Comparando el brillo aparente de estas cefeidas con el brillo conocido de las cefeidas cercanas, Hubble comprobó que los objetos que estudiaba estaban fuera de la galaxia. Esto significaba que las miles de ‘nebulosas’ espirales y elípticas eran galaxias por derecho propio, externas a la Vía Láctea, y que cada una de ellas contenía cientos de miles de millones de estrellas. Hubble calculó que la distancia a la galaxia Andrómeda era de 900.000 años luz, cifra después corregida a los 2,2 millones de años luz, cuando los astrónomos descubrieron que las cefeidas estaban más lejos de lo que pensaron en un principio. Ley de Hubble El astrónomo estadounidense Vesto M. Slipher, que estudió los espectros de las galaxias, ya había observado en 1912 que, excepto en unos pocos sistemas cercanos como la galaxia Andrómeda, las líneas espectrales se habían desplazado hacia longitudes de onda mayores. Este desplazamiento en longitud de onda, debido al efecto Doppler, mostraba que la mayoría de las galaxias se alejaban de la Vía Láctea. En 1929 Hubble comparó las distancias que había calculado para diferentes galaxias con los desplazamientos hacia el rojo fijados por Slipher para las mismas galaxias. Descubrió que cuanto más lejos estaba la galaxia, más alta era su velocidad de recesión. A esta relación se la conoce como la ley de los desplazamientos hacia el rojo o ley de Hubble; determina que la velocidad de una galaxia es proporcional a su distancia. La relación entre la velocidad de recesión de una galaxia y su distancia (la constante de Hubble) se calcula que está entre los 50 y los 100 km/s por megaparsec (1 megaparsec equivale a 1 millón de parsecs). Como parece que las galaxias retroceden en todas direcciones desde la Vía Láctea, se podría pensar que nuestra galaxia es el centro del Universo. Sin embargo, esto no es así. Imaginemos un globo con puntos uniformemente separados. Al inflar el globo, un observador en un punto de su superficie vería cómo todos los demás puntos se alejan de él, igual que los observadores ven a todas las galaxias retroceder desde la Vía Láctea. La analogía también nos proporciona una explicación sencilla de la ley de Hubble: el Universo se expande como un globo. Modelos estáticos y de expansión del Universo En 1917 Albert Einstein propuso un modelo del Universo basado en su nueva teoría de la relatividad general. Consideraba el tiempo como una cuarta dimensión y demostró que la gravitación era equivalente a una curvatura espacio-tiempo cuatridimensional resultante. Su teoría indicaba que el Universo no era estático, sino que debía expandirse o contraerse. La expansión del Universo todavía no había sido descubierta, por lo que Einstein planteó la existencia de una fuerza de repulsión entre las galaxias que compensaba la fuerza gravitatoria de atracción. Esto le llevó a introducir una ‘constante cosmológica’ en sus ecuaciones; el resultado era un universo estático. Sin embargo, desaprovechó la oportunidad de predecir la expansión del Universo, lo que Einstein calificaría como “el mayor error de mi vida”. El astrónomo holandés Willem de Sitter desarrolló en 1917 modelos no estáticos del Universo. En 1922 lo hizo el matemático ruso Alexander Friedmann y en 1927 el sacerdote belga Georges Lemaître. El universo de De Sitter resolvió las ecuaciones relativistas de Einstein para un universo vacío, de modo que las fuerzas gravitatorias no eran importantes. La solución de Friedmann depende de la densidad de la materia en el Universo y es el modelo de universo generalmente aceptado. Lemaître también dio una solución a la ecuación de Einstein, pero es más conocido por haber introducido la idea del ‘núcleo primordial’. Afirmaba que las galaxias son fragmentos despedidos por la explosión de este núcleo, dando como resultado la expansión del Universo. Éste fue el comienzo de la teoría de la Gran Explosión sobre el origen del Universo El destino del universo de Friedmann está determinado por la densidad media de la materia en el Universo. Si hay relativamente poca materia, la atracción gravitatoria mutua entre las galaxias disminuirá las velocidades de recesión sólo un poco y el Universo se expandirá indefinidamente. Esto dará como resultado un llamado ‘universo abierto’, infinito en extensión. Sin embargo, si la densidad de la materia está por encima de un valor crítico estimado actualmente en 5 × 10-30 g/cm3, la expansión descenderá hasta detenerse y llegar a la contracción, finalizando en el colapso gravitatorio total del Universo entero. Éste sería un ‘universo cerrado’, finito en extensión. El destino de este universo colapsado es incierto, pero hay una teoría según la cual explotaría de nuevo, originando un nuevo universo en expansión, que se volvería a colapsar, y así hasta el infinito. A este modelo se le llama universo oscilante o pulsante. La edad del Universo Si se conoce la tasa de expansión del Universo, se puede calcular su edad determinando el tiempo que se requiere para alcanzar su tamaño actual. Éste será de hecho un límite superior, cuando la expansión actual haya disminuido a causa de la atracción gravitatoria mutua entre las galaxias. Los primeros cálculos de la edad del Universo le concedieron un valor de sólo 2.000 millones de años. Esta edad es bastante menor que la de 5.000 millones de años de la Tierra que se ha deducido de la abundancia de ciertos isótopos radiactivos. Correcciones posteriores en la escala de distancias han suprimido esta discrepancia. Se descubrió, por ejemplo, que hay dos tipos de variables cefeidas, con brillo intrínseco diferente. Esta confusión había ocasionado que Hubble subestimara la distancia a la galaxia Andrómeda. Actualmente, se considera que la edad del Universo está entre los 7.000 y los 20.000 millones de años y de este modo, no se establece conflicto con la edad de la Tierra. Sin embargo, algunas estimaciones chocan con la edad calculada de objetos astronómicos como los cúmulos de estrellas, de forma que el problema de la edad del Universo sigue siendo una cuestión importante para la cosmología actual. La teoría del universo estacionario En 1948, los astrónomos británicos Hermann Bondi, Thomas Gold y Fred Hoyle presentaron un modelo completamente distinto de universo, conocido como la teoría del universo estacionario. Consideraban insatisfactoria, desde el punto de vista filosófico, la idea de un repentino comienzo del Universo. Su modelo se derivaba de una extensión del ‘principio cosmológico’, que sostiene teorías anteriores como el modelo de Friedmann. En su forma previa, más restringida, el principio afirmaba que el Universo parece el mismo en su conjunto, en un momento determinado desde cualquier posición. El ‘principio cosmológico perfecto’ de Bondi, Gold y Hoyle añade el postulado de que el Universo parece el mismo siempre. Plantean que la disminución de la densidad del Universo provocada por su expansión se compensa con la creación continua de materia, que se condensa en galaxias que ocupan el lugar de las galaxias que se han separado de la Vía Láctea y así se mantiene la apariencia actual del Universo (es la teoría de creación continua). La teoría del universo estacionario, al menos en esta forma, no la aceptan la mayoría de los cosmólogos, en especial después del descubrimiento aparentemente incompatible de la radiación de fondo de microondas en 1965. El descubrimiento de quásares también aportó pruebas que contradicen la teoría del universo estacionario. Los quásares son sistemas extragalácticos muy pequeños pero muy luminosos que solamente se encuentran a grandes distancias. Su luz ha tardado en llegar a la Tierra varios cientos de miles de años. Por lo tanto, los quásares son objetos del pasado remoto, lo que indica que hace unos pocos de cientos de miles de años la constitución del Universo fue muy distinta de lo que es hoy en día. La teoría del Big Bang o de la Gran Explosión En 1948 el físico ruso nacionalizado estadounidense George Gamow modificó la teoría de Lemaître del núcleo primordial. Gamow planteó que el Universo se creó en una explosión gigantesca y que los diversos elementos que hoy se observan se produjeron durante los primeros minutos después de la Gran Explosión (Big Bang), cuando la temperatura extremadamente alta y la densidad del Universo fusionaron partículas subatómicas en los elementos químicos. Cálculos más recientes indican que el hidrógeno y el helio habrían sido los productos primarios de la Gran Explosión, y los elementos más pesados se produjeron más tarde, dentro de las estrellas. Sin embargo, la teoría de Gamow proporciona una base para la comprensión de los primeros estadios del Universo y su posterior evolución. A causa de su elevadísima densidad, la materia existente en los primeros momentos del Universo se expandió con rapidez. Al expandirse, el helio y el hidrógeno se enfriaron y se condensaron en estrellas y en galaxias. Esto explica la expansión del Universo y la base física de la ley de Hubble. Según se expandía el Universo, la radiación residual de la Gran Explosión continuó enfriándose, hasta llegar a una temperatura de unos 3 K (-270 °C). Estos vestigios de radiación de fondo de microondas fueron detectados por los radioastrónomos en 1965, proporcionando así lo que la mayoría de los astrónomos consideran la confirmación de la teoría de la Gran Explosión. Evolución del Universo Uno de los problemas sin resolver en el modelo del Universo en expansión es si el Universo es abierto o cerrado (esto es, si se expandirá indefinidamente o se volverá a contraer). Un intento de resolver este problema es determinar si la densidad media de la materia en el Universo es mayor que el valor crítico en el modelo de Friedmann. La masa de una galaxia se puede medir observando el movimiento de sus estrellas; multiplicando la masa de cada galaxia por el número de galaxias se ve que la densidad es sólo del 5 al 10% del valor crítico. La masa de un cúmulo de galaxias se puede determinar de forma análoga, midiendo el movimiento de las galaxias que contiene. Al multiplicar esta masa por el número de cúmulos de galaxias se obtiene una densidad mucho mayor, que se aproxima al límite crítico que indicaría que el Universo está cerrado. La diferencia entre estos dos métodos sugiere la presencia de materia invisible, la llamada materia oscura, dentro de cada cúmulo pero fuera de las galaxias visibles. Hasta que se comprenda el fenómeno de la masa oculta, este método de determinar el destino del Universo será poco convincente. Como la luz de las galaxias más alejadas ha estado viajando cientos de miles de años, el Universo se observa como aparecía en el pasado lejano. Al utilizar nuevos detectores infrarrojos conocidos como series de gran formato, los astrónomos del Observatorio Mauna Kea, en Hawaii, han registrado cientos de galaxias, las más mortecinas jamás observadas, la mayoría de ellas agrupadas a una distancia de 600.000 años luz. Una anomalía en esta visión del Universo de hace 600.000 años es que, más que una mezcla de tipos galácticos, predomina un tipo: una clase de galaxias pequeñas y compactas que contienen muchas menos estrellas que la Vía Láctea u otras de su clase. Las jóvenes galaxias espirales y elípticas que se observan en la actualidad se pueden haber formado por la fusión de fragmentos galácticos de masa baja, relativamente tarde en la historia del Universo, mucho después de la Gran Explosión, y pueden representar cada uno de los estadios en la evolución del Universo. Muchos de los trabajos habituales en cosmología teórica se centran en desarrollar una mejor comprensión de los procesos que deben haber dado lugar a la Gran Explosión. La teoría inflacionaria, formulada en la década de 1980, resuelve dificultades importantes en el planteamiento original de Gamow al incorporar avances recientes en la física de las partículas elementales. Estas teorías también han conducido a especulaciones tan osadas como la posibilidad de una infinitud de universos producidos de acuerdo con el modelo inflacionario. Sin embargo, la mayoría de los cosmólogos se preocupa más de localizar el paradero de la materia oscura, mientras que una minoría, encabezada por el sueco Hannes Alfvén, premio Nobel de Física, mantienen la idea de que no es la gravedad sino los fenómenos del plasma, la clave para comprender la estructura y la evolución del Universo. 6. BIBLIOGRAFIA 1917. A. Einstein introduce el concepto de emisión estimulada. 1954. N. G. Basov, A. M. Prokhorov e —independientemente— C.H. Townes, construyen un amplificador de microondas (MÁSER) utilizando el proceso de emisión estimulada. 1958. A. M. Prokhorov e —independientemente— A. L. Schawlow y C. H. Townes justifican teóricamente la posibilidad de construir un oscilador óptico de luz visible (láser). 1960. T. H. Maiman construye el primer láser (de rubí). 1961. A. Javan construye un láser utilizando una mezcla gaseosa de helioneón. 1961. Hellwarth realiza investigación fundamental sobre el Q-Switching. 1961. Snitzer realiza investigación sobre el láser de Nd:vidrio. 1961-1962. N. Bloenbergen y R.V. Khokhov realizan investigaciones teóricas fundamentales en el campo de la óptica no lineal y los láseres. 1962-1963. Los primeros láseres de semiconductores funcionan en varios laboratorios del mundo. 1964. Geusic, Marios y Van Uitert realizan investigación sobre el láser de Nd:YAG. 1964. Patel construye el primer láser de CO2. 1964. Kasper y Pimentel desarrollan el láser químico de yodo. 1964. Dominico y Hargrove desarrollan el Mode-Locking. 1969. Beaulieu desarrolla los láseres TEA. 1970. Basov desarrolla los láseres de excímeros. 1976. Ewing y Brau desarrollan el láser de KrF2.