CURSO PROPEDEUTICO DE FÍSICA AGOSTO 2013 LIC. EN FISIOTERÁPIA Elaborado por: Alejandro Carreto Sosa 1 Sonido Del latín sonitus, un sonido es una sensación que se genera en el oído a partir de las vibraciones de las cosas. Estas vibraciones se transmiten por el aire u otro medio elástico. Para la física, el sonido implica un fenómeno vinculado a la difusión de una onda de características elásticas que produce una vibración en un cuerpo, aun cuando estas ondas no se escuchen. El sonido audible para los seres humanos está formado por las variaciones que se producen en la presión del aire, que el oído convierte en ondas mecánicas para que el cerebro pueda percibirlas y procesarlas. Al propagarse, el sonido transporta energía pero no materia. Las vibraciones se generan en idéntico rumbo en el que se difunde el sonido: puede hablarse, por lo tanto, de ondas longitudinales. Se ha estimado que el sonido, cuando se registra una temperatura de veinte grados centígrados, alcanza una velocidad en el aire de trescientos cuarenta metros por segundo. Cabe destacar, por lo tanto, que la velocidad que consigue el sonido es superior en los medios sólidos que en los líquidos, y que es mayor en éstos últimos que en los gases. Se conoce como potencia acústica, por otra parte, a la cantidad energética en forma de ondas que emite una cierta fuente por unidad de tiempo. Esta potencia depende de la amplitud (la variación más grande de desplazamiento del movimiento ondulatorio). Las cualidades principales del sonido son la altura (grave, agudo o medio, según la frecuencia de las ondas), la duración (el tiempo en el cual se mantiene el sonido), el timbre (su rasgo característico) y la intensidad (la cantidad de energía que contiene FÍSICA DEL SONIDO Naturaleza del sonido El sonido consiste en la propagación de una perturbación en un medio (en general el aire). ¿Cómo es la energía sonora? ¿Cómo se propaga la energía de un lugar a otro? Para comprender mejor esto imaginemos un tubo muy largo lleno de aire. El aire está formado por una cantidad muy grande de pequeñas partículas o moléculas. Inicialmente, el aire dentro del tubo está en reposo (o más técnicamente, en equilibrio). Este equilibrio es dinámico ya que las moléculas se mueven en todas direcciones debido a la agitación térmica, pero con la particularidad de que están homogéneamente distribuidas (en cada cm3 de aire hay aproximadamente la misma cantidad de moléculas - 25 trillones). 2 Supongamos que se mueve rápidamente el pistón hacia el interior del tubo. Las moléculas que se encuentran junto al pistón serán empujadas, mientras que las que se encuentran alejadas no. En la zona del pistón el aire se encontrará más comprimido que lejos de él, es decir que la misma cantidad de aire ocupa menos espacio. El aire comprimido tiende a descomprimirse (como cuando abrimos la válvula de un neumático) desplazándose hacia la derecha y comprimiendo el aire próximo. Esta nueva compresión implica nuevamente una tendencia a descomprimirse, por lo que la perturbación original se propaga a lo largo del tubo alejándose de la fuente. Es importante enfatizar que el aire no se mueve de un lugar a otro junto con el sonido. Hay trasmisión de energía pero no traslado de materia (comparar con el olfato). Propagación Características del medio - Para que la onda sonora se propague en un medio este debe ser elástico, tener masa e inercia. El aire posee además algunas características relevantes para la propagación del sonido: • • • La propagación es lineal (en el intervalo de sonidos audibles la aproximación es válida). Esto permite que diferentes ondas sonoras se propaguen por el mismo espacio al mismo tiempo sin afectarse. El medio es no dispersivo. Por esta razón las ondas se propagan a la misma velocidad independientemente de su frecuencia o amplitud. El medio es homogéneo. No existen direcciones de propagación privilegiadas por lo que el sonido se propaga esféricamente (en todas direcciones). Ondas de sonido Las ondas mecánicas son las que se propagan a través de un material (sólido, líquido, gaseoso). La velocidad de propagación depende de las propiedades elásticas e inerciales del medio. Hay dos tipos básicos de ondas mecánicas: transversales y longitudinales. En las ondas longitudinales el desplazamiento de las partículas es paralelo a la dirección de propagación, mientras que en las ondas transversales es perpendicular. Las ondas sonoras son longitudinales. En muchos instrumentos (como en la vibración de una cuerda) podemos identificar ondas transversales (así como en la membrana basilar dentro de la cóclea, en el oído interno). Excitación periódica La mayoría de los sonidos de la naturaleza no son producto de una única perturbación del aire, sino de múltiples perturbaciones sucesivas. Un ejemplo de esto es la excitación producida por un diapasón luego de ser golpeado, analizada la clase pasada. 3 Consideremos un movimiento periódico del pistón. (Ver animación de movimiento periódico del pistón). Sucesión de compresiones y rarefacciones del aire cerca del pistón genera una onda periódica que se propaga alejándose de la fuente. Luego de que la primera perturbación recorrió cierta distancia comienza la segunda, y así sucesivamente. La longitud de onda es la distancia entre perturbaciones sucesivas en el espacio. La frecuencia es la cantidad de perturbaciones por segundo (en ciclos por segundo o Hz). Como ya mencionamos, al aire libre, las ondas sonoras se propagan en todas direcciones, como ondas esféricas. (Ver animación de radiación de un monopolo y un diapasón). En presencia de superficies reflectoras la onda deja de ser esférica para volverse sumamente compleja debido a la superposición con las reflexiones. Se denomina campo sonoro a la forma en que se distribuye el sonido en diversos puntos dentro de un determinado espacio como una sala o al aire libre. Se denomina frente de onda al conjunto de puntos de la onda sonora que se encuentran en fase, o de otra forma, una superficie continua que es alcanzada por la perturbación en un instante. Dentro del tubo el frente de onda es plano, mientras que en el monopolo al aire libre el frente de onda es esférico. A determinada distancia las ondas esféricas pueden considerarse ondas planas. Presión sonora Según lo visto hasta el momento, el sonido puede considerarse como una sucesión de ondas de compresión y rarefacción que se propaga por el aire. Sin embargo si nos ubicamos en un punto en el espacio (una posición fija) veremos como la presión atmosférica aumenta y disminuye periódicamente a medida que tienen lugar las sucesivas perturbaciones. La presión atmosférica se mide en Pascal y es del orden de los 100.000 Pa (o como en los informes meteorológicos de 100 hPa). Sin embargo, cambios de presión debidos al pasaje de una onda sonora son muy pequeños respecto a este valor de presión atmosférica. Los sonidos más intensos que se perciben implican un incremento de 20 Pa. Por esta razón, para distinguir el incremento de presión de la presión atmosférica en ausencia de sonido se lo denomina presión sonora (p). La presión sonora es la presión que se debe agregar a la presión atmosférica para obtener el valor real de presión atmosférica en presencia de sonido. Las presiones sonoras audibles varían entre los 20 micro Pa y los 20 Pa (esto se verá mejor en otras clases). Es importante apreciar que es un rango muy importante de variación (de un millón de veces). Esta gran cantidad de cifras es incómoda de manejar. Es por esta razón y por razones fisiológicas que normalmente se expresa la presión sonora en decibles y se denomina Nivel de Presión Sonora (NPS o SPL por sus iniciales en inglés). Se define un nivel de presión sonora de referencia, que es aproximadamente la mínima presión audible (20 micro Pa). Se define el Nivel de Presión Sonora como: 4 El nivel de referencia corresponde a 0dB mientras que el nivel sonoro máximo corresponde a 120dB. El rango de audición es entonces de 120dB. Una sala de conciertos vacía 30 dB Conversación susurrando 40 dB Potencia máxima de altoparlante doméstico un 110 dB Dispersión de potencia - pérdida proporcional al cuadrado de la distancia Representación de una onda sonora Según la naturaleza del sonido que hemos analizado, su representación en un oscilograma es para un punto espacial, el valor de presión sonora en cada instante de tiempo. Es decir, que la representación más usual de la onda sonora es como la variación de presión sonora en el tiempo. (Hacer diagrama en el pizarrón relacionando la distribución de moléculas y presión en el tubo con la representación del sonido como onda senoidal). Esta variación de presión sonora puede traducirse a la variación de otra magnitud. Por ejemplo un micrófono es un trasductor de variación de presión sonora a variación de una magnitud eléctrica (voltaje o corriente). Velocidad, longitud de onda y frecuencia de una onda sonora. ¿De qué forma se relacionan la longitud de onda y la frecuencia de una onda sonora? A mayor frecuencia menor longitud de onda y viceversa. Para ver de qué forma se relacionan consideremos una onda periódica desplazándose hacia la derecha. El tiempo entre el instante que una cresta pasa por un punto espacial dado y el instante en que llega la próxima es el período T (T=1/f). La distancia que recorre la onda de un instante a otro corresponde a la longitud de onda L, por lo que la relación es: L /T = Lf = c, donde c es la velocidad del sonido. 5 Como ya mencionamos la velocidad de propagación del sonido no depende de la frecuencia ni de la intensidad del mismo sino de las características del medio. En el aire su velocidad es de aproximadamente 344 m/s @ 20C (o 1200 km/h - 3 segundos para recorrer 1 km). Esta velocidad aumenta con la temperatura (0.17% /grado C), pero no cambia con la presión. En los líquidos es un poco mayor (1440 m/s en el agua) y mayor aún en los sólidos (5000 m/s en el acero). No debemos confundir la velocidad de propagación de la onda sonora con la velocidad instantánea de las partículas (estas realizan un movimiento oscilatorio más rápido). Podemos apreciar que la velocidad del sonido es relativamente alta y normalmente la propagación parece instantánea. Sin embargo en algunos casos es notoria, por ejemplo al compararla con la velocidad de la luz. Ejemplos: ver una banda tocando en la plaza desde lo alto de un edificio, relámpago y trueno, eco, sistema de amplificación. El rango de frecuencias audibles se considera de forma muy aproximada entre los 20 Hz y 20 kHz. Esto determina cierto rango de valores de longitud de onda del sonido que va desde los 1,7 cm a 17m. Las longitudes de onda son comparables a los objetos ordinarios de la vida cotidiana. Esto es determinante en la forma en que se propaga el sonido, como veremos a continuación. La longitud de onda juega un papel importante en las dimensiones de los altavoces. Cuando la longitud de onda emitida por un parlante es mucho menor que su propio tamaño la potencia emitida se reduce considerablemente. Es por esta razón que los tweeters son mucho más pequeños que los woofers. Difracción Las ondas luminosas poseen una longitud de onda muy pequeña (de 0,6 millonésimos de metros). Sabemos por experiencia que la luz se propaga en línea recta y arroja sombras bien definidas. Por otra parte, las olas del océano tienen una longitud de onda de varios metros. También sabemos que fluyen alrededor de un pilote que sobresalga del agua y son poco afectadas por el mismo. Estos ejemplos ilustran un hecho sumamente importante: las ondas son afectadas por objetos grandes comparados con su longitud de onda. Frente a objetos grandes las ondas arrojan sombras y parecen moverse en línea recta. Pero las ondas son poco afectadas por objetos pequeños comparados con su longitud de onda y pasan a través de tales objetos. La longitud de onda de las ondas sonoras está a medio camino respecto a los objetos que nos rodean, por lo que en general muestran un comportamiento mixto. Las ondas graves (de longitud de onda grande) son capaces de eludir objetos ordinarios y por ejemplo dar vuelta una esquina. Por el contrario los agudos tienden a propagarse en línea recta y arrojan sombras acústicas. Sabemos por experiencia que los graves de un parlante se dispersan en todas direcciones pero si salimos de la habitación donde está el parlante perdemos las notas agudas. La difracción es de especial importancia en nuestra capacidad de localización del sonido (para sonidos agudos). La cabeza y las orejas arrojan sombras acústicas. 6 Otro ejemplo son los micrófonos que arrojan sombra sobre sí mismos para las frecuencias agudas y tiene una transferencia no completamente plana. ejemplo: Al aire libre, una persona canta una nota baja y luego silba una nota aguda. El sonido es casi tan intenso adelante y atrás para la nota grave y apreciablemente más fuerte adelante que atrás para el silbido. Interferencia - Superposición de ondas Mencionamos que las ondas sonoras se propagan sin afectarse unas a otras, incluso cuando su diferencia de intensidad es muy grande (linealidad del medio). Sin embargo, el sistema auditivo es sensible a la presión sonora total. Es necesario analizar cómo se combinan o superponen diferentes ondas sonoras. La forma de onda resultante de la superposición de ondas se obtiene sumando algebraicamente cada una de las ondas que componen el movimiento. Si superponemos ondas sinusoidales de igual frecuencia (pero distinta amplitud y fase) obtenemos una sinusoidal de igual frecuencia pero diferente amplitud y fase. Eventualmente ambas ondas podrían cancelarse, si tuvieran igual amplitud pero a contrafase (180º). Interferencia constructiva (dfi < L/2) y destructiva (dfi > L/2). La superposición de sinusoidales es de especial relevancia ya que la teoría de Fourier establece que un sonidos periódico complejo puede descomponerse como suma de sinusoidales. 7 Reflexión Cuando una onda sonora se refleja en un plano, parte de la energía se trasmite al obstáculo y otra parte es reflejada. Una de las formas de interferencia más usuales entre dos ondas sonoras es la que se produce entre una onda sonora proveniente de la fuente y una reflexión de la misma que viaja en la misma dirección. Dos ondas de igual frecuencia viajando en sentidos opuestos forman un patrón de onda estacionaria. La onda resultante no se propaga, sino que oscila presentando puntos de amplitud mínima (nodos) y puntos de amplitud máxima (antinodos). En una cuerda vibrando puede distinguirse un patrón de onda estacionaria. Pulsaciones La superposición de ondas de frecuencia cercana produce un fenómeno particular denominado pulsación o batido. Si las frecuencias son muy cercanas el sistema auditivo no es capaz de discriminarlas y se percibe una frecuencia única promedio de las presentes (½ [f1+f2]). La onda resultante cambia en amplitud a una frecuencia igual a la diferencia entre las frecuencias presentes (f1-f2). 8 Este fenómeno de batido se percibe para diferencias de frecuencia de hasta aproximadamente 1520 Hz. Al aumentar la diferencia se comienza a percibir un sonido áspero y al seguir aumentando llega un punto en que son percibidas como frecuencias diferentes. Oscilaciones Si un sistema recibe una única fuerza y comienza a oscilar hasta detenerse, el tipo de oscilación se denomina oscilación libre. Si nada perturbara el sistema este seguiría oscilando indefinidamente. En la naturaleza la fuerza de rozamiento (o fricción) amortigua el movimiento hasta que finalmente se detiene. Este tipo de oscilación se llama oscilación amortiguada y su amplitud varía exponencialmente decayendo con cierta constante de tiempo. Si se continúa introduciendo energía al sistema podemos contrarrestar la amortiguación logrando una oscilación autosostenida. Esta oscilación se caracteriza por tener además de un ataque y un decaimiento, una fase intermedia casi estacionaria. Una oscilación forzada puede producirse al aplicar una excitación periódica de frecuencia diferente a la frecuencia propia de oscilación del sistema, logrando que este vibre a la frecuencia de la excitación. 9 Se denomina generador al elemento que produce la excitación, y resonador al sistema que se pone en vibración. Este tipo de oscilación forzada es la que se produce en las cuerdas de una guitarra que vibran por "simpatía". No siempre es posible obtener una oscilación forzada, sino que depende de la relación entre las características del generador y el resonador. En el caso de una oscilación forzada, cuando la frecuencia del generador coincide con la del resonador, se dice que el sistema está en resonancia. La magnitud de la oscilación del resonador depende de la magnitud de la excitación pero también de la relación entre las frecuencias de excitación y de resonancia. Cuanto mayor es la diferencia de frecuencias menor será la amplitud de la oscilación. Por el contrario cuando las frecuencias coinciden exactamente una pequeña cantidad de energía de excitación puede producir grandes amplitudes de vibración. En un caso extremo el sistema resonador puede llegar a romperse, como cuando un cantante rompe una copa de cristal al dar una nota aguda. Muchos instrumentos musicales tienen un elemento resonador que determina el timbre del instrumento favoreciendo algunos parciales de la excitación original. 10 LUZ 1. Introducción La óptica es la parte de la física que estudia la luz y los fenómenos relacionados con ella, y su estudio comienza cuando el hombre intenta explicarse el fenómeno de la visión. Diferentes teorías se han ido desarrollando para interpretar la naturaleza de la luz hasta llegar al conocimiento actual. Las primeras aportaciones conocidas son las de Lepucio (450 a.C.) perteneciente a la escuela atomista, que consideraban que los cuerpos eran focos que desprendían imágenes, algo así como halos oscuros, que eran captados por los ojos y de éstos pasaban al alma, que los interpretaba. Los partidarios de la escuela pitagórica afirmaban justamente lo contrario: no eran los objetos los focos emisores, sino los ojos. Su máximo representante fue Apuleyo (400 a.C.); haciendo un símil con el sentido del tacto, suponían que el ojo palpaba los objetos mediante una fuerza invisible a modo de tentáculo, y al explorar los objetos determinaba sus dimensiones y color. Dentro de la misma escuela, Euclides (300 a.C.) introdujo el concepto de rayo de luz emitido por el ojo, que se propagaba en línea recta hasta alcanzar el objeto. Pasarían nada más que trece siglos antes de que el árabe Ajasen Basora (965-1039) opinara que la luz era un proyectil que provenía del Sol, rebotaba en los objetos y de éstos al ojo. ¿Qué es la luz?. Los sabios de todas las épocas han tratado de responder a esta pregunta. Los griegos suponían que la luz emanaba de los objetos, y era algo así como un "espectro" de los mismos, extraordinariamente sutil, que al llegar al ojo del observador le permitía verlo. De esta manera los griegos y los egipcios se abocaron a la solución de estos problemas sin encontrar respuestas adecuadas. Posteriormente en la Europa del S. XV al XVII, con los avances realizados por la ciencia y la técnica, surgieron muchos matemáticos y filósofos que produjeron importantes trabajos sobre la luz y los fenómenos luminosos. Es Newton el que formula la primera hipótesis seria sobre la naturaleza de la luz. 2. Modelo corpuscular. Se la conoce como teoría corpuscular o de la emisión. A finales del siglo XVI, con el uso de lentes e instrumentos ópticos, empezaran a experimentarse los fenómenos luminosos, siendo el holandés Willebrord Snell, en 1620, quién descubrió experimentalmente la ley de la refracción, aunque no fue conocida hasta que, en 1638, René Descartes (1596-1650) publicó su tratado: Óptica. Descartes fue el primer gran defensor de la teoría corpuscular, diciendo que la luz se comportaba como un proyectil que se propulsaba a velocidad infinita, sin especificar absolutamente nada sobre su naturaleza, pero rechazando que cierta materia fuera de los objetos al ojo. 11 Explicó claramente la reflexión, pero tuvo alguna dificultad con la refracción. Según Newton, las fuentes luminosas emiten corpúsculos muy livianos que se desplazan a gran velocidad y en línea recta. Podemos fijar ya la idea de que esta teoría además de concebir la propagación de la luz por medio de corpúsculos, también sienta el principio de que los rayos se desplazan en forma rectilínea. Como toda teoría física es válida en tanto y en cuanto pueda explicar los fenómenos conocidos hasta el momento, en forma satisfactoria. Newton explicó que la variación de intensidad de la fuente luminosa es proporcional a la cantidad de corpúsculos que emite en determinado tiempo. La reflexión de la luz consiste en la incidencia de dichos corpúsculos en forma oblicua en una superficie espejada, de manera que al llegar a ella varía de dirección pero siempre en el mismo medio. La igualdad del ángulo de incidencia con el de reflexión se debe a la circunstancia de que tanto antes como después de la reflexión los corpúsculos conservan la misma velocidad (debido a que permanece en el mismo medio). La refracción la resolvió expresando que los corpúsculos que inciden oblicuamente en una superficie de separación de dos medios de distinta densidad son atraídos por la masa del medio más denso y, por lo tanto, aumenta la componente de la velocidad que es la velocidad que es perpendicular a la superficie de separación, razón por la cual los corpúsculos luminosos se acercan a la normal. El fenómeno de la birrefrigencia del espato de Islandia descubierto por el danés Bartholinus en 1669, quiso ser justificado por Newton suponiendo que los corpúsculos del rayo podían ser rectangulares y sus propiedades variar según su orientación respecto a la dirección de la propagación. Según lo expresado por Newton, la velocidad de la luz aumentaría en los medios de mayor densidad, lo cual contradice los resultados de los experimentos realizados años después. Esta explicación, contradictoria con los resultados experimentales sobre la velocidad de la luz en medios más densos que el vacío, obligó al abandono de la teoría corpuscular. 3. Modelo ondulatorio. Propugnada por en el año 1678, describe y explica lo que hoy se considera como leyes de reflexión y refracción. Define a la luz como un movimiento ondulatorio semejante al que se produce con el sonido. 12 Propuso el modelo ondulatorio, en el que se defendía que la luz no era más que una perturbación ondulatoria, parecida al sonido, y de tipo mecánico pues necesitaba un medio material para propagarse. Supuso tres hipótesis: 1. todos los puntos de un frente de ondas eran centros emisores de ondas secundarias; 2. de todo centro emisor se propagaban ondas en todas direcciones del espacio con velocidad distinta en cada medio; 3. como la luz se propagaba en el vacío y necesitaba un material perfecto sin rozamiento, se supuso que todo el espacio estaba ocupado por éter, que hacía de soporte de las ondas. hora, como los físicos de la época consideraban que todas las ondas requerían de algún medio que las transportaran en el vacío, para las ondas lumínicas se postula como medio a una materia insustancial e invisible a la cual se le llamó éter. Justamente la presencia del éter fue el principal medio cuestionador de la teoría ondulatoria. En ello, es necesario equiparar las vibraciones luminosas con las elásticas transversales de los sólidos sin que se transmitan, por lo tanto, vibraciones longitudinales. Aquí es donde se presenta la mayor contradicción en cuanto a la presencia del éter como medio de transporte de ondas, ya que se requeriría que éste reuniera alguna característica sólida pero que a su vez no opusiera resistencia al libre tránsito de los cuerpos sólidos. (Las ondas transversales sólo se propagan a través de medios sólidos.) En aquella época, la teoría de Huygens no fue muy considerada, fundamentalmente, y tal como ya lo mencionamos, dado al prestigio que alcanzó Newton. Pasó más de un siglo para que fuera tomada en cuenta la Teoría Ondulatoria de la luz. Los experimentos del médico inglés Thomas Young sobre los fenómenos de interferencias luminosas, y los del físico francés Auguste Jean Fresnel sobre la difracción fueron decisivos para que ello ocurriera y se colocara en la tabla de estudios de los físicos sobre la luz, la propuesta realizada en el siglo XVII por Huygens. Young demostró experimentalmente el hecho paradójico que se daba en la teoría corpuscular de que la suma de dos fuentes luminosas puede producir menos luminosidad que por separado. En una pantalla negra practica dos minúsculos agujeros muy próximos entre sí: al acercar la pantalla al ojo, la luz de un pequeño y distante foco aparece en forma de anillos alternativamente brillantes y oscuros. ¿Cómo explicar el efecto de ambos agujeros que por separado darían un campo iluminado, y combinados producen sombra en ciertas zonas? Young logra explicar que la alternancia de las franjas por la imagen de las ondas acuáticas. Si las ondas suman sus crestas hallándose en concordancia de fase, la vibración resultante será intensa. Por el contrario, si la cresta de una onda coincide con el valle de la otra, la vibración resultante será nula. Deducción simple imputada a una interferencia y se embriona la idea de la luz como estado vibratorio de una materia insustancial e invisible, el éter, al cual se le resucita. Ahora bien, la colaboración de Auguste Fresnel para el rescate de la teoría ondulatoria de la luz estuvo dada por el aporte matemático que le dio rigor a las ideas propuestas por Young y la explicación que presentó sobre el fenómeno de la polarización al transformar el movimiento ondulatorio longitudinal, supuesto por Huygens y ratificado por Young, quien creía que las vibraciones luminosas se efectuaban en dirección paralela a la propagación de la onda luminosa, 13 en transversales. Pero aquí, y pese a las sagaces explicaciones que incluso rayan en las adivinanzas dadas por Fresnel, inmediatamente queda presentada una gran contradicción a esta doctrina, ya que no es posible que se pueda propagar en el éter la luz por medio de ondas transversales, debido a que éstas sólo se propagan en medios sólidos. En su trabajo, Fresnel explica una multiplicidad de fenómenos manifestados por la luz polarizada. Observa que dos rayos polarizados ubicados en un mismo plano se interfieren, pero no lo hacen si están polarizados entre sí cuando se encuentran perpendicularmente. Este descubrimiento lo invita a pensar que en un rayo polarizado debe ocurrir algo perpendicularmente en dirección a la propagación y establece que ese algo no puede ser más que la propia vibración luminosa. La conclusión se impone: las vibraciones en la luz no pueden ser longitudinales, como Young lo propusiera, sino perpendiculares a la dirección de propagación, transversales. Las distintas investigaciones y estudios que se realizaron sobre la naturaleza de la luz, en la época en que nos encontramos de lo que va transcurrido del relato, engendraron aspiraciones de mayores conocimientos sobre la luz. Entre ellas, se encuentra la de lograr medir la velocidad de la luz con mayor exactitud que la permitida por las observaciones astronómicas. Hippolyte Fizeau (1819- 1896) concretó el proyecto en 1849 con un clásico experimento. Al hacer pasar la luz reflejada por dos espejos entre los intersticios de una rueda girando rápidamente, determinó la velocidad que podría tener la luz en su trayectoria, que estimó aproximadamente en 300.000 km./s. Después de Fizeau, lo siguió León Foucault (1819 – 1868) al medir la velocidad de propagación de la luz a través del agua. Ello fue de gran interés, ya que iba a servir de criterio entre la teoría corpuscular y la ondulatoria. La primera, como señalamos, requería que la velocidad fuese mayor en el agua que en el aire; lo contrario exigía, pues, la segunda. En sus experimentos, Foucault logró comprobar, en 1851, que la velocidad de la luz cuando transcurre por el agua es inferior a la que desarrolla cuando transita por el aire. Con ello, la teoría ondulatoria adquiere cierta preeminencia sobre la corpuscular, y pavimenta el camino hacia la gran síntesis realizada por Maxwell. En 1670, por primera vez en la historia, el astrónomo danés Olaf Roemer pudo calcular la velocidad de la luz. Se hallaba estudiando los eclipses de uno de los satélites de Júpiter, cuyo período había determinado tiempo atrás. Estaba en condiciones de calcular cuales serían los próximos eclipses. Se dispuso a observar uno de ellos, y con sorpresa vio que a pesar de que llegaba el instante tan cuidadosamente calculado por él, el eclipse no se producía y que el satélite demoró 996 seg en desaparecer. Roemer realizó sus primeros cálculos cuando la tierra se encontraba entre el Sol y Júpiter; pero cuando observó el retraso en el eclipse era el Sol quien se encontraba entre la Tierra y Júpiter. Por lo tanto la luz debía recorrer una distancia suplementaria de 299.000.000 Km., que es el diámetro de la órbita terrestre, por lo tanto: Vel. Luz = Diam. Órbita terrestre 299.000.000 Km / Atraso observado 996 seg. = 300.200 Km/seg. 14 Observaciones posteriores llevaron a la conclusión que el atraso en cuestión era de 1.002 seg. , lo cual da por resultado que la velocidad de la luz sería de 298.300 Km/seg. Si se consideraba onda, la luz debería atravesar los obstáculos, como el sonido. Como no era así, se precisaba de alguna nueva hipótesis. Aún más considerando que tampoco podía explicar los fenómenos de polarización. Todos estos problemas, junto al prestigio de Newton que defendía la teoría contraria, relegó a un segundo plano, durante algún tiempo, el modelo ondulatorio. En 1849, el físico francés Fizeau, logró medir la velocidad de la luz con una experiencia hecha en la tierra. Envió un rayo de luz, por entre los dientes de una rueda dentada que giraba a gran velocidad, de modo que se reflejara en un espejo y volviera hacia la rueda. Esta relación de velocidad entre el camino recorrido por la luz en su ida y vuelta y las revoluciones de la rueda dentada, fue la que tomó Fizeau de base para calcular la velocidad de la luz. Podemos escribir: t = 2d / v Si la rueda tiene N dientes y N espacios, y da n vueltas por segundo y pasan en 1 seg. 2 Nn dientes y espacios t= 1 /.2Nn Cuando no llega más luz al observador es evidente que estos tiempos son iguales y por lo tanto tenemos: 2d / v = 1 / 2Nn De donde v = 4 d Nn Fizeau colocó el espejo a 8.633 m del observador, la rueda tenía 760 dientes y giraba a 12,6 revoluciones por segundo. Si aplicamos la fórmula obtenida, resultará: V = 313.274 Km./seg. León Foucault y casi simultáneamente Fizeau, hallaron en 1850 un método que permite medir la velocidad de la luz en espacios reducidos. 15 La idea consiste en enviar un haz de luz sobre un espejo giratorio haciéndole atravesar una lámina de vidrio semitransparente y semirreflectora, un espejo fijo devuelve el rayo y atraviesa luego lámina observándose la mancha luminosa en una pantalla. Con este método se obtuvo que: V = 295.680 Km./seg. Luego Foucault junto a concibió la idea de calcular la velocidad de la luz en otro medio que no sea el aire. Midieron la velocidad de la luz en el agua y obtuvieron un resultado experimental que decidió la controversia a favor de la teoría ondulatoria. En general todas las mediciones de que se tiene conocimiento obtuvieron resultados entre 298.000 Km/seg y 313.300 Km/seg sin embargo se toma como velocidad de la luz la de 300.000 Km/seg por ser un término medio entre los valores obtenidos y por ser una cifra exacta que facilitan los cálculos. 4. Modelo electromagnético. Si bien en la separata 1.03 de este ensayo nos referiremos a ella con una relativa extensión, cuando hablemos del electromagnetismo, aquí podemos señalar sucintamente que fue desarrollada por quien es considerado el más imaginativo de los físicos teóricos del siglo XIX, nos referimos a James Clerk Maxwell (1831-1879). Este físico inglés dio en 1865 a los descubrimientos, que anteriormente había realizado el genial autodidacta Michael Faraday, el andamiaje matemático y logró reunir los fenómenos ópticos y electromagnéticos hasta entonces identificados dentro del marco de una teoría de reconocida hermosura y de acabada estructura. En la descripción que hace de su propuesta, Maxwell propugna que cada cambio del campo eléctrico engendra en su proximidad un campo magnético, e inversamente cada variación del campo magnético origina uno eléctrico. Dado que las acciones eléctricas se propagan con velocidad finita de punto a punto, se podrán concebir los cambios periódicos - cambios en dirección e intensidad - de un campo eléctrico como una propagación de ondas. Tales ondas eléctricas están necesariamente acompañadas por ondas magnéticas indisolublemente ligadas a ellas. Los dos campos, eléctrico y magnético, periódicamente variables, están constantemente perpendiculares entre sí y a la dirección común de su propagación. Son, pues, ondas transversales semejantes a las de la luz. Por otra parte, las ondas electromagnéticas se transmiten, como se puede deducir de las investigaciones de Weber y Kohlrausch, con la misma velocidad que la luz. De esta doble analogía, y haciendo gala de una espectacular volada especulativa Maxwell termina concluyendo que la luz consiste en una perturbación electromagnética que se propaga en el éter. Ondas eléctricas y ondas luminosas son fenómenos idénticos. 16 Veinte años más tarde, Heinrich Hertz (1857-1894) comprueba que las ondas hertzianas de origen electromagnético tienen las mismas propiedades que las ondas luminosas, estableciendo con ello, definitivamente, la identidad de ambos fenómenos. Hertz, en 1888, logró producir ondas por medios exclusivamente eléctricos y, a su vez, demostrar que estas ondas poseen todas las características de la luz visible, con la única diferencia de que las longitudes de sus ondas son manifiestamente mayores. Ello, deja en evidencia que las ondas eléctricas se dejan refractar, reflejar y polarizar, y que su velocidad de propagación es igual a la de la luz. La propuesta de Maxwell quedaba confirmada: ¡la existencia de las ondas electromagnéticas era una realidad inequívoca! Establecido lo anterior, sobre la factibilidad de transmitir oscilaciones eléctricas sin inalámbricas, se abrían las compuertas para que se produjera el desarrollo de una multiplicidad de inventivas que han jugado un rol significativo en la evolución de la naturaleza humana contemporánea. Pero las investigaciones de Maxwell y Hertz no sólo se limitaron al ámbito de las utilizaciones prácticas, sino que también trajeron con ellas importantes consecuencias teóricas. Todas las radiaciones se revelaron de la misma índole física, diferenciándose solamente en la longitud de onda en la cual se producen. Su escala comienza con las largas ondas hertzianas y, pasando por la luz visible, se llegan a la de los rayos ultravioletas, los rayos X, los radiactivos, y los rayos cósmicos. Ahora, la teoría electromagnética de Maxwell, pese a su belleza, comporta debilidades, ya que deja sin explicación fenómenos tan evidentes como la absorción o emisión; el fotoeléctrico, y la emisión de luz por cuerpos incandescentes. En consecuencia, pasado el entusiasmo inicial, fue necesario para los físicos, como los hizo Planck en 1900, retomar la teoría corpuscular. ero la salida al dilema que presentaban las diferentes teorías sobre la naturaleza de la luz, empezó a tomar forma en 1895 en la mente de un estudiante de dieciséis años, Albert Einstein, que en el año 1905, en un ensayo publicado en el prestigioso periódico alemán Anales de la física, abre el camino para eliminar la dicotomía que existía sobre las consideraciones que se hacían sobre la luz al introducir el principio que más tarde se haría famoso como relatividad. La luz es, de acuerdo a la visión actual, una onda, más precisamente una oscilación electromagnética, que se propaga en el vacío o en un medio transparente, cuya longitud de onda es muy pequeña, unos 6.500 Å para la luz roja y unos 4.500 Å para la luz azul. (1Å = un Angstrom, corresponde a una décima de milimicra, esto es, una diez millonésima de milímetro). Por otra parte, la luz es una parte insignificante del espectro electromagnético. Más allá del rojo está la radiación infrarroja; con longitudes de ondas aún más largas la zona del infrarrojo lejano, las microondas de radio, y luego toda la gama de las ondas de radio, desde las ondas centimétricas, métricas, decamétricas, hasta las ondas largas de radiocomunicación, con longitudes de cientos de metros y más. Por ejemplo, el dial de amplitud modulada, la llamada onda media, va desde 550 y 1.600 kilociclos por segundo, que corresponde a una longitud de onda de 545 a 188 metros, respectivamente. 17 En física, se identifica a las ondas por lo que se llama longitud de onda, distancia entre dos máximos y por su frecuencia, número de oscilaciones por segundo, que se cuenta en un punto, y se mide en ciclos por segundo (oscilaciones por segundo). El producto de ambas cantidades es igual a la velocidad de propagación de la onda. En el otro extremos del espectro electromagnético se encuentra la radiación ultravioleta, luego los rayos X y a longitudes de onda muy diminutas los rayos γ. La atmósfera terrestre es transparente sólo en la región óptica, algo en el infrarrojo y en la zona de ondas de radio. Por ello, es que la mayor información que hemos obtenido sobre el universo ha sido a través de la ventana óptica, aunque en las últimas décadas la radioastronomía ha venido jugando un rol sustancial en la entrega de conocimientos sobre el cosmos, proporcionando datos cruciales. Observaciones en el ultravioleta, rayos X y γ, como así también de parte del infrarrojo, hay que efectuarlas con instrumentos ubicados fuera de la atmósfera de la Tierra. Sin embargo, es posible también obtener resultados en el infrarrojo con instrumentación alojada en observatorios terrestres empotrados a gran altura sobre el nivel del mar o con tecnología puesta en aviones o globos que se eleven por sobre la baja atmósfera, que contiene la mayor parte del vapor de agua, que es la principal causa de la absorción atmosférica en el infrarrojo. 5. Longitud de Onda de De Broglie En 1924, Louis de Broglie, plantea la posibilidad de asociar una función de onda a las partículas. El razonamiento lo hace por criterios de simetría con respecto a la necesidad de asignar propiedades corpusculares a la radiación electromagnética, cuya conveniencia es el resultado de analizar experiencias como por ejemplo los efectos fotoeléctricos y Compton. Una consecuencia inmediata del principio de De Broglie es la interpretación de las leyes de cuantificación utilizadas, por ejemplo, en el modelo atómico de Bohr, como equivalentes a considerar solo aquellas "órbitas" cuya longitud hace que la onda del electrón sea estacionaria. La hipótesis de De Broglie adquiere fuerza con los resultados del experimento de Davisson y Germer, entre otros, en los que un haz de electrones acelerados produce un patrón de interferencia, resultado típicamente ondulatorio, al ser dispersado por un cristal de Níquel. Las conclusiones de los experimentos de difracción de haces de partículas, y de interpretación del efecto Compton, así como otras experiencias con radiación electromagnética, hacen que nos cuestionemos sobre la "verdadera" naturaleza de la materia y de las radiaciones, ¿son ondas o partículas?. El principio de Complementariedad de Niels Bohr, nos indica la dualidad de ondas y partículas, siendo el experimento planteado el que determine el modelo a utilizar. En vista de la necesidad de asociar una función de onda a las partículas, nos induce a plantear la posible interpretación física de la misma. Los conocimientos previos de campos electromagnéticos, unidos a la interpretación corpuscular de la radiación electromagnética, indujeron a Albert Einstein a interpretar el cuadrado de la amplitud del campo eléctrico como una medida de la densidad de fotones de un haz, por tanto, la densidad de partículas de un haz podría 18 asociarse al cuadrado de la amplitud de la función de onda de materia. Sin embargo, el significado de la función de ondas de una única partícula no queda claro. Max Born, sugiere que en ese caso la interpretación es la de una densidad de probabilidad de presencia de la partícula entorno a una posición determinada del espacio y en un instante de tiempo. Queda de esta forma asociada la función de onda a una probabilidad, concepto contrapuesto, en cierta medida, al determinismo asociado a la "posición espacial" de la física clásica. Haciendo uso, una vez más, de los conocimientos del electromagnetismo intentaremos representar las partículas por medio de ondas armónicas, u ondas planas. Sin embargo la interpretación de Born conduce a una total "deslocalización" espacial para éstas partículas, tendremos por tanto, que introducir paquetes de ondas, es decir superposición de ondas planas, para poder limitar la deslocalización de la partícula a una zona de dimensiones finitas. Ahora bien, matemáticamente, para construir un paquete de ondas de dimensiones espaciales finitas, necesitamos un rango de vectores de ondas distintos. Si el paquete es una representación de la onda de materia concluiremos que cuanto más localizada esté una partícula, más amplio será el espectro de vectores de ondas, es decir de cantidades de movimiento, necesario. Este es el concepto básico contenido en el Principio de Indeterminación de Heisemberg. Éste principio destruye por completo el determinismo clásico ya que impide la definición, con absoluta precisión, de las condiciones iniciales de un sistema físico, premisa en que se basa la supuesta posibilidad de predecir, de nuevo con absoluta precisión según la física clásica, la evolución futura del sistema. Luis de Broglie fue quien señaló que las partículas poseían no sólo características de tales sino también de ondas, lo que llevó al señalamiento jocoso de que los electrones se comportaban como partículas los lunes, miércoles y viernes y como ondas los martes y jueves. Ya se conocía, gracias a Einstein, que el fotón podía ser descrito por su masa en reposo y por su frecuencia lo que llevó a relacionar el momento del fotón (característica de partícula) con la frecuencia (característica de onda), y a de Broglie a proponer que esta asociación era característica de todas las partículas, no sólo del fotón, lo que se esquematiza en las siguientes ecuaciones De esta asociación entre partículas y ondas es que surge luego la teoría ondulatoria de Schrödinger, que es el objeto del cual estamos hablando en este capítulo. Anexos 19 Espectro electromagnético.- La región correspondiente a la luz es una diminuta ventana en todo el espectro. La atmósfera terrestre sólo es transparente en la región óptica y de ondas de radio. El infrarrojo se puede observar desde gran altura con globos o satélites, al igual que los rayos γ, rayos X, y la radiación ultravioleta. Representación de una onda. Se llama longitud de onda a la distancia entre dos "valles" o dos "montes". 6. Conclusión Podemos decir que la luz es toda radiación electromagnética capaz de ser percibida por nuestro sentido de la vista. El intervalo de frecuencias de las radiaciones que componen la luz solamente está delimitado por la capacidad del órgano de la visión. La luz que nosotros percibimos será siempre formada por radiaciones correspondientes a grandes cantidades de frecuencias. El láser constituye la única radiación visible formada por radiaciones de la misma longitud de onda, todas ella. La luz, en un medio homogéneo, se propaga en línea recta. Cada una de las direcciones de propagación de la luz es un rayo luminoso. Un conjunto de rayos que parten de un punto es un haz. Si el punto de donde proceden los rayos está muy alejado se consideran paralelos. La velocidad de la luz en el vacío es de 3 . 108 m/s. Para comparar la velocidad de la luz en una sustancia con la del vacío se emplea el índice de refracción, obtenido como cociente entre la segunda y la primera: n=c v c = velocidad de la luz en el vacío v = velocidad de la luz en la sustancia Un prisma óptico es un cuerpo con dos caras planas no paralelas. Este dispositivo se utiliza, con accesorios más o menos sofisticados, para efectuar análisis de la luz. Si sobre una cara de un prisma óptico se hace incidir una luz compuesta, debido al distinto índice de refracción que presenta el prisma para cada longitud de onda, las distintas radiaciones sufrirán desviaciones distintas y se podrán discernir fácilmente. 20 EL CALOR Cantidades de calor Aun cuando no sea posible determinar el contenido total de energía calorífica de un cuerpo, puede medirse la cantidad que se toma o se cede al ponerlo en contacto con otro a diferente temperatura. Esta cantidad de energía en tránsito de los cuerpos de mayor temperatura a los de menor temperatura es precisamente lo que se entiende en física por calor. La ecuación calorimétrica La experiencia pone de manifiesto que la cantidad de calor tomada (o cedida) por un cuerpo es directamente proporcional a su masa y al aumento (o disminución) de temperatura que experimenta. La expresión matemática de esta relación es la ecuación calorimétrica. Q = c e .m.(T f - T i ) (8.6) donde Q representa el calor cedido o absorbido, la masa del cuerpo y T f y T i las temperaturas final e inicial respectivamente. Q será positivo si la temperatura final es mayor que la inicial (T f > T i ) y negativo en el caso contrario (T f < T i ). La letra c representa la constante de proporcionalidad correspondiente y su valor es característico del tipo de sustancia que constituye el cuerpo en cuestión. Dicha constante se denomina calor específico. Su significado puede deducirse de la ecuación (8.6). Si se despeja c,de ella resulta: c e = Q/ m.(T f - T i ) El calor específico de una sustancia equivale, por tanto, a una cantidad de calor por unidad de masa y de temperatura; o en otros términos, es el calor que debe suministrarse a la unidad de masa de una sustancia dada para elevar su temperatura un grado. Unidades de calor La ecuación calorimétrica (8.6) sirve para determinar cantidades de calor si se conoce la masa del cuerpo, su calor específico y la diferencia de temperatura, pero además permite definir la caloría como unidad de calor. Si por convenio se toma el agua líquida como sustancia de referencia asignando a su calor específico un valor unidad, la caloría resulta de hacer uno el resto de las variables que intervienen en dicha ecuación. Una caloría es la cantidad de calor necesaria para elevar en un grado centígrado (1 °C) la temperatura de un gramo de agua. Esta definición, que tiene su origen en la época en la que la teoría del calórico estaba en plena vigencia, se puede hacer más precisa si se considera el hecho de que el calor específico del agua varía con la temperatura. En tal caso la elevación de un grado 21 centígrado a la que hace referencia la anterior definición ha de producirse entre 14,5 y 15,5 °C a la presión atmosférica. Una vez identificado el calor como una forma de energía y no como un fluido singular, la distinción entre unidades de calor y unidades de energía perdió significado. Así, la unidad de calor en el SI coincide con la de energía y es el joule (J), habiendo quedado la caloría reducida a una unidad práctica que se ha mantenido por razones históricas,pero que va siendo progresivamente desplazada por el joule. Calor específico y capacidad calorífica La ecuación calorimétrica puede escribirse también en la forma: Q = C.(T f - T i ) (8.7) expresando así que en un cuerpo dado la cantidad de calor cedido o absorbido es directamente proporcional a la variación de temperatura. La nueva constante de proporcionalidad C recibe el nombre de capacidad calorífica C = Q/(T T f - T i ) y representa la cantidad de calor que cede o toma el cuerpo al variar su temperatura en un grado. A diferencia del calor específico, la capacidad calorífica es una característica de cada cuerpo y se expresa en el SI en J/K. Su relación con el calor específico resulta de comparar las ecuaciones (8.6) y (8.7) en las que ambas magnitudes están presentes: C = m.c e (8.8) De acuerdo con esta relación, la capacidad calorífica de un cuerpo depende de su masa y de la naturaleza de la sustancia que lo compone. Ejemplo de la determinación del calor específico: El calor específico de un cuerpo puede determinarse mediante el calorímetro. Dado que éste es un atributo físico característico de cada sustancia, la comparación del valor obtenido con los de una tabla estándar de calores específicos puede ayudar a la identificación de la sustancia que compone el cuerpo en cuestión. Se pretende identificar el metal del que está formada una medalla. Para ello se determina su masa mediante una balanza que arroja el valor de 25 g. A continuación se calienta al « baño María », hasta alcanzar una temperatura de 85 °C y se introduce en el interior de un calorímetro que contiene 50 g de agua a 16,5 °C de temperatura. Al cabo de un cierto tiempo y tras utilizar varias veces el agitador, la columna del termómetro del calorímetro deja de subir señalando una temperatura de equilibrio de 19,5 °C. ¿De qué metal puede tratarse? 22 Si se aplica la ecuación de conservación de la energía expresada en la forma, calor tomado = - calor cedido, resulta: Q1 = - Q2 m 1 .c e1 .(T - T 1 ) = - m 2 .c e2 .(T - T 2 ) considerando en este caso el subíndice 1 referido al agua y el 2 referido a la moneda. Sustituyendo valores en la ecuación anterior, se,tiene: 50 g.1 (cal/g.°C).(19,5 °C - 16,5 °C) = - 25 g. c e2 .(19,5 °C - 85 °C) Operando y despejando c e2 resulta: 150 (cal/g.°C) = 1 637,5. c e2 c e2 = 0,09 cal/g.°C Si se compara el resultado con una tabla de calores específicos de metales, se concluye que puede tratarse de cobre. Otras propiedades físicas como el color, por ejemplo, confirmarán el resultado. Medida del calor De acuerdo con el principio de conservación de la energía, suponiendo que no existen pérdidas, cuando dos cuerpos a diferentes temperaturas se ponen en contacto, el calor tomado por uno de ellos ha de ser igual en cantidad al calor cedido por el otro. Para todo proceso de transferencia calorífica que se realice entre dos cuerpos puede escribirse entonces la ecuación: Q1 = - Q2 En donde el signo - indica que en un cuerpo el calor se cede, mientras que en el otro se toma. Recurriendo a la ecuación calorimétrica, la igualdad anterior puede escribirse en la forma: m 1 .c e1 .(T e - T 1 ) = - m 2 .c e2 .(T e - T 2 ) (8.9) Donde el subíndice 1 hace referencia al cuerpo frío y el subíndice 2 al caliente. La temperatura T e en el equilibrio será superior a T 1 e inferior a T 2 . La anterior ecuación indica que si se conocen los valores del calor específico, midiendo temperaturas y masas, es posible determinar cantidades de calor. El aparato que se utiliza para ello se denomina calorímetro. Un calorímetro ordinario consta de un recipiente de vidrio aislado térmicamente del exterior por un material apropiado. Una tapa cierra el conjunto y dos pequeños orificios realizados sobre ella dan paso al termómetro y al agitador, los cuales se sumergen en un líquido llamado calorimétrico, que es generalmente agua. 23 Cuando un cuerpo a diferente temperatura que la del agua se sumerge en ella y se cierra el calorímetro, se produce una cesión de calor entre ambos hasta que se alcanza el equilibrio térmico. El termómetro permite leer las temperaturas inicial y final del agua y con un ligero movimiento del agitador se consigue una temperatura uniforme. Conociendo el calor específico y la masa del agua utilizada, mediante la ecuación calorimétrica se puede determinar la cantidad de calor cedida o absorbida por el agua. En este tipo de medidas han de tomarse las debidas precauciones para que el intercambio de calor en el calorímetro se realice en condiciones de suficiente aislamiento térmico. Si las pérdidas son considerables no será posible aplicar la ecuación de conservación Q 1 = - Q 2 y si ésta se utiliza los resultados estarán afectados de un importante error. La ecuación (8.9) puede aplicarse únicamente a aquellos casos en los cuales el calentamiento o el enfriamiento del cuerpo problema no llevan consigo cambios de estado físico (de sólido a líquido o viceversa, por ejemplo). A partir de ella y con la ayuda del calorímetro es posible determinar también el calor específico del cuerpo si se conocen las temperaturas T 1 , T 2 y T e , las masas m 1 y m 2 y el calor específico del agua. El electromagnetismo fue descubierto de forma accidental en 1821 por el físico danés Hans Christian Oersted. El electromagnetismo se utiliza tanto en la conversión de energía mecánica en energía eléctrica (en generadores), como en sentido opuesto, en los motores eléctricos. En el dibujo hemos construido un circuito eléctrico con una bobina de cable de cobre aislado, arrollada alrededor de un núcleo de "hierro" (acero magnético). El electromagnetismo es un campo muy amplio, por lo tanto describirlo en pocas palabras es imposible. Así que se empezará por las corrientes y sus efectos en un cable conductor Cuando una corriente (sea alterna o continua) viaja por un conductor (cable), genera a su alrededor un efecto no visible llamado campo electromagnético. Este campo forma unos círculos alrededor del cable como se muestra en la figura. Hay círculos cerca y lejos al cable en forma simultánea. El campo magnético es más intenso cuanto más cerca está del cable y esta intensidad disminuye conforme se aleja de él hasta que su efecto es nulo. Se puede encontrar el sentido que tiene el flujo magnético si se conoce la dirección que tiene la corriente en el cable y con la ayuda de La ley de la mano derecha Este efecto es muy fácil visualizar en corriente continua. 24 La fórmula para obtener el campo magnético en un conductor largo es: B=mI / (2pd) Donde: • • • • • B: campo magnético m: es la permeabilidad del aire I: corriente que circula por el cable p: Pi = 3.1416 d: distancia desde el cable Si hubiera N cables juntos el campo magnético resultante sería: B = N m I / (2 p d Donde N: número de cables. El campo magnético en el centro de una bobina de N espiras circulares es: B = N m I / (2 R) Donde: R es el radio de la espira • • Nota: es importante mencionar que: Una corriente en un conductor genera un campo magnético y que Un campo magnético genera una corriente en un conductor. Sin embargo, las aplicaciones más conocidas utilizan corriente alterna. Por ejemplo: • Las bobinas: Donde la energía se almacena como campo magnético. Los transformadores: Donde la corriente alterna genera un campo magnético alterno en el bobinado primario, que induce en el bobinado secundario otro campo magnético que a su vez causa una corriente, que es la corriente alterna de salida. Generación e Interacción de campo magnético Aunque los antiguos griegos conocían las propiedades electrostáticas del ámbar, y los chinos ya fabricaban imanes con magnetita en el 2700 a.C., los fenómenos eléctricos y magnéticos no empezaron a comprenderse hasta finales del siglo XVIII, cuando comenzaron a realizarse experimentos en estos campos. En 1785, el físico francés Charles de Coulomb confirmó por primera vez de forma experimental que las cargas eléctricas se atraen o se repelen con una 25 intensidad inversamente proporcional al cuadrado de la distancia que las separa (ley de Coulomb). Más tarde el matemático francés Siméon Denis Poisson y su colega alemán Carl Friedrich Gauss desarrollaron una potente teoría para calcular el efecto de un número indeterminado de cargas eléctricas estáticas arbitrariamente distribuidas. Dos partículas con cargas opuestas se atraen, por lo que tienden a acelerarse una hacia la otra. Si el medio a través del cual se mueven ofrece resistencia, pueden acabar moviéndose con velocidad constante (en lugar de moverse con aceleración constante) a la vez que el medio se calienta y sufre otras alteraciones. La posibilidad de mantener una fuerza electromotriz capaz de impulsar de forma continuada partículas eléctricamente cargadas llegó con el desarrollo de la pila química en 1800, debido al físico italiano Alessandro Volta. La teoría clásica de un circuito eléctrico simple supone que los dos polos de una pila semantienen cargados positiva y negativamente debido a las propiedades internas de la misma. Cuando los polos se conectan mediante un conductor, las partículas cargadas negativamente son repelidas por el polo negativo y atraídas por el positivo, con lo que se mueven hacia él y calientan el conductor, ya que ofrece resistencia a dicho movimiento. Al llegar al polo positivo las partículas son obligadas a desplazarse dentro de la pila hasta el polo negativo, en contra de las fuerzas que se oponen a ello según la ley de Coulomb. El físico alemán Georg Simon Ohm descubrió la existencia de una constante de proporcionalidad sencilla entre la corriente que fluye por el circuito y la fuerza electromotriz suministrada por la pila. Esta constante es la resistencia eléctrica del circuito, R. La ley de Ohm, que afirma que la resistencia es igual a la fuerza electromotriz, o tensión, dividida entre la intensidad de corriente, no es una ley fundamental de la física de aplicación universal, sino que describe el comportamiento de una clase limitada de materiales sólidos. Los conceptos elementales del magnetismo, basados en la existencia de pares de polos opuestos, aparecieron en el siglo XVII y fueron desarrollados en los trabajos de Coulomb. Sin embargo, la primera conexión entre el magnetismo y la electricidad se encontró en los experimentos del físico y químico danés Hans Christian Oersted, que en 1819 descubrió que un cable conductor por el que fluía una corriente eléctrica desviaba una aguja magnética situada en sus proximidades. 26 A la semana de conocer el descubrimiento de Oersted, el científico francés André Marie Ampère demostró experimentalmente que dos cables por los que circula una corriente ejercen una influencia mutua igual a la de los polos de un imán. En 1831, el físico y químico británico Michael Faraday descubrió que podía inducirse el flujo de una corriente eléctrica en un conductor en forma de espira no conectado a una batería, moviendo un imán en sus proximidades o situando cerca otro conductor por el que circulara una corriente variable. La forma más fácil de enunciar la íntima relación entre la electricidad y el magnetismo, perfectamente establecida en la actualidad, es a partir de los conceptos de campo eléctrico y magnético. La intensidad, dirección y sentido del campo en cada punto mide la fuerza que actuaría sobre una carga unidad (en el caso del campo eléctrico) o una corriente unidad (en el caso del campo magnético) situadas en ese punto. Las cargas eléctricas estacionarias producen campos eléctricos; las corrientes —esto es, las cargas en movimiento— producen campos eléctricos y magnéticos. Un campo eléctrico también puede ser producido por un campo magnético variable, y viceversa. Los campos eléctricos ejercen fuerzas sobre las partículas cargadas por el simple hecho de tener carga, independientemente de su velocidad; los campos magnéticos sólo ejercen fuerzas sobre partículas cargadas en movimiento. Estos hallazgos cualitativos fueron expresados en una forma matemática precisa por el físico británico James Clerk Maxwell, que desarrolló las ecuaciones diferenciales en derivadas parciales que llevan su nombre. Las ecuaciones de Maxwell relacionan los cambios espaciales y temporales de los campos eléctrico y magnético en un punto con las densidades de carga y de corriente en dicho punto. En principio, permiten calcular los campos en cualquier momento y lugar a partir del conocimiento de las cargas y corrientes. Un resultado inesperado que surgió al resolver las ecuaciones fue la predicción de un nuevo tipo de campo electromagnético producido por cargas eléctricas aceleradas. Este campo se propagaría por el espacio con la velocidad de la luz en forma de onda electromagnética, y su intensidad disminuiría de forma inversamente proporcional al cuadrado de la distancia de la fuente. En 1887, el físico alemán Heinrich Hertz consiguió generar físicamente esas ondas por medios eléctricos, con lo que sentó las bases para la radio, el radar, la televisión y otras formas de telecomunicaciones. El comportamiento de los campos eléctrico y magnético en estas ondas es bastante similar al de una cuerda tensa muy larga cuyo extremo se hace oscilar rápidamente hacia arriba y hacia abajo. Cualquier punto de la cuerda se mueve hacia arriba y hacia abajo con la misma frecuencia que la fuente de las ondas situada en el extremo de la cuerda. Los puntos de la cuerda situados a 27 diferentes distancias de la fuente alcanzan su máximo desplazamiento vertical en momentos diferentes. Cada punto de la cuerda hace lo mismo que su vecino, pero lo hace algo más tarde si está más lejos de la fuente de vibración (véase Oscilación). La velocidad con que se transmite la perturbación a lo largo de la cuerda, o la `orden' de oscilar, se denomina velocidad de onda (véase Movimiento ondulatorio). Esta velocidad es función de la densidad lineal de la cuerda (masa por unidad de longitud) y de la tensión a la que esté sometida. Una fotografía instantánea de la cuerda después de llevar moviéndose cierto tiempo mostraría que los puntos que presentan el mismo desplazamiento están separados por una distancia conocida como longitud de onda, que es igual a la velocidad de onda dividida entre la frecuencia. En el caso del campo electromagnético la intensidad del campo eléctrico se puede asociar al movimiento vertical de cada punto de la cuerda, mientras que el campo magnético se comporta del mismo modo pero formando un ángulo recto con el campo eléctrico (y con la dirección de propagación). La velocidad con que la onda electromagnética se aleja de la fuente es la velocidad de la luz. A finales del siglo XVIII y principios del XIX se investigaron simultáneamente las teorías de la electricidad y el magnetismo. En 1819, el físico danés Hans Christian Oersted llevó a cabo un importante descubrimiento al observar que una aguja magnética podía ser desviada por una corriente eléctrica. Este descubrimiento, que mostraba una conexión entre la electricidad y el magnetismo, fue desarrollado por el científico francés André Marie Ampère, que estudió las fuerzas entre cables por los que circulan corrientes eléctricas, y por el físico francés Dominique François Arago, que magnetizó un pedazo de hierro colocándolo cerca de un cable recorrido por una corriente. En 1831, el científico británico Michael Faraday descubrió que el movimiento de un imán en las proximidades de un cable induce en éste una corriente eléctrica; este efecto era inverso al hallado por Oersted. Así, Oersted demostró que una corriente eléctrica crea un campo magnético, mientras que Faraday demostró que puede emplearse un campo magnético para crear una corriente eléctrica. La unificación plena de las teorías de la electricidad y el magnetismo se debió al físico británico James Clerk Maxwell, que predijo la existencia de ondas electromagnéticas e identificó la luz como un fenómeno electromagnético. Los estudios posteriores sobre el magnetismo se centraron cada vez más en la comprensión del origen atómico y molecular de las propiedades magnéticas de la materia. En 1905, el físico francés Paul Langevin desarrolló una teoría sobre la variación con la temperatura de las propiedades magnéticas de las sustancias paramagnéticas (ver más adelante), basada en la estructura atómica de la materia. 28 Esta teoría es uno de los primeros ejemplos de la descripción de propiedades macroscópicas a partir de las propiedades de los electrones y los átomos. Posteriormente, la teoría de Langevin fue ampliada por el físico francés Pierre Ernst Weiss, que postuló la existencia de un campo magnético interno, molecular, en los materiales como el hierro .Este concepto, combinado con la teoría de Langevin, sirvió para explicar las propiedades de los materiales fuertemente magnéticos como la piedra imán. Después de que Weiss presentara su teoría, las propiedades magnéticas se estudiaron de forma cada vez más detallada. La teoría del físico danés Niels Bohr sobre la estructura atómica, por ejemplo, hizo que se comprendiera la tabla periódica y mostró por qué el magnetismo aparece en los elementos de transición, como el hierro, en los lantánidos o en compuestos que incluyen estos elementos. Los físicos estadounidenses Samuel Abraham Goudsmit y George Eugene Uhlenbeck demostraron en 1925 que los electrones tienen espín y se comportan como pequeños imanes con un `momento magnético' definido. El momento magnético de un objeto es una magnitud vectorial (véase Vector) que expresa la intensidad y orientación del campo magnético del objeto. El físico alemán Werner Heisenberg dio una explicación detallada del campo molecular de Weiss en 1927, basada en la recientemente desarrollada mecánica cuántica (véase Teoría cuántica). Más tarde, otros científicos predijeron muchas estructuras atómicas del momento magnético más complejas, con diferentes propiedades magnéticas. El campo magnético Una barra imantada o un cable que transporta corriente pueden influir en otros materiales magnéticos sin tocarlos físicamente porque los objetos magnéticos producen un `campo magnético'. Los campos magnéticos suelen representarse mediante `líneas de campo magnético' o `líneas de fuerza'. En cualquier punto, la dirección del campo magnético es igual a la dirección de las líneas de fuerza, y la intensidad del campo es inversamente proporcional al espacio entre las líneas. En el caso de una barra imantada, las líneas de fuerza salen de un extremo y se curvan para llegar al otro extremo; estas líneas pueden considerarse como bucles cerrados, con una parte del bucle dentro del imán y otra fuera. En los extremos del imán, donde las líneas de fuerza están más próximas, el campo magnético es más intenso; en los lados del imán, donde las líneas de fuerza están más separadas, el campo magnético es más débil. 29 Según su forma y su fuerza magnética, los distintos tipos de imán producen diferentes esquemas de líneas de fuerza. La estructura de las líneas de fuerza creadas por un imán o por cualquier objeto que genere un campo magnético puede visualizarse utilizando una brújula o limaduras de hierro. Los imanes tienden a orientarse siguiendo las líneas de campo magnético. Por tanto, una brújula, que es un pequeño imán que puede rotar libremente, se orientará en la dirección de las líneas. Marcando la dirección que señala la brújula al colocarla en diferentes puntos alrededor de la fuente del campo magnético, puede deducirse el esquema de líneas de fuerza. Igualmente, si se agitan limaduras de hierro sobre una hoja de papel o un plástico por encima de un objeto que crea un campo magnético, las limaduras se orientan siguiendo las líneas de fuerza y permiten así visualizar su estructura. Los campos magnéticos influyen sobre los materiales magnéticos y sobre las partículas cargadas en movimiento. En términos generales, cuando una partícula cargada se desplaza a través de un campo magnético, experimenta una fuerza que forma ángulos rectos con la velocidad de la partícula y con la dirección del campo. Como la fuerza siempre es perpendicular a la velocidad, las partículas se mueven en trayectorias curvas. Los campos magnéticos se emplean para controlar las trayectorias de partículas cargadas en dispositivos como los aceleradores de partículas o los espectrógrafos de masas. Naturaleza de los Imanes ¿Qué es un imán? Un imán es un material capaz de producir un campo magnético exterior y atraer el hierro (también puede atraer al cobalto y al níquel). Los imanes que manifiestan sus propiedades de forma permanente pueden ser naturales, como la magnetita (Fe3O4) o artificiales, obtenidos a partir de aleaciones de diferentes metales. En un imán la capacidad de atracción es mayor en sus extremos o polos. Estos polos se denominan norte y sur, debido a que tienden a orientarse según los polos geográficos de la Tierra, que es un gigantesco imán natural. La región del espacio donde se pone de manifiesto la acción de un imán se llama campo magnético. Este campo se representa mediante líneas de fuerza, que son unas líneas imaginarias, cerradas, que van del polo norte al polo sur, por fuera del imán y en sentido contrario en el interior de éste; se representa con la letra B 30 ¿De dónde procede el magnetismo? Desde hace tiempo es conocido que una corriente eléctrica genera un campo magnético a su alrededor. En el interior de la materia existen pequeñas corrientes cerradas debidas al movimiento de los electrones que contienen los átomos, cada una de ellas origina un microscópico imán o dipolo. Cuando estos pequeños imanes están orientados en todas direcciones sus efectos se anulan mutuamente y el material no presenta propiedades magnéticas; en cambio si todos los imanes se alinean actúan como un único imán y en ese caso decimos que la sustancia se ha magnetizado. ¿Puede un imán perder su potencia? Para que un imán pierda sus propiedades debe llegar a la llamada "temperatura de Curie" que es diferente para cada composición. Por ejemplo para un imán cerámico es de 450° C, para uno de cobalto 800° C, etc. También se produce la desimanación por contacto, cada vez que pegamos algo a un imán perdemos parte de sus propiedades. Los golpes fuertes pueden descolocar las partículas haciendo que el imán pierda su potencia. ¿Cuántos tipos de imanes permanentes hay? Además de la magnetita o imán natural existen diferentes tipos de imanes fabricados con diferentes aleaciones: • • • Imanes cerámicos o ferritas. Imanes de álnico. Imanes de tierras raras. Imanes flexibles. Otros Imanes cerámicos Se llaman así por sus propiedades físicas. Su apariencia es lisa y de color gris oscuro, de aspecto parecido a la porcelana. Se les puede dar cualquier forma, por eso es uno de los imanes más usados (altavoces, aros para auriculares, cilindros para pegar en figuras que se adhieren a las neveras, etc.). Son muy frágiles, pueden romperse si se caen o se acercan a otro imán sin el debido cuidado. Se fabrican a partir de partículas muy finas de material ferromagnético (óxidos de hierro) que se transforman en un conglomerado por medio de tratamientos térmicos a presión elevada, sin sobrepasar la temperatura de fusión. Otro tipo de imanes cerámicos, conocidos como ferritas, 31 están fabricados con una mezcla de bario y estroncio. Son resistentes a muchas sustancias químicas (disolventes y ácidos) y pueden utilizarse a temperaturas comprendidas entre _40 ºC y 260°C Imanes de álnico Se llaman así porque en su composición llevan los elementos aluminio, níquel y cobalto. Se fabrican por fusión de un 8 % de aluminio, un 14 % de níquel, un 24 % de cobalto, un 51 % de hierro y un 3 % de cobre. Son los que presentan mejor comportamiento a temperaturas elevadas. Tienen la ventaja de poseer buen precio, aunque no tienen mucha fuerza. Imanes de tierras raras Son imanes pequeños, de apariencia metálica, con una fuerza de 6 a 10 veces superior a los materiales magnéticos tradicionales. Los imanes de boro/neodimio están formados por hierro, neodimio y boro; tienen alta resistencia a la desmagnetización. Son lo bastante fuertes como para magnetizar y desmagnetizar algunos imanes de alnico y flexibles. Se oxidan fácilmente, por eso van recubiertos con un baño de cinc, níquel o un barniz epoxídico y son bastante frágiles. 32 Los imanes de samario/cobalto no presentan problemas de oxidación pero tienen el inconveniente de ser muy caros. Están siendo sustituidos por los de boro _ neodimio.Es importante manejar estos imanes con cuidado para evitar daños corporales y daño a los imanes (los dedos se pueden pellizcar seriamente). Imanes flexibles Se fabrican por aglomeración de partículas magnéticas (hierro y estroncio) en un elastómero (caucho, PVC, etc.).Su principal característica es la flexibilidad, presentan forma de rollos o planchas con posibilidad de una cara adhesiva. Se utilizan en publicidad, cierres para nevera, llaves codificadas, etc. Consisten en una serie de bandas estrechas que alternan los polos norte y sur. Justo en la superficie su campo magnético es intenso pero se anula a una distancia muy pequeña, dependiendo de la anchura de las bandas. Se hacen así para eliminar problemas, como por ejemplo que se borre la banda magnética de una tarjeta de crédito (se anulan con el grosor del cuero de una cartera). Otros imanes Los imanes de platino/cobalto son muy buenos y se utilizan en relojería, en dispositivos aeroespaciales y en odontología para mejorar la retención de prótesis completas. Son muy caros. Otras aleaciones utilizadas son cobre/níquel/cobalto y hierro/cobalto/vanadio. 33 IMANES NATURALES Y ARTIFICIALES Existen dos tipos de imanes: -imanes naturales: son aquellos que se encuentran en la Tierra y que atraen al hierro. Denominados magnetita, hoy sabemos que es hierro cristalino Fe3O4. Pero también la Tierra es un imán natural. -imanes artificiales: son cuerpos que han sido imanados en forma artificial. El hierro y el acero pueden ser magnetizados. El acero se magnetiza permanentemente, como comprobaste con la aguja; lo mismo sucede con las tijeras: si la dejas en contacto con el imán durante un rato, se magnetizarán. Compruébalo PROPIEDADES Los imanes poseen dos zonas en las que se concentra la fuerza que ejercen, estas zonas son los extremos del imán y reciben el nombre de polos magnéticos, norte y sur. Los polos del mismo nombre se repelen y los polos opuestos se atraen. Compruébalo. Los polos de un imán no se pueden aislar, es decir, si partes por la mitad un imán, obtienes dos imanes, cada uno con su polo norte y polo sur respectivo. La tierra es un imán natural, el polo Norte geográfico es un polo sur magnético y el polos Sur geográfico es un polo norte magnético; en esta propiedad está basado el funcionamiento de la brújula. Un imán puede perder su imantación de dos formas: -aplicando el frotamiento en sentido contrario o invirtiendo el sentido de la corriente, según sea el método que se usó para imanarlo. -aplicándole calor. Aplicaciones El electroimán es la base del motor eléctrico y el transformador. El desarrollo de nuevos materiales magnéticos ha influido notablemente en la revolución de los ordenadores o computadoras. Es posible fabricar memorias de computadora utilizando dominios burbuja. Estos dominios son pequeñas regiones de magnetización, paralelas o antiparalelas a la magnetización global del material. Según que el sentido sea uno u otro, la burbuja indica un uno o un cero, por lo que actúa como dígito en el sistema binario empleado por los ordenadores. Los materiales magnéticos también son componentes importantes de las cintas y discos para almacenar datos. Los imanes grandes y potentes son cruciales en muchas tecnologías modernas. Los imanes superconductores se emplean en los aceleradores de partículas más potentes para mantener las partículas aceleradas en una trayectoria curva y enfocarlas. 34 La ley de Coulomb Mediante una balanza de torsión, Coulomb encontró que la fuerza de atracción o repulsión entre dos cargas puntuales (cuerpos cargados cuyas dimensiones son despreciables comparadas con la distancia r que las separa) es inversamente proporcional al cuadrado de la distancia que las separa. El valor de la constante de proporcionalidad depende de las unidades en las que se exprese F, q, q’ y r. En el Sistema Internacional de Unidades de Medida vale 9·109 Nm2/C2. Las formulaciones matemáticas para poder describir el comportamiento de la fuerza eléctrica fueron desarrolladas en el año 1785 por Charles-Augustin de Coulomb (1,736-1,806). Famoso también por sus investigaciones sobre el magnetismo, el roce, las fuerzas insertas en estructuras de ingeniería, y otros temas. Ahora bien, nos es posible estimar, por ejemplo, en lo que respecta a distancia, que la «fuerza de Coulomb» es igual a la de gravedad como la describió Newton: al duplicar la distancia, su magnitud disminuye a la cuarta parte (ley inversa del cuadrado de la distancia). Muy semejante verdad. Pero pese a ello, hay una diferencia fundamental entre ambas fuerzas. Mientras la gravedad depende de la masa del objeto (se duplica cuando se duplica la masa), la fuerza eléctrica sólo depende de su carga (también se duplica con la carga, pero permanece invariable si se dobla en tamaño la masa). Podemos describir también el fenómeno, señalando que mientras dos cuerpos de distinta masa caen igual hacia un tercero que los atrae por gravedad, dos objetos de diferente carga caen en forma diferente si son atraídos eléctricamente hacia un tercero. La fuerza eléctrica no es reductible a una propiedad geométrica del espaciotiempo, como lo es la gravedad. Para una distribución continua en cgs, 35 Ahora bien, cuando hablamos de interacción de la fuerza eléctrica a distancia, la Ley de Coulomb nos permite deducir que si hay una carga eléctrica aquí y otra, por ejemplo, en la Luna, ellas se influyen mutuamente a través del vacío del espacio intermedio, tal como las masas lo hacen según la teoría de Newton de la gravedad. Aquí, hemos entrado a una cuestión de la física que, para muchos, siempre va a ser un motivo de discusión y dudas. Para obtener el electromagnetismo y la gravedad matemáticamente se necesitan cinco dimensiones espacio-tiempo en vez de cuatro. Para ello, es necesario aceptar la idea propuesta por el matemático Theodor Kaluza, quién demostró que con el artificio de una dimensión adicional a las cuatro conocidas de espacio-tiempo, es factible obtener el electromagnetismo y la gravedad a partir de una misma teoría. El problema de la idea es saber qué es esa quinta dimensión agregada, que no percibimos. En uno de mis trabajos que se encuentra inserto en uno de los temas que he difundido en «A Horcajadas en el Tiempo», precisamente en el capítulo XII, sección 05.02, intento explicar los alcances teóricos de esa propuesta de Kaluza. EL ORIGEN ATÓMICO DEL CAMPO MAGNÉTICO Hacia fines del siglo XIX, se logró una descripción unificada de los fenómenos electromagnéticos. Si la luz resulta de la vibración de cargas, la siguiente pregunta a responder es, ¿por qué los átomos emiten luz?, ¿hay algo que vibre dentro de ellos? Como veremos a continuación, la respuesta de la última pregunta es: sí, el electrón. Las primeras evidencias de la existencia de esa partícula son muy antiguas y están asociadas con la electricidad, es decir, con los fenómenos relacionados con el movimiento, acumulación o deficiencia de electrones en la materia. DESCARGAS A TRAVÉS DE GASES El fenómeno eléctrico más espectacular es el de las descargas entre nubes (los rayos), que originalmente era asociado al estado de ánimo de algunas deidades; fue Benjamín Franklin el primero en demostrar su naturaleza eléctrica en su famoso experimento con cometas de papel. Sin embargo, los rayos resultaron demasiado esporádicos e incontrolables como para permitir su estudio sistemático. Las descargas eléctricas a través de gases habían sido observadas en el laboratorio por Francis Hauskbee quien, en 1709, reportó la aparición de una luz extraña cuando electrificaba un recipiente de vidrio que contenía aire a baja presión. Otros estudiosos del fenómeno fueron William Watson, quien en 1748 notó la aparición de flamas en la zona de vacío de sus barómetros de mercurio, y Michael Faraday, quien en 1838 realizó experimentos con descargas eléctricas a través de gases enrarecidos. La conducción eléctrica a través de gases intrigó a Faraday, ya que incluso los gases que eran considerados como aislantes, cuando eran enrarecidos, propiciaban fácilmente ese tipo de descargas. ¿Sería posible la conducción eléctrica en el vacío? En tal caso, se podría estudiar directamente la naturaleza del fluido eléctrico. 36 LOS RAYOS CATÓDICOS Antes de que se lograra dar respuesta a esta pregunta, debieron desarrollarse tres técnicas experimentales fundamentales: una bomba de vacío eficiente, un sello metal-vidrio que permitiera transmitir el potencial eléctrico a los electrodos dentro de la zona evacuada y la bobina de inducción para obtener las enormes diferencias de potencial requeridas. La necesidad de este tipo de cambios se aprecia mejor si se considera que Faraday utilizaba un tubo de vidrio tapado en ambos extremos por corchos a través de los cuales hacía pasar alambres para conectar los electrodos internos a una batería. Las primeras bombas de vacío funcionaban con pistones ajustados a sus respectivos cilindros a través de empaques que sellaban muy mal. No fue sino hasta 1855 que Johann Heinrich Geissler inventó en Bonn, Alemania, una bomba que utilizaba columnas de mercurio como pistones, y que eliminaba así los empaques. De este modo, se lograron obtener presiones de una diezmilésima de atmósfera. Simultáneamente, el mismo Geissler desarrolló nuevos tipos de vidrio cuyos coeficientes de dilatación eran iguales a los de algunos metales, con lo que permitió pasar alambres a través de vidrio fundido sin peligro de que se formaran fracturas por las que se perdiera el vacío. Otra mejora indispensable fue la obtención de grandes diferencias de potencial eléctrico. En este sentido, la contribución de otro alemán, Heinrich Daniel Ruhmkorff, fue importante. Como ya se mencionó, los primeros experimentos con tubos de descarga obtenían sus voltajes de baterías enormes conectadas en serie. Ruhmkorff modificó la bobina de inducción para obtener algo parecido a las bobinas de los automóviles actuales, con las que se producen descargas de miles de voltios a partir de una batería de menos de diez voltios. Con estos avances, en 1858 el profesor alemán Julius Plucker estudió la conducción de electricidad a través de gases a muy baja presión utilizando un tubo de vidrio en el que colocó dos placas metálicas en la parte interior de los extremos. Tal como se había observado antes para un vacío pobre, Plucker vio cómo se iluminaba todo el tubo al aplicar electricidad a las placas. Sin embargo, cuando casi todo el gas era evacuado notó que esa luz desaparecía quedando tan sólo un resplandor verdoso en el vidrio cercano a la zona de la placa conectada a la terminal positiva de su fuente de electricidad (el ánodo); la imagen luminosa no dependía mucho de la posición de ese electrodo. Más bien, parecía como si la luminosidad en esa zona fuera producida por algún tipo de rayos emitidos por la placa conectada al cátodo, y que viajaban de una placa a la otra a través del vacío. Plucker también observó que la posición de la imagen luminosa podía ser modificada si se acercaba un imán a la zona del ánodo. Un alumno de Plucker, J. W. Hittorf, encontró que al interponer objetos entre el cátodo y el ánodo se producían sombras en la imagen luminosa, con lo que reforzó la idea del origen catódico para esos rayos. El nombre de rayos catódicos fue introducido años después por el investigador alemán Eugen Goldstein, quien además demostró que las propiedades de esos rayos no dependían del material de que estuviera hecho el cátodo. 37 Una de las primeras teorías sobre la naturaleza de los rayos catódicos fue propuesta por el inglés William Crookes, quien sugirió que se podía tratar de moléculas de gas, cargadas eléctricamente en el cátodo y, posteriormente, repelidas violentamente por la acción del campo eléctrico. Goldstein puso en duda esta hipótesis basado en la gran penetrabilidad que demostraban tener los rayos catódicos, lo cual había sido interpretado por el físico alemán Heinrich Hertz como una indicación de que, en lugar de partículas, los rayos catódicos serían ondas electromagnéticas tal como él mismo había demostrado que era la luz. Sin embargo, en 1895 el físico francés Jean Baptiste Perrin encontró que los rayos catódicos depositaban carga en un electroscopio, con lo que confirmó que se trataba de partículas cargadas. Fue por aquellas fechas que el inglés Joseph John Thomson se interesó en medir la velocidad de dichas partículas. THOMSON Y EL ELECTRÓN Nacido en 1856, Thomson se ganó en 1880 una posición en el Trinity College de la Universidad de Cambridge, Inglaterra, para trabajar en el Laboratorio Cavendish. Originalmente dedicó su tiempo a estudios matemáticos poco relevantes, hasta que en 1884 fue inesperadamente designado director del laboratorio. El Cavendish había sido construido diez años antes con fondos donados por el Duque de Devon, William Cavendish, descendiente del famoso Henry Cavendish, quien midiera por primera vez la fuerza de atracción gravitacional entre dos objetos de laboratorio. El puesto de director había sido ocupado por James Clark Maxwell y, posteriormente, por John William Strutt (Lord Rayleigh), quien se retiró en 1884. El nuevo nombramiento implicaba una orientación más experimental para su investigación y, siguiendo los consejos de Rayleigh, Thomson se dedicó a estudiar la naturaleza de los rayos catódicos. Como ya vimos, por esas fechas el tema era atacado también en otros laboratonos. La contribución de Thomson fue publicada en tres artículos aparecidos en 1897. Aun cuando no era demasiado hábil con las manos —uno de sus asistentes decía que ellos preferían que no tocara los instrumentos—, su genio consistió en saber qué hacer luego de cada nueva observación. Para medir la velocidad de los rayos catódicos, Thomson los hacía pasar por la combinación de un campo eléctrico y uno magnético, producidos por un par de placas conectadas a una batería y por un par de electroimanes, respectivamente (véase figura 2). Tanto la fuerza eléctrica como la magnética ejercidas sobre las supuestas partículas eran directamente proporcionales a la relación entre su carga y su masa. Sin embargo, la fuerza magnética depende, además, de la velocidad. Con este principio, Thomson ajustaba ambos campos para compensar con el segundo la deflección ocasionada por el primero. En estas condiciones, conocer el cociente de los campos era medir la velocidad. Como información adicional, el experimento permitía medir la relación entre la carga y la masa de las partículas en cuestión. 38 Figura 2. Tubo de rayos catódicos. Los electrones emitidos por el cátodo (C) son acelerados por el campo eléctrico hacia el ánodo (A) que deja pasar algunos por un orificio central. La trayectoria de este haz es afectada por la acción de un campo magnético y uno eléctrico. J.J. Thomson buscaba cancelar esos efectos para determinar la velocidad de los electrones. Los resultados del trabajo de Thomson indicaban que la velocidad de los rayos con los que él trabajaba era, aproximadamente, diez veces menor que la de la luz. Sin embargo, lo que más llamó su atención es que la relación carga/masa obtenida era mil veces mayor que la esperada para iones (véase II.7). Este resultado sugería que, si los rayos catódicos tenían algún origen atómico, se trataba de partículas (los electrones) mil veces más ligeras que el átomo de hidrógeno. Estas partículas resultaron ser los electrones. Estrictamente, el que la masa del electrón fuese mil veces menor que la del átomo que lo contenía era sólo una de las posibles interpretaciones, que dependía de suponer que la carga del electrón era igual a la unidad electrolítica de carga. Fue entonces necesario determinar experimentalmente, y en forma independiente, la carga y/o la masa del electrón. CARGA Y MASA DEL ELECTRÓN Los primeros experimentos tendientes a determinar la carga del electrón fueron motivados por el descubrimiento de un alumno de Thomson, Charles Thomson Rees Wilson, en el sentido de que los iones podían servir como semillas de condensación de gotas en las nubes. La fascinación de Wilson por los fenómenos ópticos producidos por la luz del sol al pasar por las nubes, lo motivó a estudiar en el laboratorio la producción de atmósferas gaseosas. Antes que Wilson, Coulier y Aitken habían descubierto un método para producir nubes al expandir una cámara que contuviera una atmósfera húmeda. Siguiendo este método, en 1894 Wilson encontró que, en ausencia de polvo, se podía lograr una atmósfera supersaturada de humedad libre de gotas. La producción de gotas sólo se producía si se rebasaba cierto límite de saturación, o bien si se provocaba algún tipo de ionización de las moléculas del medio. Aparentemente, cada ion atrapaba a las moléculas libres para formar gotas. En 1895, cuando Roentgen descubrió los rayos X, J. J. Thomson propuso a Wilson estudiar el efecto de esos rayos sobre medios supersaturados con su cámara de expansión, y se encontró que esos rayos eran altamente ionizantes. Poco tiempo después, con el descubrimiento de la radiactividad, vio que ésta era capaz de producir gotas en la cámara. La cámara de Wilson fue esencial en el descubrimiento de algunas de las partículas elementales, motivo por el cual recibió el Premio Nobel de física en 1927. 39 Thomson y otros de sus colegas, J. S. E. Townsend y H. A. Wilson, cada uno por su cuenta, diseñaron métodos para medir la masa de las gotitas que se formaban alrededor de cada ion. Townsend, por ejemplo, separaba el líquido de las gotitas que se formaban alrededor de iones, midiendo la carga total. La masa de cada gotita era deducida de la velocidad de caída bajo la acción conjunta de la gravedad y la viscosidad del aire. La masa total del líquido dividido por la masa de cada gotita determinaba el número de gotitas acumuladas, y la carga total dividida por el número de gotitas daba la carga de cada gotita. En el supuesto de que cada gotita creció alrededor de un ion, la carga de cada gotita sería la carga del ion. Y ya que este tipo de ionización se puede asociar con la pérdida de un electrón por parte de una molécula, la carga del ion es de la misma magnitud que la del electrón perdido, puesto que la molécula no ionizada es eléctricamente neutra. El método de Thomson utilizaba medidas de conductividad eléctrica y térmica de la nube gaseosa para determinar la masa líquida, mientras que H. A. Wilson mejoró el método de Townsend al incluir un campo eléctrico variable, paralelo al gravitacional, que permitía una medida más directa de la carga de cada gotita. Sus resultados, publicados independientemente entre 1897 y 1903, indicaban que la carga iónica era del orden de l0-19 coulombs. Las medidas del grupo de Thomson, a pesar de ser bastante cercanas al valor aceptado actualmente (1.6021 X 10-19 coulomb), fueron vistas con desconfianza y abrieron el camino para medidas más precisas. En 1906, el físico norteamericano Robert Andrews Millikan atacó el problema repitiendo las medidas de H. A. Wilson con la ayuda de Harvey Fletcher, entonces estudiante de doctorado. Pronto se dieron cuenta que la masa de las gotitas variaba rápidamente debido a la evaporación. Para minimizar este efecto empezaron a utilizar gotitas de aceite. Otro cambio importante fue que, en lugar de observar el comportamiento global, Millikan se concentró en el comportamiento de gotas individuales al ser expuestas al efecto combinado de la gravedad y el campo eléctrico a la manera de Wilson. Los resultados mostraron que, si bien la carga inicial de cada gotita observada era enorme comparada con lo reportado por Thomson y su grupo, ésta fluctuaba de una a otra (para la misma gotita) en pasos discretos. Pronto se dieron cuenta de que estas diferencias eran múltiplos pequeños de una misma carga, aparentemente debidos a la pérdida o ganancia de algunos electrones por interacción con el medio en su trayecto. Luego de un simple análisis estadístico, esto los llevó a deducir 1.592 X l0-19 coulombs como la carga del electrón, que se denota comúnmente con la letra e. Millikan recibió el Premio Nobel en 1923 por este trabajo. Una vez determinada la carga del electrón, su masa pudo ser deducida utilizando la relación carga/masa medida por Thomson, que dio como resultado 9 X 10-31 kg. El propio Millikan dedujo el número de Avogadro, simplemente dividiendo el faraday por e, que dio como resultado: 6.06 X 1023 moléculas por gramo-mol, y la masa del ion de hidrógeno a partir de la relación carga/masa deducida en electrólisis, que dio 1.66 X 10-27 kg. Es decir, la masa del electrón es casi 1/2000 de la del átomo que lo contiene. Un cálculo aritmético simple también permitió a Thomson deducir que las dimensiones de un átomo son del orden de 10-10 metros. 40 Para terminar, vale la pena hacer notar que, si bien Zeeman y otros realizaron simultáneamente investigaciones cuyos resultados muestran inequívocamente la existencia del electrón, el crédito de este descubrimiento se otorga casi enteramente a Thomson. Esto puede deberse a que, desde su publicación original, Thomson hizo hincapié en el carácter elemental del electrón, al considerarlo una fracción del átomo. RESUMEN Los estudios enfocados a entender la naturaleza del fluido eléctrico fueron motivados inicialmente por las descargas a través de gases. En tal labor se requirió el desarrollo de técnicas de vacío y de otras que dieron como resultado el tubo de rayos catódicos. El descubrimiento de que estos rayos están constituidos por partículas cargadas fue la labor de J. J. Thomson quien, antes de deducir la naturaleza elemental, necesitó demostrar que su masa era mucho menor que la de los átomos que las contenían FUERZAS MAGNETICAS Las fuerzas magnéticas son producidas por el movimiento de partículas cargadas, como por ejemplo electrones, lo que indica la estrecha relación entre la electricidad y el magnetismo. El marco que aúna ambas fuerzas se denomina teoría electromagnética. La manifestación más conocida del magnetismo es la fuerza de atracción o repulsión que actúa entre los materiales magnéticos como el hierro. Sin embargo, en toda la materia se pueden observar efectos más sutiles del magnetismo. Recientemente, estos efectos han proporcionado claves importantes para comprender la estructura atómica de la materia. Fuerza magnética sobre una corriente rectilínea Una carga en movimiento en presencia de un imán experimenta una fuerza magnética Fm que desvía su trayectoria. Dado que la corriente eléctrica supone un movimiento continuado de cargas, un conductor por donde circula corriente sufrirá, por la acción de un campo magnético, el efecto conjunto de las fuerzas magnéticas que se ejercen sobre las diferentes cargas móviles de su interior. Si la corriente es rectilínea y de longitud l, la expresión de la fuerza magnética toma la forma: Fm = I.B.L.sen ϕ (11.6) en donde I es la intensidad de corriente, B la intensidad de campo y ϕ el ángulo que forma la corriente con el vector campo. La anterior ecuación, que se conoce como ley de Laplace, se puede obtener experimentalmente, también puede deducirse de la expresión Fm = I.B.l.sen ϕ de la fuerza magnética sobre una carga móvil. Admitiendo que la corriente es estacionaria, esto es, de intensidad constante y considerando en tal circunstancia el movimiento de avance de las cargas como uniforme, se cumple la igualdad: 41 q.v = I.L (11.7) pues en tal supuesto v = L/t e I = q/t; despejando la variable t en ambas ecuaciones e igualándolas, resulta L/v = q/I ecuación equivalente a la anterior. La dirección y el sentido de la fuerza magnética Fm se obtiene aplicando la regla de la mano izquierda, con el dedo pulgar representando la dirección de la fuerza magnética Fm, el índice el campo magnético B y el dedo corazón la corriente l. Fuerza magnética sobre una espira rectangular Una espira con forma rectangular por la que circula una corriente cuando es situada en el interior de un campo magnético, como el producido por un imán de herradura, sufre un conjunto de acciones magnéticas que producen en ella un movimiento de giro o rotación, hasta situarla dispuesta paralelamente a la dirección del campo B (o dirección de las líneas de fuerza). La explicación de este fenómeno puede efectuarse aplicando la ley de Laplace a cada uno de los tramos rectilíneos de la espira. Supóngase que como se muestra en la figura adjunta, la espira puede girar en torno a un eje que es perpendicular a las líneas de fuerza. La espira rectangular está formada por dos pares de segmentos rectilíneos paralelos entre sí, un par horizontal AD y BC y otro vertical AB = DC, por los que circula la corriente I. Cuando se aplica la regla de la mano izquierda a los segmentos horizontales AD y BC se advierte que las fuerzas magnéticas correspondientes resultan verticales y opuestas de modo que no producen ningún efecto de movimiento. Las fuerzas sobre los segmentos verticales AB y DC son opuestas y paralelas y están contenidas en un plano horizontal. Constituyen por tanto un par de fuerzas, el cual da lugar a un movimiento de giro que hace que la espira se sitúe perpendicularmente a las líneas de fuerza. En tal situación también estas otras fuerzas actuantes se anulan mutuamente y el cuadro permanece en equilibrio. La expresión del momento del par de fuerzas que actúa sobre la espira es, de acuerdo con su definición: M = fuerza x braza = Fm.b.sen ϕ donde b es la dimensión horizontal de la espira y es el ángulo que forma la dirección de una cualquiera de las dos fuerzas del par con la línea que une sus respectivos puntos de aplicación. La aplicación de la ley de Laplace a uno cualquiera de los segmentos verticales de longitud a da lugar a la expresión: Fm = B.I.a.sen 90º = B.I.a 42 pues B y la dirección de la corriente I son perpendiculares; la expresión del momento toma la forma: M = B.I.a.b.sen α = B.I.S.sen α (11.8) donde S = a · b es el área de la espira. Cuando la espira al girar se orienta paralelamente al campo, α se hace cero y el momento M resulta nulo, lo que explica que esta orientación sea la del equilibrio. Trayectoria de una partícula en un campo magnético La desviación de una aguja magnética bajo la acción de un campo originado por una corriente, según el experimento de Oersted, pone de manifiesto la existencia de una fuerza magnética que el campo aplica sobre la aguja. Si existe una fuerza hacia alguna dirección, según la tercera ley de Newton, debe existir una segunda fuerza equivalente y de sentido contrario, que actúe sobre el conductor o sobre las cargas en movimiento. Esto se da realmente, ya que si colocamos una barra conductora en un imán en forma de "u", observaremos que se mueve saliendo o entrando en el imán, hacia el lado de la corriente que este dispuesto. Al experimentar en esta forma nos damos cuenta que el sentido de la corriente, el campo y el movimiento son perpendiculares entre sí. Esto permite señalar varias reglas para determinar con precisión uno de éstos sentidos cuando se conocen los otros dos. Regla de la mano izquierda: Consiste en colocar perpendicularmente entre sí los tres primeros dedos de la mano izquierda, de modo que el índice señale el sentido del campo, el medio indique el sentido de la corriente y, entonces, el pulgar señala el sentido del movimiento del conductor o de la desviación que experimentan las cargas. Regla de la mano derecha: Consiste en extender la mano derecha, de modo que el pulgar quede perpendicular a los restantes dedos (en un solo plano). Entonces, si el pulgar indica el sentido de la corriente y de los demás dedos, el sentido del campo, el sentido del movimiento o de la fuerza aplicada sobre el conductor o sobre las cargas será perpendicular a la palma de la mano, alejándose de ésta. APLICACIONES TECNOLÓGICAS DEL MAGNETISMO. El caso del electromagnetismo es notable, entre otras cosas, por el hecho de que una vez llevados a cabo los descubrimientos científicos tuvieron inmediata aplicación práctica y viceversa, las aplicaciones prácticas fomentaron la investigación científica para resolver diferentes problemas, lo cual a su vez abrió nuevos horizontes científicos. 43 Se reseña la curiosidad científica que ha tenido el hombre desde tiempos inmemoriales por las propiedades de la electricidad por un lado y del magnetismo por otro. Se relata el descubrimiento de la relación entre estos dos campos, resaltando el hecho de que no son independientes. Se habla de los trabajos de Christian Oersted, André-Marie Ampère y Michael Faraday, algunas de las figuras señeras de la ciencia en el siglo pasado. El conocimiento científico de la relación entre electricidad y magnetismo dio lugar, inmediatamente, a aplicaciones tecnológicas importantes. Éstas se detallan en los capítulos VII-X e incluyen al telégrafo, con el que el hombre pudo comunicarse por medios eléctricos, y a las máquinas eléctricas, o sea, motores eléctricos y generadores de electricidad. De esta forma, el hombre tuvo a su disposición fuentes de corriente eléctrica de gran intensidad, hecho que cambió drásticamente la vida, dando lugar a una revolución en la forma de vida de la humanidad, cuyas consecuencias fueron la iluminación eléctrica y el teléfono, entre otras. Otra novedad importante que se dio en el desarrollo de estas aplicaciones de la electricidad y el magnetismo fue la creación de los primeros laboratorios industriales, que desempeñaron un papel primordial en los subsiguientes avances. Por otro lado, la historia dio un vuelco inesperado. James Glerk Maxwell realizó una gran síntesis teórica de los trabajos de Ampère y Faraday sobre la electricidad y el magnetismo, lo que le condujo al sorpresivo descubrimiento de que la luz era de origen eléctrico y magnético. Además, como consecuencia de la teoría que desarrolló predijo la existencia de las ondas electromagnéticas. El contexto en que trabajó Maxwell se presenta en los capítulos XI a XIII y su contribución se relata en el capítulo XlV. Basado en el trabajo de sus antecesores, Maxwell construyó uno de los pilares de la física, comparable con la mecánica desarrollada por Newton. Hemos de mencionar que la teoría electromagnética de Maxwell sirvió para el futuro desarrollo de la teoría de la relatividad de Einstein. Años después de que Maxwell hiciera la predicción de las ondas electromagnéticas en forma teórica, Hertz llevó a cabo un notable experimento, que es un ejemplo de la forma en que se hace ciencia. Se propuso indagar si en la naturaleza efectivamente existen ondas electromagnéticas. Su trabajo verificó en forma brillante las predicciones de Maxwell. Después de los experimentos de Hertz no quedó ya ninguna duda, desde el punto de vista conceptual, acerca de la realidad física de los campos, idea que Faraday había propuesto originalmente y que Maxwell elaboró en su forma matemática. Esta idea ha sido de crucial importancia en la física posterior, tanto para la relatividad de Einstein como para las teorías modernas de las partículas elementales Otra consecuencia de los trabajos de Maxwell y Hertz fue el inicio de las comunicaciones inalámbricas. Los antecedentes y trabajos más importantes se presentan en los capítulos XVI a XVIII. 44 A principios del presente siglo, los trabajos de Marconi solamente habían dado por resultado el telégrafo inalámbrico. La necesidad de desarrollar la radiotelefonía precipitó el inicio de la electrónica moderna. De hecho, esta rama del electromagnetismo consolidó el importante papel de los laboratorios industriales. En el capítulo XX se describe la relación entre la parte científica y sus aplicaciones prácticas. Una vez logrado el entendimiento fundamental del funcionamiento de los tubos al vacío hubo una nueva irrupción de grandes novedades: la radio, que dominaría la vida humana durante varias décadas, y posteriormente la televisión, que tanta repercusión ha tenido. Esto lo reseñamos en los capítulos XXI y XXII. En el capítulo XXIII presentamos en forma breve la introducción y aplicaciones de la electricidad en México. En los capítulos XXV y XXVI se detalla la invención del radar y el papel determinante que desempeñó en la victoria de los ingleses en la llamada Batalla de Inglaterra. Ésta, que tuvo en sus momentos culminantes en el otoño de 1940, fue decisiva en la posterior derrota de la Alemania nazi y pudo lograrse gracias a que los ingleses contaban con el radar, primitivo, pero funcional. Éste fue una aplicación importante de la teoría electromagnética. Para mejorar su funcionamiento y reducir su tamaño fue necesario trabajar con microondas, que se lograron generar por medio del magnetrón. Como se reseña en el capítulo XXVII, hacia 1946 se terminó de construir un dispositivo que llegaría a tener gran influencia en la vida humana: las computadoras electrónicas. Otra revolución se lleva a cabo en la segunda parte de la década de 1940: la invención del transistor. En el capítulo XXVIII se presenta el trabajo científico que se realizó para lograr esta novedad; en particular, la base cuántica fue indispensable para hacer una descripción correcta de la estructura microscópica de los sólidos. De esta manera, como se puede leer en el capítulo XXIX, se inició un torrente de aplicaciones y de mejoras cada vez más interesantes, lo que hizo posible la miniaturización de los aparatos electrónicos. De hecho, a partir de la década de 1950 se ha vivido en una revolución continua. Los avances científicos en la comprensión de la estructura de la materia han dado lugar a un sinfin de aplicaciones del electromagnetismo. Una de ellas fue el láser, cuyo principio se basó en un mecanismo que Einstein propuso en 1917 para explicar la distribución de radiación encontrada por Planck en 1900. En el capitulo XXX se detalla la base del funcionamiento de este dispositivo, que tiene una cantidad impresionante de aplicaciones, algunas de las cuales presentamos. Finalmente, en el último capítulo, el XXXI, se indican algunos de los avances que se están dando en la actualidad, así como las tendencias hacia el futuro. La fotónica, o sea la transmisión de señales, ahora por medio de ondas electromagnéticas y usando fibras ópticas, está ahora al frente del desarrollo, con la posibilidad real de reemplazar a los dispositivos electrónicos. De hecho, se vislumbra que en el siglo venidero los aparatos no sean ya electrónicos sino fotónicos, convirtiéndose en realidad un sueño de excitantes posibilidades, sólo concebido en la ciencia ficción. 45 Por limitación de espacio el autor ha elegido sólo algunos de los más importantes avances tecnológicos del electromagnetismo; aun así ha sido necesario abreviar la información, ya que varios de ellos requerirían un libro completo. En esta obra se plantea el hecho de que, en el caso del electromagnetismo, la frontera entre la ciencia y la tecnología no está bien delimitada; de hecho, es difícil hablar de frontera. Y es que las dos están tan interrelacionadas que no puede avanzar una sin la ayuda de la otra. Esta mancuerna ha sido la base de la civilización moderna 46