Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 1 E lectricidad es la categoría de fenómenos físicos originados por la existencia de cargas eléctricas y por la interacción de las mismas. Cuando una carga eléctrica se encuentra estacionaria, o estática, produce fuerzas eléctricas sobre las otras cargas situadas en su misma región del espacio; cuando está en movimiento, produce además efectos magnéticos. Los efectos eléctricos y magnéticos dependen de la posición y movimiento relativos de las partículas con carga. En lo que respecta a los efectos eléctricos, estas partículas pueden ser neutras, positivas o negativas. La electricidad se ocupa de las partículas cargadas positivamente, como los protones, que se repelen mutuamente, y de las partículas cargadas negativamente, como los electrones, que también se repelen mutuamente. En cambio, las partículas negativas y positivas se atraen entre sí. Este comportamiento puede resumirse diciendo que las cargas del mismo signo se repelen y las cargas de distinto signo se atraen. Electrostática Una manifestación habitual de la electricidad es la fuerza de atracción o repulsión entre dos cuerpos estacionarios que, de acuerdo con el principio de acción y reacción, ejercen la misma fuerza eléctrica uno sobre otro. La carga eléctrica de cada cuerpo puede medirse en culombios. La fuerza entre dos partículas con cargas q1 y q2 puede calcularse a partir de la ley de Coulomb Según la cual la fuerza es proporcional al producto de las cargas dividido entre el cuadrado de la distancia que las separa. La constante de proporcionalidad K depende del medio que rodea a las cargas. La ley se llama así en honor al físico francés Charles de Coulomb. Toda partícula eléctricamente cargada crea a su alrededor un campo de fuerzas. Este campo puede representarse mediante líneas de fuerza que indican la dirección de la fuerza eléctrica en cada punto. Para mover otra partícula cargada de un punto a otro del campo hay que realizar trabajo. La cantidad de energía necesaria para efectuar ese trabajo sobre una partícula de carga unidad se conoce como diferencia de potencial entre ambos puntos. Esta magnitud se mide en voltios. La Tierra, un conductor de gran tamaño que puede suponerse sustancialmente uniforme a efectos eléctricos, suele emplearse como nivel de referencia cero para la energía potencial. Así, se dice que el potencial de un cuerpo cargado positivamente es de tantos voltios por encima del potencial de tierra, y el potencial de un cuerpo cargado negativamente es de tantos voltios por debajo del potencial de tierra. Propiedades eléctricas de los sólidos El primer fenómeno eléctrico artificial que se observó fue la propiedad que presentan algunas sustancias resinosas como el ámbar, que adquieren una carga negativa al ser frotadas con una piel o un trapo de lana, tras lo cual atraen objetos pequeños. Un cuerpo así tiene un exceso de electrones. Una varilla de vidrio frotada con seda tiene una capacidad similar para atraer Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 2 objetos no cargados, y atrae los cuerpos cargados negativamente con una fuerza aún mayor. El vidrio tiene una carga positiva, que puede describirse como un defecto de electrones o un exceso de protones. Cuando algunos átomos se combinan para formar sólidos, frecuentemente quedan libres uno o más electrones, que pueden moverse con facilidad a través del material. En algunos materiales, llamados conductores, ciertos electrones se liberan fácilmente. Los metales, en particular el cobre y la plata, son buenos conductores. Los materiales en los que los electrones están fuertemente ligados a los átomos se conocen como aislantes, no conductores o dieléctricos. Algunos ejemplos son el vidrio, la goma o la madera seca. Existe un tercer tipo de materiales en los que un número relativamente pequeño de electrones puede liberarse de sus átomos de forma que dejan un ‘hueco’ en el lugar del electrón. El hueco, que representa la ausencia de un electrón negativo, se comporta como si fuera una unidad de carga positiva. Un campo eléctrico hace que tanto los electrones negativos como los huecos positivos se desplacen a través del material, con lo que se produce una corriente eléctrica. Generalmente, un sólido de este tipo, denominado semiconductor, tiene una resistencia mayor al paso de corriente que un conductor como el cobre, pero menor que un aislante como el vidrio. Si la mayoría de la corriente es transportada por los electrones negativos, se dice que es un semiconductor de tipo n. Si la mayoría de la corriente corresponde a los huecos positivos, se dice que es de tipo p. Si un material fuera un conductor perfecto, las cargas circularían por él sin ninguna resistencia; por su parte, un aislante perfecto no permitiría que se movieran las cargas por él. No se conoce ninguna sustancia que presente alguno de estos comportamientos extremos a temperatura ambiente. A esta temperatura, los mejores conductores ofrecen una resistencia muy baja (pero no nula) al paso de la corriente y los mejores aislantes ofrecen una resistencia alta (pero no infinita. Sin embargo, la mayoría de los metales pierden toda su resistencia a temperaturas próximas al cero absoluto; este fenómeno se conoce como superconductividad. Cargas eléctricas El electroscopio es un instrumento cualitativo empleado para demostrar la presencia de cargas eléctricas. En la figura 1 se muestra el instrumento tal como lo utilizó por primera vez el físico y químico británico Michael Faraday. El electroscopio está compuesto por dos láminas de metal muy finas (a,a_) colgadas de un soporte metálico (b) en el interior de un recipiente de vidrio u otro material no conductor (c). Una esfera (d) recoge las cargas eléctricas del cuerpo cargado que se quiere observar; las cargas, positivas o negativas, pasan a través del soporte metálico y llegan a ambas láminas. Al ser iguales, las cargas se repelen y las láminas se separan. La distancia entre éstas depende de la cantidad de carga. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 3 Pueden utilizarse tres métodos para cargar eléctricamente un objeto: 1) contacto con otro objeto de distinto material (como por ejemplo, ámbar y piel) seguido por separación; 2) contacto con otro cuerpo cargado; 3) inducción. El efecto de las cargas eléctricas sobre conductores y no conductores se muestra en la figura 2. Un cuerpo cargado negativamente, A, está situado entre un conductor neutro, B, y un no conductor neutro, C. Los electrones libres del conductor son repelidos hacia la zona del conductor alejada de A, mientras que las cargas positivas se ven atraídas hacia la zona próxima. El cuerpo B en su conjunto es atraído hacia A, porque la atracción de las cargas distintas más próximas entre sí es mayor que la repulsión de las cargas iguales más separadas (las fuerzas entre las cargas eléctricas son inversamente proporcionales al cuadrado de la distancia entre las cargas). En el no conductor, C, los electrones no pueden moverse libremente, pero los átomos o moléculas del mismo se reorientan de forma que sus electrones constituyentes estén lo más lejos posible de A; el no conductor también es atraído por A, pero en menor medida que el conductor. El movimiento de los electrones en el conductor B de la figura 2 y la reorientación de los átomos del no conductor C proporciona a esos cuerpos cargas positivas en los lados más próximos a A y negativas en los lados más distantes de A. Las cargas generadas de esta forma se denominan cargas inducidas. Medidas eléctricas El flujo de carga, o intensidad de corriente, que recorre un cable conductor se mide por el número de culombios que pasan en un segundo por una sección determinada del cable. Un culombio por segundo equivale a 1 amperio, unidad de intensidad de corriente eléctrica llamada así en honor al físico francés André Marie Ampère. Cuando una carga de 1 culombio se desplaza a través de una diferencia de potencial de 1 voltio, el trabajo realizado equivale a 1 julio, unidad llamada así en honor al físico británico James Prescott Joule. Esta definición facilita la conversión de cantidades mecánicas en eléctricas. Una unidad de energía muy usada en física atómica es el electronvoltio (eV). Corresponde a la energía adquirida por un electrón acelerado por una diferencia de potencial de 1 voltio. Esta unidad es muy pequeña y muchas veces se multiplica por un millón o mil millones, abreviándose el resultado como 1 MeV o 1 GeV. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 4 Corriente eléctrica Si dos cuerpos de carga igual y opuesta se conectan por medio de un conductor metálico, por ejemplo un cable, las cargas se neutralizan mutuamente. Esta neutralización se lleva a cabo mediante un flujo de electrones a través del conductor, desde el cuerpo cargado negativamente al cargado positivamente (en ingeniería eléctrica, se considera por convención que la corriente fluye en sentido opuesto, es decir, de la carga positiva a la negativa). En cualquier sistema continuo de conductores, los electrones fluyen desde el punto de menor potencial hasta el punto de mayor potencial. Un sistema de esa clase se denomina circuito eléctrico. La corriente que circula por un circuito se denomina corriente continua (C.C.) si fluye siempre en el mismo sentido y corriente alterna (C.A.) si fluye alternativamente en uno u otro sentido. El flujo de una corriente continua está determinado por tres magnitudes relacionadas entre sí. La primera es la diferencia de potencial en el circuito, que en ocasiones se denomina fuerza electromotriz (f.e.m.), tensión o voltaje. La segunda es la intensidad de corriente. Esta magnitud se mide en amperios; 1 amperio corresponde al paso de unos 6.250.000.000.000.000.000 electrones por segundo por una sección determinada del circuito. La tercera magnitud es la resistencia del circuito. Normalmente, todas las sustancias, tanto conductores como aislantes, ofrecen cierta oposición al flujo de una corriente eléctrica, y esta resistencia limita la corriente. La unidad empleada para cuantificar la resistencia es el 1 amperio en un circuito con una f.e.m. de 1 voltio. La ley de Ohm, llamada así en honor al físico alemán Georg Simon Ohm, que la descubrió en 1827, permite relacionar la intensidad con la fuerza electromotriz. Se expresa mediante la ecuación × R, donde es la fuerza electromotriz en voltios, I es la intensidad en amperios y R es la resistencia en ohmios. A partir de esta ecuación puede calcularse cualquiera de las tres magnitudes en un circuito dado si se conocen las otras dos. Cuando una corriente eléctrica fluye por un cable pueden observarse dos efectos importantes: la temperatura del cable aumenta y un imán o brújula colocado cerca del cable se desvía, apuntando en dirección perpendicular al cable. Al circular la corriente, los electrones que la componen colisionan con los átomos del conductor y ceden energía, que aparece en forma de calor. La Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 5 cantidad de energía desprendida en un circuito eléctrico se mide en julios. La potencia consumida se mide en vatios; 1 vatio equivale a 1 julio por segundo. La potencia P consumida por un circuito determinado puede calcularse a partir de la expresión × I, o la que se obtiene al aplicar a ésta la ley de 2 Ohm: P = I × R. También se consume potencia en la producción de trabajo mecánico, en la emisión de radiación electromagnética como luz u ondas de radio y en la descomposición química. lectromagnetismo E El movimiento de la aguja de una brújula en las proximidades de un conductor por el que circula una corriente indica la presencia de un campo magnético alrededor del conductor. Cuando dos conductores paralelos son recorridos cada uno por una corriente, los conductores se atraen si ambas corrientes fluyen en el mismo sentido y se repelen cuando fluyen en sentidos opuestos. El campo magnético creado por la corriente que fluye en una espira de alambre es tal que si se suspende la espira cerca de la Tierra se comporta como un imán o una brújula, y oscila hasta que la espira forma un ángulo recto con la línea que une los dos polos magnéticos terrestres. Puede considerarse que el campo magnético en torno a un conductor rectilíneo por el que fluye una corriente se extiende desde el conductor igual que las ondas creadas cuando se tira una piedra al agua. Las líneas de fuerza del campo magnético tienen sentido anti horario cuando se observa el conductor en el mismo sentido en que se desplazan los electrones. El campo en torno al conductor es estacionario mientras la corriente fluya por él de forma uniforme. Cuando un conductor se mueve de forma que atraviesa las líneas de fuerza de un campo magnético, este campo actúa sobre los electrones libres del conductor desplazándolos y creando una diferencia de potencial y un flujo de corriente en el mismo. Se produce el mismo efecto si el campo magnético es estacionario y el cable se mueve que si el campo se mueve y el cable permanece estacionario. Cuando una corriente empieza a circular por un conductor, se genera un campo magnético que parte del conductor. Este campo atraviesa el propio conductor e induce en él una corriente en sentido opuesto a la corriente que lo causó (según la llamada regla de Lenz). En un cable recto este efecto es muy pequeño, pero si el cable se arrolla para formar una bobina, el efecto se amplía ya que los campos generados por cada espira de la bobina cortan las espiras vecinas e inducen también una corriente en ellas. El resultado es que cuando se conecta una bobina así a una fuente de diferencia de potencial, impide el flujo de corriente cuando empieza a aplicarse la diferencia de potencial. De forma similar, cuando se elimina la diferencia de potencial, el campo magnético se desvanece, y las líneas de fuerza vuelven a cortar las espiras de la bobina. La corriente inducida en estas circunstancias tiene el mismo sentido que la corriente original, y la bobina tiende a mantener el flujo de corriente. Debido a estas propiedades, una bobina se resiste a los cambios en el flujo de corriente, por lo que se dice que posee inercia eléctrica o autoinducción. Esta inercia tiene Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 6 poca importancia en circuitos de corriente continua, ya que no se observa cuando la corriente fluye de forma continuada, pero es muy importante en los circuitos de corriente alterna. Conducción en líquidos y gases Cuando fluye una corriente eléctrica por un conductor metálico, el flujo sólo tiene lugar en un sentido, ya que la corriente es transportada en su totalidad por los electrones. En cambio en los líquidos y gases, se hace posible un flujo en dos sentidos debido a la ionización. En una solución líquida, los iones positivos se mueven en la disolución de los puntos de potencial más alto a los puntos de potencial más bajo; los iones negativos se mueven en sentido opuesto. De forma similar, en los gases —que pueden ser ionizados por radiactividad, por los rayos ultravioletas de la luz solar, por ondas electromagnéticas o por un campo eléctrico muy intenso— se produce un movimiento de iones en dos sentidos que produce una corriente eléctrica a través del gas. Fuentes de fuerza electromotriz Para producir un flujo de corriente en cualquier circuito eléctrico es necesaria una fuente de fuerza electromotriz. Las fuentes disponibles son las siguientes: 1) máquinas electrostáticas, que se basan en el principio de inducir cargas eléctricas por medios mecánicos; 2) máquinas electromagnéticas, en las que se genera corriente desplazando mecánicamente un conductor a través de un campo o campos magnéticos; 3) células voltaicas, que producen una fuerza electromotriz a través de una acción electroquímica; 4) dispositivos que producen una fuerza electromotriz a través de la acción del calor; 5) dispositivos que generan una fuerza electromotriz por la acción de la luz; 6) dispositivos que producen una fuerza electromotriz a partir de una presión física, como los cristales piezoeléctricos. Corrientes alternas Cuando se hace oscilar un conductor en un campo magnético, el flujo de corriente en el conductor cambia de sentido tantas veces como lo hace el movimiento físico del conductor. Varios sistemas de generación de electricidad se basan en este principio, y producen una forma de corriente oscilante llamada corriente alterna. Esta corriente tiene una serie de características ventajosas en comparación con la corriente continua, y suele utilizarse como fuente de energía eléctrica tanto en aplicaciones industriales como en el hogar. La característica práctica más importante de la corriente alterna es que su voltaje puede cambiarse mediante un sencillo dispositivo electromagnético denominado transformador. Cuando una corriente alterna pasa por una bobina de alambre, el campo magnético alrededor de la bobina se intensifica, se anula, se vuelve a intensificar con sentido opuesto y se vuelve a anular. Si se sitúa otra bobina en el campo magnético de la primera bobina, sin estar directamente conectada a ella, el movimiento del campo magnético induce una corriente alterna en la segunda bobina. Si esta segunda bobina tiene un número de espiras mayor que la primera, la tensión inducida en ella será mayor que la tensión de la primera, ya que el campo actúa sobre un número mayor de conductores individuales. Al contrario, si el Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 7 número de espiras de la segunda bobina es menor, la tensión será más baja que la de la primera. La acción de un transformador hace posible la transmisión rentable de energía eléctrica a lo largo de grandes distancias. Si se quieren suministrar 200.000 vatios de potencia a una línea eléctrica, puede hacerse con un voltaje de 200.000 voltios y una corriente de 1 amperio o con un voltaje de 2.000 voltios y una corriente de 100 amperios, ya que la potencia es igual al producto de tensión y corriente. La potencia perdida en la línea por calentamiento es igual al cuadrado de la intensidad de la corriente multiplicado por la resistencia. Por ejemplo, si la resistencia de la línea es de 10 ohmios, la pérdida de potencia con 200.000 voltios será de 10 vatios, mientras que con 2.000 voltios será de 100.000 vatios, o sea, la mitad de la potencia disponible. En un circuito de corriente alterna, el campo magnético en torno a una bobina varía constantemente, y la bobina obstaculiza continuamente el flujo de corriente en el circuito debido a la autoinducción. La relación entre el voltaje aplicado a una bobina ideal (es decir, sin resistencia) y la intensidad que fluye por dicha bobina es tal que la intensidad es nula cuando el voltaje es máximo, y es máxima cuando el voltaje es nulo. Además, el campo magnético variable induce una diferencia de potencial en la bobina de igual magnitud y sentido opuesto a la diferencia de potencial aplicada. En la práctica, las bobinas siempre presentan resistencia y capacidad además de autoinducción. Si en un circuito de corriente alterna se coloca un condensador (también llamado capacitor) la intensidad de corriente es proporcional al tamaño del condensador y a la velocidad de variación del voltaje en el mismo. Por tanto, por un condensador cuya capacidad es de 2 faradios pasará el doble de intensidad que por uno de 1 faradio. En un condensador ideal, el voltaje está totalmente desfasado con la intensidad. Cuando el voltaje es máximo no fluye intensidad, porque la velocidad de cambio de voltaje es nula. La intensidad es máxima cuando el voltaje es nulo, porque en ese punto la velocidad de variación del voltaje es máxima. A través de un condensador circula intensidad —aunque no existe una conexión eléctrica directa entre sus placas— porque el voltaje de una placa induce una carga opuesta en la otra. De los efectos indicados se deduce que si se aplica un voltaje alterno a una bobina o condensador ideales, no se consume potencia. No obstante, en todos los casos prácticos los circuitos de corriente alterna presentan resistencia además de autoinducción y capacidad, y se consume potencia. Esta potencia consumida depende de la proporción relativa de las tres magnitudes en el circuito. Historia de la electricidad Es posible que el filósofo griego Tales de Mileto, que vivió en torno al 600 a.C., ya supiera que el ámbar adquiere la propiedad de atraer objetos ligeros al ser frotado. Otro filósofo griego, Teofrasto, afirmaba en un tratado escrito tres siglos después que otras sustancias poseen esa propiedad. Sin embargo, el primer estudio científico de los fenómenos eléctricos no apareció Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 8 hasta el 1600 d.C., cuando se publicaron las investigaciones del médico británico William Gilbert, quien aplicó el término ‘eléctrico’ (del griego elektron, ‘ámbar’) a la fuerza que ejercen esas sustancias después de ser frotadas. También distinguió entre las acciones magnética y eléctrica. La primera máquina para producir una carga eléctrica fue descrita en 1672 por el físico alemán Otto von Guericke. Estaba formada por una esfera de azufre movida por una manivela, sobre la que se inducía una carga cuando se apoyaba la mano sobre ella. El científico francés Charles François de Cisternay Du Fay fue el primero en distinguir claramente los dos tipos diferentes de carga eléctrica: positiva y negativa. El condensador más antiguo, la botella de Leyden, fue desarrollado en 1745. Estaba formado por una botella de vidrio recubierta por dos láminas de papel de estaño, una en el interior y otra en el exterior. Si se cargaba una de las láminas con una máquina electrostática, se producía una descarga violenta si se tocaban ambas láminas a la vez. El inventor estadounidense Benjamin Franklin dedicó mucho tiempo a la investigación de la electricidad. Su famoso experimento con una cometa o papalote demostró que la electricidad atmosférica que provoca los fenómenos del relámpago y el trueno es de la misma naturaleza que la carga electrostática de una botella de Leyden. Franklin desarrolló una teoría según la cual la electricidad es un ‘fluido’ único que existe en toda la materia, y sus efectos pueden explicarse por el exceso o la escasez de ese fluido. La ley de que la fuerza entre cargas eléctricas es inversamente proporcional al cuadrado de la distancia entre las cargas fue demostrada experimentalmente por el químico británico Joseph Priestley alrededor de 1766. Priestley también demostró que una carga eléctrica se distribuye uniformemente sobre la superficie de una esfera metálica hueca, y que en el interior de una esfera así no existen cargas ni campos eléctricos. Charles de Coulomb inventó una balanza de torsión para medir con precisión la fuerza que se ejerce entre las cargas eléctricas. Con ese aparato confirmó las observaciones de Priestley y demostró que la fuerza entre dos cargas también es proporcional al producto de las cargas individuales. Faraday, que realizó numerosas contribuciones al estudio de la electricidad a principios del siglo XIX, también desarrolló la teoría de las líneas de fuerza eléctricas. Los físicos italianos Luigi Galvani y Alessandro Volta llevaron a cabo los primeros experimentos importantes con corrientes eléctricas. Galvani produjo contracciones musculares en las patas de una rana aplicándoles una corriente eléctrica. En 1800, Volta presentó la primera fuente electroquímica artificial de diferencia de potencial, un tipo de pila eléctrica o batería. La existencia de un campo magnético en torno a un flujo de corriente eléctrica fue demostrada por el científico danés Hans Christian Oersted en 1819, y en 1831 Faraday demostró que la corriente que circula por una espira de cable puede inducir electromagnéticamente una corriente en una espira cercana. Alrededor de 1840, James Prescott Joule y el científico alemán Hermann von Helmholtz demostraron que los circuitos eléctricos cumplen la ley de conservación de la energía, y que la electricidad es una forma de energía. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 9 El físico matemático británico James Clerk Maxwell realizó una contribución importante al estudio de la electricidad en el siglo XIX; Maxwell investigó las propiedades de las ondas electromagnéticas y la luz y desarrolló la teoría de que ambas tienen la misma naturaleza. Su trabajo abrió el camino al físico alemán Heinrich Hertz, que produjo y detectó ondas eléctricas en la atmósfera en 1886, y al ingeniero italiano Guglielmo Marconi, que en 1896 empleó esas ondas para producir el primer sistema práctico de señales de radio. La teoría de los electrones, que forma la base de la teoría eléctrica moderna, fue presentada por el físico holandés Hendrik Antoon Lorentz en 1892. El primero en medir con precisión la carga del electrón fue el físico estadounidense Robert Andrews Millikan, en 1909. El uso generalizado de la electricidad como fuente de energía se debe en gran medida a ingenieros e inventores pioneros de Estados Unidos, como Thomas Alva Edison, Nikola Tesla o Charles Proteus Steinmetz. Semiconductor Se llama así a un material sólido o líquido capaz de conducir la electricidad mejor que un aislante, pero peor que un metal. La conductividad eléctrica, que es la capacidad de conducir la corriente eléctrica cuando se aplica una diferencia de potencial, es una de las propiedades físicas más importantes. Ciertos metales, como el cobre, la plata y el aluminio son excelentes conductores. Por otro lado, ciertos aislantes como el diamante o el vidrio son muy malos conductores. A temperaturas muy bajas, los semiconductores puros se comportan como aislantes. Sometidos a altas temperaturas, mezclados con impurezas o en presencia de luz, la conductividad de los semiconductores puede aumentar de forma espectacular y llegar a alcanzar niveles cercanos a los de los metales. Las propiedades de los semiconductores se estudian en la física del estado sólido. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 10 Electrones de conducción y huecos Entre los semiconductores comunes se encuentran elementos químicos y compuestos, como el silicio, el germanio, el selenio, el arseniuro de galio, el seleniuro de cinc y el telururo de plomo. El incremento de la conductividad provocado por los cambios de temperatura, la luz o las impurezas se debe al aumento del número de electrones conductores que transportan la corriente eléctrica. En un semiconductor característico o puro como el silicio, los electrones de valencia (o electrones exteriores) de un átomo están emparejados y son compartidos por otros átomos para formar un enlace covalente que mantiene al cristal unido. Estos electrones de valencia no están libres para transportar corriente eléctrica. Para producir electrones de conducción, se utiliza la luz o la temperatura, que excita los electrones de valencia y provoca su liberación de los enlaces, de manera que pueden transmitir la corriente. Las deficiencias o huecos que quedan contribuyen al flujo de la electricidad (se dice que estos huecos transportan carga positiva). Éste es el origen físico del incremento de la conductividad eléctrica de los semiconductores a causa de la temperatura. Dopar Otro método para obtener electrones para el transporte de electricidad consiste en añadir impurezas al semiconductor o doparlo. La diferencia del número de electrones de valencia entre el material dopante (tanto si acepta como si confiere electrones) y el material receptor hace que crezca el número de electrones de conducción negativos (tipo n) o positivos (tipo p). Este concepto se ilustra en el diagrama adjunto, que muestra un cristal de silicio dopado. Cada átomo de silicio tiene cuatro electrones de valencia (representados mediante puntos). Se requieren dos para formar el enlace covalente. En el silicio tipo n, un átomo como el del fósforo (P), con cinco electrones de valencia, reemplaza al silicio y proporciona electrones adicionales. En el silicio tipo p, los átomos de tres electrones de valencia como el aluminio (Al) provocan una deficiencia de electrones o huecos que se comportan como electrones positivos. Los electrones o los huecos pueden conducir la electricidad. Cuando ciertas capas de semiconductores tipo p y tipo n son adyacentes, forman un diodo de semiconductor, y la región de contacto se llama unión pn. Un diodo es un dispositivo de dos terminales que tiene una gran resistencia al paso de la corriente eléctrica en una dirección y una baja resistencia en la otra. Las propiedades de conductividad de la unión pn dependen de la dirección del voltaje, que puede a su vez utilizarse para controlar la naturaleza eléctrica del dispositivo. Algunas series de estas uniones se usan Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 11 para hacer transistores y otros dispositivos semiconductores como células solares, láseres de unión pn y rectificadores. Los dispositivos semiconductores tienen muchas aplicaciones en la ingeniería eléctrica. Los últimos avances de la ingeniería han producido pequeños chips semiconductores que contienen cientos de miles de transistores. Estos chips han hecho posible un enorme grado de miniaturización en los dispositivos electrónicos. La aplicación más eficiente de este tipo de chips es la fabricación de circuitos de semiconductores de metalóxido complementario o CMOS, que están formados por parejas de transistores de canal p y n controladas por un solo circuito. Además, se están fabricando dispositivos extremadamente pequeños utilizando la técnica epitaxial de haz molecular. Conductor eléctrico Es cualquier material que ofrezca poca resistencia al flujo de electricidad. La diferencia entre un conductor y un aislante, que es un mal conductor de electricidad o de calor, es de grado más que de tipo, ya que todas las sustancias conducen electricidad en mayor o en menor medida. Un buen conductor de electricidad, como la plata o el cobre, puede tener una conductividad mil millones de veces superior a la de un buen aislante, como el vidrio o la mica. El fenómeno conocido como superconductividad se produce cuando al enfriar ciertas sustancias a un temperatura cercana al cero absoluto su conductividad se vuelve prácticamente infinita. En los conductores sólidos la corriente eléctrica es transportada por el movimiento de los electrones; y en disoluciones y gases, lo hace por los iones. Aislante es cualquier material que conduce mal el calor o la electricidad y que se emplea para suprimir su flujo. Aislantes eléctricos El aislante perfecto para las aplicaciones eléctricas sería un material absolutamente no conductor, pero ese material no existe. Los materiales empleados como aislantes siempre conducen algo la electricidad, pero presentan una resistencia al paso de corriente eléctrica hasta 2,5 × 1024 Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 12 veces mayor que la de los buenos conductores eléctricos como la plata o el cobre. Estos materiales conductores tienen un gran número de electrones libres (electrones no estrechamente ligados a los núcleos) que pueden transportar la corriente; los buenos aislantes apenas poseen estos electrones. Algunos materiales, como el silicio o el germanio, que tienen un número limitado de electrones libres, se comportan como semiconductores, y son la materia básica de los transistores. En los circuitos eléctricos normales suelen usarse plásticos como revestimiento aislante para los cables. Los cables muy finos, como los empleados en las bobinas (por ejemplo, en un transformador), pueden aislarse con una capa delgada de barniz. El aislamiento interno de los equipos eléctricos puede efectuarse con mica o mediante fibras de vidrio con un aglutinador plástico. En los equipos electrónicos y transformadores se emplea en ocasiones un papel especial para aplicaciones eléctricas. Las líneas de alta tensión se aíslan con vidrio, porcelana u otro material cerámico. La elección del material aislante suele venir determinada por la aplicación. El polietileno y poliestireno se emplean en instalaciones de alta frecuencia, y el mylar se emplea en condensadores eléctricos. También hay que seleccionar los aislantes según la temperatura máxima que deban resistir. El teflón se emplea para temperaturas altas, entre 175 y 230 ºC. Las condiciones mecánicas o químicas adversas pueden exigir otros materiales. El nylon tiene una excelente resistencia a la abrasión, y el neopreno, la goma de silicona, los poliésteres de epoxy y los poliuretanos pueden proteger contra los productos químicos y la humedad. Aislantes térmicos Los materiales de aislamiento térmico se emplean para reducir el flujo de calor entre zonas calientes y frías. Por ejemplo, el revestimiento que se coloca frecuentemente alrededor de las tuberías de vapor o de agua caliente reduce las pérdidas de calor, y el aislamiento de las paredes de una nevera o refrigerador reduce el flujo de calor hacia el aparato y permite que se mantenga frío. El aislamiento térmico puede cumplir una o más de estas tres funciones: reducir la conducción térmica en el material, que corresponde a la transferencia de calor mediante electrones; reducir las corrientes de convección térmica que pueden establecerse en espacios llenos de aire o de líquido, y reducir la transferencia de calor por radiación, que corresponde al transporte de energía térmica por ondas electromagnéticas. La conducción y la convección no tienen lugar en el vacío, donde el único método de transferir calor es la radiación. Si se emplean superficies de alta reflectividad, también se puede reducir la radiación. Por ejemplo, puede emplearse papel de aluminio en las paredes de los edificios. Igualmente, el uso de metal reflectante en los tejados reduce el calentamiento por el sol. Los termos o frascos Dewar impiden el paso de calor al tener dos paredes separadas por un vacío y recubiertas por una capa reflectante de plata o aluminio. El aire presenta unas 15.000 veces más resistencia al flujo de calor que un buen conductor térmico como la plata, y unas 30 veces más que el vidrio. Por Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 13 eso, los materiales aislantes típicos suelen fabricarse con materiales no metálicos y están llenos de pequeños espacios de aire. Algunos de estos materiales son el carbonato de magnesio, el corcho, el fieltro, la guata, la fibra mineral o de vidrio y la arena de diatomeas. El amianto se empleó mucho como aislante en el pasado, pero se ha comprobado que es peligroso para la salud y ha sido prohibido en los edificios de nueva construcción de muchos países. En los materiales de construcción, los espacios de aire proporcionan un aislamiento adicional; así ocurre en los ladrillos de vidrio huecos, las ventanas con doble vidrio (formadas por dos o tres paneles de vidrio con una pequeña cámara de aire entre los mismos) y las tejas de hormigón (concreto) parcialmente huecas. Las propiedades aislantes empeoran si el espacio de aire es suficientemente grande para permitir la convección térmica, o si penetra humedad en ellas, ya que las partículas de agua actúan como conductores. Por ejemplo, la propiedad aislante de la ropa seca es el resultado del aire atrapado entre las fibras; esta capacidad aislante puede reducirse significativamente con la humedad. Los costes de calefacción y aire acondicionado en las viviendas pueden reducirse con un buen aislamiento del edificio. En los climas fríos se recomiendan unos 8 cm de aislamiento en las paredes y entre 15 y 20 cm de aislamiento en el techo. Recientemente se han desarrollado los llamados superaislantes, sobre todo para su empleo en el espacio, donde se necesita protección frente a unas temperaturas externas cercanas al cero absoluto. Los tejidos superaislantes están formados por capas múltiples de mylar aluminizado, cada una de unos 0,005 cm de espesor, separadas por pequeños espaciadores, de forma que haya entre 20 y 40 capas por centímetro. nergía Es la capacidad de un sistema físico para realizar trabajo. La materia posee energía como resultado de su movimiento o de su posición en relación con las fuerzas que actúan sobre ella. La radiación electromagnética posee energía que depende de su frecuencia y, por tanto, de su longitud de onda. Esta energía se comunica a la materia cuando absorbe radiación y se recibe de la materia cuando emite radiación. La energía asociada al movimiento se conoce como energía cinética, mientras que la relacionada con la posición es la energía potencial. Por ejemplo, un péndulo que oscila tiene una energía potencial máxima en los extremos de su recorrido; en todas las posiciones intermedias tiene energía cinética y potencial en proporciones diversas. La energía se manifiesta en varias formas, entre ellas la energía mecánica, térmica, química, eléctrica, radiante o atómica. Todas las formas de energía pueden convertirse en otras formas mediante los procesos adecuados. En el proceso de transformación puede perderse o ganarse una forma de energía, pero la suma total permanece constante. E Un peso suspendido de una cuerda tiene energía potencial debido a su posición, puesto que puede realizar trabajo al caer. Una batería eléctrica tiene energía potencial en forma química. Un trozo de magnesio también tiene Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 14 energía potencial en forma química, que se transforma en calor y luz si se inflama. Al disparar un fusil, la energía potencial de la pólvora se transforma en la energía cinética del proyectil. La energía cinética del rotor de una dinamo o alternador se convierte en energía eléctrica mediante la inducción electromagnética. Esta energía eléctrica puede a su vez almacenarse como energía potencial de las cargas eléctricas en un condensador o una batería, disiparse en forma de calor o emplearse para realizar trabajo en un dispositivo eléctrico. Todas las formas de energía tienden a transformarse en calor, que es la forma más degradada de la energía. En los dispositivos mecánicos la energía no empleada para realizar trabajo útil se disipa como calor de rozamiento, y las pérdidas de los circuitos eléctricos se producen fundamentalmente en forma de calor. Las observaciones empíricas del siglo XIX llevaron a la conclusión de que aunque la energía puede transformarse no se puede crear ni destruir. Este concepto, conocido como principio de conservación de la energía, constituye uno de los principios básicos de la mecánica clásica. Al igual que el principio de conservación de la materia, sólo se cumple en fenómenos que implican velocidades bajas en comparación con la velocidad de la luz. Cuando las velocidades se empiezan a aproximar a la de la luz, como ocurre en las reacciones nucleares, la materia puede transformarse en energía y viceversa. En la física moderna se unifican ambos conceptos, la conservación de la energía y de la masa. Bioenergética Es el estudio de los procesos mediante los cuales las células vivas utilizan, almacenan y liberan energía. El componente principal de la bioenergética es la transformación de energía, es decir, la conversión de una forma de energía en otra. Todas las células transforman energía. Por ejemplo, las células vegetales utilizan la luz solar para obtener carbohidratos (azúcares y almidón) a partir de principios químicos inorgánicos simples. En este proceso, denominado fotosíntesis, la energía solar se convierte en energía química de reserva. Si los carbohidratos de estas plantas son ingeridos por un animal, se produce su ruptura y su energía química se transforma en movimiento, calor corporal o enlaces químicos nuevos. En toda esta serie de transformaciones, existe una pérdida de energía hacia el medio ambiente, generalmente en forma de energía térmica (calor). Esta energía no puede generar trabajo útil debido a que se ha liberado. La segunda ley de la termodinámica establece que, con el tiempo, cualquier sistema tiende a un desorden mayor; es decir, incrementa su entropía. La constante afluencia de energía solar es necesaria para la supervivencia de todas las plantas y animales de la Tierra. Energía nuclear Llamamos así a la energía liberada durante la fisión o fusión de núcleos atómicos. Las cantidades de energía que pueden obtenerse mediante Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 15 procesos nucleares superan con mucho a las que pueden lograrse mediante procesos químicos, que sólo implican las regiones externas del átomo. La energía de cualquier sistema, ya sea físico, químico o nuclear, se manifiesta por su capacidad de realizar trabajo o liberar calor o radiación. La energía total de un sistema siempre se conserva, pero puede transferirse a otro sistema o convertirse de una forma a otra. Hasta el siglo XIX, el principal combustible era la leña, cuya energía procede de la energía solar acumulada por las plantas. Desde la Revolución Industrial, los seres humanos dependen de los combustibles fósiles —carbón o petróleo—, que también constituyen energía solar almacenada. Cuando se quema un combustible fósil como el carbón, los átomos de hidrógeno y carbono que lo constituyen se combinan con los átomos de oxígeno del aire; se produce agua y dióxido de carbono y se libera calor, unos 1,6 kilovatios hora por kilogramo de carbón, o unos 10 electrovoltios (eV) por átomo de carbono. Esta cantidad de energía es típica de las reacciones químicas que corresponden a cambios en la estructura electrónica de los átomos. Parte de la energía liberada como calor mantiene el combustible adyacente a una temperatura suficientemente alta para que la reacción continúe. PAÍS PRODUCCIÓN EN 1995* (TWh**) Estados Unidos 705,7 Francia 377,3 Japón 287,8 Alemania 154,1 Canadá 100,3 Rusia 98,7 Reino Unido (1994) 89,5 Ucrania 70,5 Suecia 69,9 Corea del Sur 64,0 España 55,4 Bélgica 41,4 Taiwan 35,3 Suiza 24,8 Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 16 * Sólo se recogen las producciones superiores a 20 TWh ** 1 teravatio hora (TWh) = 1012 Wh = 109 kWh Fuente: Comisariado para la Energía Atómica (CEA) El átomo El átomo está formado por un pequeño núcleo, cargado positivamente, rodeado de electrones. El núcleo, que contiene la mayor parte de la masa del átomo, está compuesto a su vez de neutrones y protones, unidos por fuerzas nucleares muy intensas, mucho mayores que las fuerzas eléctricas que ligan los electrones al núcleo. El número másico A de un núcleo expresa el número de nucleones (neutrones y protones) que contiene; el número atómico Z es el número de protones, partículas con carga positiva. Los núcleos se designan como 235. La energía de enlace de un núcleo mide la intensidad con que las fuerzas nucleares mantienen ligados a los protones y neutrones. La energía de enlace por nucleón, es decir, la energía necesaria para separar del núcleo un neutrón o un protón, depende del número másico. La curva de las energías de enlace (ver tabla Energía de enlace nuclear) implica que si dos núcleos ligeros, que ocupan posiciones muy bajas en la tabla, se fusionan para formar un núcleo de mayor peso (o si un núcleo pesado, que ocupa posiciones muy altas en la tabla, se divide en dos de menor peso), los núcleos resultantes están ligados con más fuerza, por lo que se libera energía. La fusión de dos núcleos ligeros libera millones de electronvoltios (MeV), combinan según la reacción para producir un núcleo de helio MeV, o 5,1 × 10-13 julios (J). También se libera energía nuclear cuando se induce la como en la reacción Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 17 que produce cesio 140, rubidio 93, tres neutrones y 200 MeV, o 3,2 × 1011 J. Una reacción de fisión nuclear libera una energía 10 millones de veces mayor que una reacción química típica. Energía nuclear de fisión Las dos características fundamentales de la fisión nuclear en cuanto a la producción práctica de energía nuclear resultan evidentes en la ecuación (2) expuesta anteriormente. En primer lugar, la energía liberada por la fisión es muy grande. La fisión de 1 kg de uranio 235 libera 18,7 millones de kilovatios hora en forma de calor. En segundo lugar, el proceso de fisión iniciado por la absorción de un neutrón en el uranio 235 libera un promedio de 2,5 neutrones en los núcleos fisionados. Estos neutrones provocan rápidamente la fisión de varios núcleos más, con lo que liberan otros cuatro o más neutrones adicionales e inician una serie de fisiones nucleares automantenidas, una reacción en cadena que lleva a la liberación continuada de energía nuclear. El uranio presente en la naturaleza sólo contiene un 0,71% de uranio 235; el resto corresponde al isótopo no fisionable uranio 238. Una masa de uranio natural, por muy grande que sea, no puede mantener una reacción en cadena, porque sólo el uranio 235 es fácil de fisionar. Es muy improbable que un neutrón producido por fisión, con una energía inicial elevada de aproximadamente 1 MeV, inicie otra fisión, pero esta probabilidad puede aumentarse cientos de veces si se frena el neutrón a través de una serie de colisiones elásticas con núcleos ligeros como hidrógeno, deuterio o carbono. En ello se basa el diseño de los reactores de fisión empleados para producir energía. En diciembre de 1942, en la Universidad de Chicago (EEUU), el físico italiano Enrico Fermi logró producir la primera reacción nuclear en cadena. Para ello empleó un conjunto de bloques de uranio natural distribuidos dentro de una gran masa de grafito puro (una forma de carbono). En la ‘pila’ o reactor nuclear de Fermi, el ‘moderador’ de grafito frenaba los neutrones y hacía posible la reacción en cadena. Reactores de energía nuclear Los primeros reactores nucleares a gran escala se construyeron en 1944 en Hanford, en el estado de Washington (EEUU), para la producción de Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 18 material para armas nucleares. El combustible era uranio natural; el moderador, grafito. Estas plantas producían plutonio mediante la absorción de neutrones por parte del uranio 238; el calor generado no se aprovechaba. Reactores de agua ligera y pesada En todo el mundo se han construido diferentes tipos de reactores (caracterizados por el combustible, moderador y refrigerante empleados) para la producción de energía eléctrica. Por ejemplo, en Estados Unidos, con pocas excepciones, los reactores para la producción de energía emplean como combustible nuclear óxido de uranio isotópicamente enriquecido, con un 3% de uranio 235. Como moderador y refrigerante se emplea agua normal muy purificada. Un reactor de este tipo se denomina reactor de agua ligera (RAL). En el reactor de agua a presión (RAP), una versión del sistema RAL, el refrigerante es agua a una presión de unas 150 atmósferas. El agua se bombea a través del núcleo del reactor, donde se calienta hasta unos 325 °C. El agua sobrecalentada se bombea a su vez hasta un generador de vapor, donde a través de intercambiadores de calor calienta un circuito secundario de agua, que se convierte en vapor. Este vapor propulsa uno o más generadores de turbinas que producen energía eléctrica, se condensa, y es bombeado de nuevo al generador de vapor. El circuito secundario está aislado del agua del núcleo del reactor, por lo que no es radiactivo. Para condensar el vapor se emplea un tercer circuito de agua, procedente de un lago, un río o una torre de refrigeración. La vasija presurizada de un reactor típico tiene unos 15 m de altura y 5 m de diámetro, con paredes de 25 cm de espesor. El núcleo alberga unas 80 toneladas de óxido de uranio, contenidas en tubos delgados resistentes a la corrosión y agrupados en un haz de combustible. En el reactor de agua en ebullición (RAE), otro tipo de RAL, el agua de refrigeración se mantiene a una presión algo menor, por lo que hierve dentro del núcleo. El vapor producido en la vasija presurizada del reactor se dirige directamente al generador de turbinas, se condensa y se bombea de vuelta al reactor. Aunque el vapor es radiactivo, no existe un intercambiador de calor entre el reactor y la turbina, con el fin de aumentar la eficiencia. Igual que en el RAP, el agua de refrigeración del condensador procede de una fuente independiente, como un lago o un río. El nivel de potencia de un reactor en funcionamiento se mide constantemente con una serie de instrumentos térmicos, nucleares y de flujo. La producción de energía se controla insertando o retirando del núcleo un grupo de barras de control que absorben neutrones. La posición de estas barras determina el nivel de potencia en el que la reacción en cadena se limita a auto mantenerse. Durante el funcionamiento, e incluso después de su desconexión, un reactor grande de 1.000 megavatios (MW) contiene una radiactividad de miles de millones de curios. La radiación emitida por el reactor durante su funcionamiento y por los productos de la fisión después de la desconexión se absorbe mediante blindajes de hormigón de gran espesor situados alrededor Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 19 del reactor y del sistema primario de refrigeración. Otros sistemas de seguridad son los sistemas de emergencia para refrigeración de este último, que impiden el sobrecalentamiento del núcleo en caso de que no funcionen los sistemas de refrigeración principales. En la mayoría de los países también existe un gran edificio de contención de acero y hormigón para impedir la salida al exterior de elementos radiactivos que pudieran escapar en caso de una fuga. Aunque al principio de la década de 1980 había 100 centrales nucleares en funcionamiento o en construcción en Estados Unidos, tras el accidente de Three Mile Island (ver más adelante) la preocupación por la seguridad y los factores económicos se combinaron para bloquear el crecimiento de la energía nuclear. Desde 1979, no se han encargado nuevas centrales nucleares en Estados Unidos y no se ha permitido el funcionamiento de algunas centrales ya terminadas. En 1990, alrededor del 20% de la energía eléctrica generada en Estados Unidos procedía de centrales nucleares, mientras que este porcentaje es casi del 75% en Francia. En el periodo inicial del desarrollo de la energía nuclear, en los primeros años de la década de 1950, sólo disponían de uranio enriquecido Estados Unidos y la Unión de Repúblicas Socialistas Soviéticas (URSS). Por ello, los programas de energía nuclear de Canadá, Francia y Gran Bretaña se centraron en reactores de uranio natural, donde no puede emplearse como moderador agua normal porque absorbe demasiados neutrones. Esta limitación llevó a los ingenieros canadienses a desarrollar un reactor enfriado y moderado por óxido de deuterio (D2O), también llamado agua pesada. El sistema de reactores canadienses de deuterio-uranio (CANDU), empleado en 20 reactores, ha funcionado satisfactoriamente, y se han construido centrales similares en la India, Argentina y otros países. En Gran Bretaña y Francia, los primeros reactores de generación de energía a gran escala utilizaban como combustible barras de metal de uranio natural, moderadas por grafito y refrigeradas por dióxido de carbono (CO 2) gaseoso a presión. En Gran Bretaña, este diseño inicial fue sustituido por un sistema que emplea como combustible uranio enriquecido. Más tarde se introdujo un diseño mejorado de reactor, el llamado reactor avanzado refrigerado por gas (RAG). En la actualidad, la energía nuclear representa casi una cuarta parte de la generación de electricidad en el Reino Unido. En Francia, el tipo inicial de reactor se reemplazó por el RAP de diseño estadounidense cuando las plantas francesas de enriquecimiento isotópico empezaron a proporcionar uranio enriquecido. Rusia y los otros Estados de la antigua URSS tienen un amplio programa nuclear, con sistemas moderados por grafito y RAP. A principios de la década de 1990, estaban en construcción en todo el mundo más de 120 nuevas centrales nucleares. En España, la tecnología adoptada en los reactores de las centrales nucleares es del tipo de agua ligera; sólo la central de Vandellòs tiene reactor de grafito refrigerado con CO2. Reactores de propulsión Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 20 Para la propulsión de grandes buques de superficie, como el portaaviones estadounidense Nimitz, se emplean reactores nucleares similares al RAP. La tecnología básica del sistema RAP fue desarrollada por primera vez en el programa estadounidense de reactores navales dirigido por el almirante Hyman George Rickover. Los reactores para propulsión de submarinos suelen ser más pequeños y emplean uranio muy enriquecido para que el núcleo pueda ser más compacto. Estados Unidos, Gran Bretaña, Rusia y Francia disponen de submarinos nucleares equipados con este tipo de reactores. Estados Unidos, Alemania y Japón utilizaron durante periodos limitados tres cargueros oceánicos experimentales con propulsión nuclear. Aunque tuvieron éxito desde el punto de vista técnico, las condiciones económicas y las estrictas normas portuarias obligaron a suspender dichos proyectos. Los soviéticos construyeron el primer rompehielos nuclear, el Lenin, para emplearlo en la limpieza de los pasos navegables del Ártico. Reactores de investigación En muchos países se han construido diversos reactores nucleares de pequeño tamaño para su empleo en formación, investigación o producción de isótopos radiactivos. Estos reactores suelen funcionar con niveles de potencia del orden de 1 MW, y es más fácil conectarlos y desconectarlos que los reactores más grandes utilizados para la producción de energía. Una variedad muy empleada es el llamado reactor de piscina. El núcleo está formado por material parcial o totalmente enriquecido en uranio 235, contenido en placas de aleación de aluminio y sumergido en una gran piscina de agua que sirve al mismo tiempo de refrigerante y de moderador. Pueden colocarse sustancias directamente en el núcleo del reactor o cerca de éste para ser irradiadas con neutrones. Con este reactor pueden producirse diversos isótopos radiactivos para su empleo en medicina, investigación e industria. También pueden extraerse neutrones del núcleo del reactor mediante tubos de haces, para utilizarlos en experimentos. Reactores autorregenerativos Existen yacimientos de uranio, la materia prima en la que se basa la energía nuclear, en diversas regiones del mundo. No se conoce con exactitud sus reservas totales, pero podrían ser limitadas a no ser que se empleen fuentes de muy baja concentración, como granitos y esquistos. Un sistema ordinario de energía nuclear tiene un periodo de vida relativamente breve debido a su muy baja eficiencia en el uso del uranio: sólo aprovecha aproximadamente el 1% del contenido energético del uranio. La característica fundamental de un ‘reactor autorregenerativo’ es que produce más combustible del que consume. Lo consigue fomentando la absorción de los neutrones sobrantes por un llamado material fértil. Existen varios sistemas de reactor autorregenerativo técnicamente factibles. El que más interés ha suscitado en todo el mundo emplea uranio 238 como material fértil. Cuando el uranio 238 absorbe neutrones en el reactor, se convierte en un nuevo material fisionable, el plutonio, a través de un proceso nuclear Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 21 conocido como desintegración nucleares es la siguiente: (beta). La secuencia de las reacciones En la desintegración beta, un neutrón del núcleo se desintegra para dar lugar a un protón y una partícula beta. Cuando el plutonio 239 absorbe un neutrón, puede producirse su fisión, y se libera un promedio de unos 2,8 neutrones. En un reactor en funcionamiento, uno de esos neutrones se necesita para producir la siguiente fisión y mantener en marcha la reacción en cadena. Una media o promedio de 0,5 neutrones se pierden por absorción en la estructura del reactor o el refrigerante. Los restantes 1,3 neutrones pueden ser absorbidos por el uranio 238 para producir más plutonio a través de las reacciones indicadas en la ecuación (3). El sistema autorregenerativo a cuyo desarrollo se ha dedicado más esfuerzo es el llamado reactor autorregenerativo rápido de metal líquido (RARML). Para maximizar la producción de plutonio 239, la velocidad de los neutrones que causan la fisión debe mantenerse alta, con una energía igual o muy poco menor que la que tenían al ser liberados. El reactor no puede contener ningún material moderador, como el agua, que pueda frenar los neutrones. El líquido refrigerante preferido es un metal fundido como el sodio líquido. El sodio tiene muy buenas propiedades de transferencia de calor, funde a unos 100 °C y no hierve hasta unos 900 °C. Sus principales desventajas son su reactividad química con el aire y el agua y el elevado nivel de radiactividad que se induce en el sodio dentro del reactor. En Estados Unidos, el desarrollo del sistema RARML comenzó antes de 1950, con la construcción del primer reactor autorregenerativo experimental, el llamado EBR-1. Un programa estadounidense más amplio en el río Clinch fue cancelado en 1983, y sólo se ha continuado el trabajo experimental. En Gran Bretaña, Francia, Rusia y otros Estados de la antigua URSS funcionan reactores autorregenerativos, y en Alemania y Japón prosiguen los trabajos experimentales. En uno de los diseños para una central RARML de gran tamaño, el núcleo del reactor está formado por miles de tubos delgados de acero inoxidable que contienen un combustible compuesto por una mezcla de óxido de plutonio y uranio: un 15 o un 20% de plutonio 239 y el resto uranio. El núcleo está rodeado por una zona llamada capa fértil, que contiene barras similares llenas exclusivamente de óxido de uranio. Todo el conjunto de núcleo y capa fértil mide unos 3 m de alto por unos 5 m de diámetro, y está montado en una gran vasija que contiene sodio líquido que sale del reactor a unos 500 °C. Esta vasija también contiene las bombas y los intercambiadores de calor que ayudan a eliminar calor del núcleo. El vapor se genera en un circuito secundario de sodio, separado del circuito de refrigeración del reactor (radiactivo) por los intercambiadores de calor intermedios de la vasija del reactor. Todo el sistema del reactor nuclear está situado dentro de un gran edificio de contención de acero y hormigón. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 22 La primera central a gran escala de este tipo empleada para la generación de electricidad, la llamada Super-Phénix, comenzó a funcionar en Francia en 1984. En las costas del mar Caspio se ha construido una central de escala media, la BN-600, para producción de energía y desalinización de agua. En Escocia existe un prototipo de gran tamaño con 250 megavatios. El RARML produce aproximadamente un 20% más de combustible del que consume. En un reactor grande, a lo largo de 20 años se produce suficiente combustible para cargar otro reactor de energía similar. En el sistema RARML se aprovecha aproximadamente el 75% de la energía contenida en el uranio natural, frente al 1% del RAL. Combustibles y residuos nucleares Los combustibles peligrosos empleados en los reactores nucleares presentan problemas para su manejo, sobre todo en el caso de los combustibles agotados, que deben ser almacenados o eliminados de alguna forma. El ciclo del combustible nuclear Cualquier central de producción de energía eléctrica es sólo parte de un ciclo energético global. El ciclo del combustible de uranio empleado en los sistemas RAL es actualmente el más importante en la producción mundial de energía nuclear, y conlleva muchas etapas. El uranio, con un contenido de aproximadamente el 0,7% de uranio 235, se obtiene en minas subterráneas o a cielo abierto. El mineral se concentra mediante trituración y se transporta a una planta de conversión, donde el uranio se transforma en el gas hexafluoruro de uranio (UF6). En una planta de enriquecimiento isotópico por difusión, el gas se hace pasar a presión por una barrera porosa. Las moléculas que contienen uranio 235, más ligeras, atraviesan la barrera con más facilidad que las que contienen uranio 238. Este proceso enriquece el uranio hasta alcanzar un 3% de uranio 235. Los residuos, o uranio agotado, contienen aproximadamente el 0,3% de uranio 235. El producto enriquecido se lleva a una planta de fabricación de combustible, donde el gas UF 6 se convierte en óxido de uranio en polvo y posteriormente en bloques de cerámica que se cargan en barras de combustible resistentes a la corrosión. Estas barras se agrupan en elementos de combustible y se transportan a la central nuclear. Un reactor de agua a presión típico de 1.000 MW tiene unos 200 elementos de combustible, de los que una tercera parte se sustituye cada año debido al agotamiento del uranio 235 y a la acumulación de productos de fisión que absorben neutrones. Al final de su vida, el combustible es enormemente radiactivo debido a los productos de fisión que contiene, por lo que sigue desprendiendo una cantidad de energía considerable. El combustible extraído se coloca en piscinas de almacenamiento llenas de agua situadas en las instalaciones de la central, donde permanece un año o más. Al final del periodo de enfriamiento, los elementos de combustible agotados se envían en contenedores blindados a una instalación de Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 23 almacenamiento permanente o a una planta de reprocesamiento químico, donde se recuperan el uranio no empleado y el plutonio 239 producido en el reactor, y se concentran los residuos radiactivos. El combustible agotado todavía contiene casi todo el uranio 238 original, aproximadamente un tercio del uranio 235 y parte del plutonio 239 producido en el reactor. Cuando el combustible agotado se almacena de forma permanente, se desperdicia todo este contenido potencial de energía. Cuando el combustible se reprocesa, el uranio se recicla en la planta de difusión, y el plutonio 239 recuperado puede sustituir parcialmente al uranio 235 en los nuevos elementos de combustible. En el ciclo de combustible del RARML, el plutonio generado en el reactor siempre se recicla para emplearlo como nuevo combustible. Los materiales utilizados en la planta de fabricación de elementos de combustible son uranio 238 reciclado, uranio agotado procedente de la planta de separación isotópica y parte del plutonio 239 recuperado. No es necesario extraer uranio adicional en las minas, puesto que las existencias actuales de las plantas de separación podrían suministrar durante siglos a los reactores autorregenerativos. Como estos reactores producen más plutonio 239 del que necesitan para renovar su propio combustible, aproximadamente el 20% del plutonio recuperado se almacena para su uso posterior en el arranque de nuevos reactores autorregenerativos. El paso final en cualquiera de los ciclos de combustible es el almacenamiento a largo plazo de los residuos altamente radiactivos, que continúan presentando peligro para los seres vivos durante miles de años. Varias tecnologías parecen satisfactorias para el almacenamiento seguro de los residuos, pero no se han construido instalaciones a gran escala para demostrar el proceso. Los elementos de combustible pueden almacenarse en depósitos blindados y vigilados hasta que se tome una decisión definitiva sobre su destino, o pueden ser transformados en compuestos estables, fijados en material cerámico o vidrio, encapsulados en bidones de acero inoxidable y enterrados a gran profundidad en formaciones geológicas muy estables. Seguridad nuclear La preocupación de la opinión pública en torno a la aceptabilidad de la energía nuclear procedente de la fisión se debe a dos características básicas del sistema. La primera es el elevado nivel de radiactividad que existe en diferentes fases del ciclo nuclear, incluida la eliminación de residuos. La segunda es el hecho de que los combustibles nucleares uranio 235 y plutonio 239 son los materiales con que se fabrican las armas nucleares. En la década de 1950 se pensó que la energía nuclear podía ofrecer un futuro de energía barata y abundante. La industria energética confiaba en que la energía nuclear sustituyera a los combustibles fósiles, cada vez más escasos, y disminuyera el coste de la electricidad. Los grupos preocupados por la conservación de los recursos naturales preveían una reducción de la contaminación atmosférica y de la minería a cielo abierto. La opinión pública era en general favorable a esta nueva fuente de energía, y esperaba que el uso de la energía nuclear pasara del terreno militar al civil. Sin embargo, Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 24 después de esta euforia inicial, crecieron las reservas en torno a la energía nuclear a medida que se estudiaban más profundamente las cuestiones de seguridad nuclear y proliferación de armamento. En todos los países del mundo existen grupos opuestos a la energía nuclear, y las normas estatales se han hecho complejas y estrictas. Suecia, por ejemplo, pretende limitar su programa a unos 10 reactores. Austria ha cancelado su programa. En cambio, Gran Bretaña, Francia, Alemania y Japón siguen avanzando en este terreno. El Consejo de Seguridad Nuclear (CSN) es el organismo encargado de velar en España por la seguridad nuclear y la protección radiológica. Informa sobre la concesión o retirada de autorizaciones, inspecciona la construcción, puesta en marcha y explotación de instalaciones nucleares o radiactivas, participa en la confección de planes de emergencia y promociona la realización de trabajos de investigación. Riesgos radiológicos Los materiales radiactivos emiten radiación ionizante penetrante que puede dañar los tejidos vivos. La unidad que suele emplearse para medir la dosis de radiación equivalente en los seres humanos es el milisievert. La dosis de radiación equivalente mide la cantidad de radiación absorbida por el organismo, corregida según la naturaleza de la radiación puesto que los diferentes tipos de radiación son más o menos nocivos. En el caso del Reino Unido, por ejemplo, cada individuo está expuesto a unos 2,5 milisieverts anuales por la radiación de fondo procedente de fuentes naturales. Los trabajadores de la industria nuclear están expuestos a unos 4,5 milisieverts (aproximadamente igual que las tripulaciones aéreas, sometidas a una exposición adicional a los rayos cósmicos). La exposición de un individuo a 5 sieverts suele causar la muerte. Una gran población expuesta a bajos niveles de radiación experimenta aproximadamente un caso de cáncer adicional por cada 10 sieverts de dosis equivalente total. Por ejemplo, si una población de 10.000 personas está expuesta a una dosis de 10 milisieverts por individuo, la dosis total será de 100 sieverts, por lo que habrá 10 casos de cáncer debidos a la radiación (además de los cánceres producidos por otras causas). En la mayoría de las fases del ciclo de combustible nuclear pueden existir riesgos radiológicos. El gas radón, radiactivo, es un contaminante frecuente en las minas subterráneas de uranio. Las operaciones de extracción y trituración del mineral producen grandes cantidades de material que contiene bajas concentraciones de uranio. Estos residuos tienen que ser conservados en fosas impermeables y cubiertos por una capa de tierra de gran espesor para evitar su liberación indiscriminada en la biosfera. Las plantas de enriquecimiento de uranio y de fabricación de combustible contienen grandes cantidades de hexafluoruro de uranio (UF6), un gas corrosivo. Sin embargo, el riesgo radiológico es menor, y las precauciones habituales que se toman con las sustancias químicas peligrosas bastan para garantizar la seguridad. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 25 Sistemas de seguridad de los reactores Se ha dedicado una enorme atención a la seguridad de los reactores. En un reactor en funcionamiento, la mayor fuente de radiactividad, con diferencia, son los elementos de combustible. Una serie de barreras impide que los productos de fisión pasen a la biosfera durante el funcionamiento normal. El combustible está en el interior de tubos resistentes a la corrosión. Las gruesas paredes de acero del sistema de refrigeración primario del RAP forman una segunda barrera. El propio agua de refrigeración absorbe parte de los isótopos biológicamente importantes, como el yodo. El edificio de acero y hormigón supone una tercera barrera. Durante el funcionamiento de una central nuclear, es inevitable que se liberen algunos materiales radiactivos. La exposición total de las personas que viven en sus proximidades suele representar un porcentaje muy bajo de la radiación natural de fondo. Sin embargo, las principales preocupaciones se centran en la liberación de productos radiactivos causada por accidentes en los que se ve afectado el combustible y fallan los dispositivos de seguridad. El principal peligro para la integridad del combustible es un accidente de pérdida de refrigerante, en el que el combustible resulta dañado o incluso se funde. Los productos de fisión pasan al refrigerante, y si se rompe el sistema de refrigeración, los productos de fisión penetran en el edificio del reactor. Los sistemas de los reactores emplean una compleja instrumentación para vigilar constantemente su situación y controlar los sistemas de seguridad empleados para desconectar el reactor en circunstancias anómalas. El diseño de los RAP incluye sistemas de seguridad de refuerzo que inyectan boro en el refrigerante para absorber neutrones y detener la reacción en cadena, con lo que la desconexión está aún más garantizada. En los reactores de agua ligera, el refrigerante está sometido a una presión elevada. En caso de que se produjera una rotura importante en una tubería, gran parte del refrigerante se convertiría en vapor, y el núcleo dejaría de estar refrigerado. Para evitar una pérdida total de refrigeración del núcleo, los reactores están dotados con sistemas de emergencia para refrigeración del núcleo, que empiezan a funcionar automáticamente en cuanto se pierde presión en el circuito primario de refrigeración. En caso de que se produzca una fuga de vapor al edificio de contención desde una tubería rota del circuito primario de refrigeración, se ponen en marcha refrigeradores por aspersión para condensar el vapor y evitar un peligroso aumento de la presión en el edificio. Accidentes en centrales nucleares A pesar de las numerosas medidas de seguridad, en 1979 llegó a producirse un accidente en el RAP de Three Mile Island, cerca de Harrisburg (Pennsylvania, EEUU). Un error de mantenimiento y una válvula defectuosa llevaron a una pérdida de refrigerante. Cuando comenzó el accidente, el sistema de seguridad desconectó el reactor, y el sistema de emergencia para enfriamiento del núcleo empezó a funcionar poco tiempo después según lo prescrito. Pero entonces, como resultado de un error humano, el sistema de refrigeración de emergencia se desconectó, lo que provocó graves daños en el núcleo e hizo que se liberaran productos de fisión volátiles procedentes de la vasija del reactor. Aunque sólo una pequeña cantidad de gas radiactivo Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 26 salió del edificio de contención (lo que llevó a un ligero aumento de los niveles de exposición en los seres humanos), los daños materiales en la instalación fueron muy grandes, de unos 1.000 millones de dólares o más, y la tensión psicológica a la que se vio sometida la población, especialmente las personas que vivían cerca de la central nuclear, llegó a ser muy grave en algunos casos. La investigación oficial sobre el accidente citó como causas principales del mismo un error de manejo y un diseño inadecuado de la sala de control, y no un simple fallo del equipo. Esto llevó a la entrada en vigor de leyes que exigían a la Comisión de Regulación Nuclear de Estados Unidos que adoptara normas mucho más estrictas para el diseño y la construcción de centrales nucleares, y obligaban a las compañías eléctricas a ayudar a las administraciones de los estados y los condados a preparar planes de emergencia para proteger a la población en caso de que se produjera otro accidente semejante. Desde 1981, las cargas financieras impuestas por estas exigencias han hecho tan difícil la construcción y el funcionamiento de nuevas centrales nucleares que las compañías eléctricas de los estados de Washington, Ohio, New Hampshire e Indiana se vieron obligadas a abandonar centrales parcialmente terminadas después de gastar en ellas miles de millones de dólares. En 1988, se calculaba que el coste acumulado para la economía estadounidense por el cierre de esas centrales, sumado a la finalización de centrales con unos costes muy superiores a los inicialmente previstos, ascendía nada menos que a 100.000 millones de dólares. El 26 de abril de 1986, otro grave accidente alarmó al mundo. Uno de los cuatro reactores nucleares soviéticos de Chernobil, a unos 130 km al norte de Kíev (en Ucrania), explotó y ardió. Según el informe oficial emitido en agosto, el accidente se debió a que los operadores del reactor realizaron unas pruebas no autorizadas. El reactor quedó fuera de control; se produjeron dos explosiones, la tapa del reactor saltó por los aires y el núcleo se inflamó y ardió a una temperatura de 1.500 °C. Las personas más próximas al reactor recibieron una radiación unas 50 veces superior a la de Three Mile Island, y una nube de lluvia radiactiva se dirigió hacia el Oeste. La nube radiactiva se extendió por Escandinavia y el norte de Europa, según descubrieron observadores suecos el 28 de abril. A diferencia de la mayoría de los reactores de los países occidentales, el reactor de Chernobil carecía de edificio de contención. Una estructura semejante podría haber impedido que el material saliera del reactor. Murieron más de 30 personas y unas 135.000 fueron evacuadas en un radio de 1.600 kilómetros. La central fue sellada con hormigón; en 1988, sin embargo, los otros tres reactores de Chernobil ya estaban funcionando de nuevo. En la central de Vandellòs I, situada en la provincia de Tarragona (España), y con un reactor de tipo grafito-gas, se produjo, el 19 de octubre de 1989, un accidente que se inició por un incendio en un edificio convencional de la central, que generó una serie sucesiva de fallos de sistemas. Pese a todo, se consiguió llevar la central a la situación de parada segura. No se Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 27 produjo eliminación de CO2 del circuito de refrigeración, ni se produjo daño alguno a las personas que intervinieron en el control de la central. Reprocesamiento del combustible La fase de reprocesamiento del combustible plantea diversos riesgos radiológicos. Uno de ellos es la emisión accidental de productos de fisión en caso de que se produzca una fuga en las instalaciones químicas y los edificios que las albergan. Otro podría ser la emisión rutinaria de niveles bajos de gases radiactivos inertes como el xenón o el criptón. Una planta de reprocesamiento llamada THORP (acrónimo inglés de Planta Térmica de Reprocesamiento de Óxido) ha empezado a funcionar en Sellafield, en la región de Cumbria (Gran Bretaña). Esta planta reprocesará combustible agotado de centrales británicas y extranjeras. En Francia también se lleva a cabo este proceso, y Japón está desarrollando sus propias plantas de reprocesamiento. Una gran preocupación en relación con el reprocesamiento químico es la separación de plutonio 239, un material utilizado en la fabricación de armas nucleares. En Estados Unidos por ejemplo, no se reprocesa en la actualidad ningún combustible por temor al uso ilegal de este producto. El empleo de medios no tanto técnicos como políticos parece ser la mejor forma de controlar los peligros de su desviación subrepticia —o su producción secreta— para fabricar armas. La mejora de las medidas de seguridad en los puntos sensibles del ciclo del combustible y el aumento de la inspección internacional por parte de la Agencia Internacional de la Energía Atómica (AIEA) parecen las medidas más apropiadas para controlar los peligros de la desviación del plutonio. Almacenamiento de residuos El último paso del ciclo del combustible nuclear, el almacenamiento de residuos, sigue siendo uno de los más polémicos. La cuestión principal no es tanto el peligro actual como el peligro para las generaciones futuras. Muchos residuos nucleares mantienen su radiactividad durante miles de años, más allá de la duración de cualquier institución humana. La tecnología para almacenar los residuos de forma que no planteen ningún riesgo inmediato es relativamente simple. La dificultad estriba por una parte en tener una confianza suficiente en que las generaciones futuras estén bien protegidas y por otra en la decisión política sobre la forma y el lugar para almacenar estos residuos. La mejor solución parece estar en un almacenamiento permanente, pero con posibilidad de recuperación, en formaciones geológicas a gran profundidad. En 1988, el gobierno de Estados Unidos eligió un lugar en el desierto de Nevada con una gruesa sección de rocas volcánicas porosas como el primer depósito subterráneo permanente de residuos nucleares del país. En el Reino Unido no se ha escogido ningún lugar, aunque las investigaciones geológicas se centran en Sellafield. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 28 Fusión nuclear La liberación de energía nuclear puede producirse en el extremo bajo de la curva de energías de enlace (ver tabla adjunta) a través de la fusión de dos núcleos ligeros en uno más pesado. La energía irradiada por el Sol se debe a reacciones de fusión de esta clase que se producen en su interior a gran profundidad. A las enormes presiones y temperaturas que existen allí, los núcleos de hidrógeno se combinan a través de una serie de reacciones que equivalen a la ecuación (1) y producen casi toda la energía liberada por el Sol. En estrellas más masivas que el Sol, otras reacciones llevan al mismo resultado. La fusión nuclear artificial se consiguió por primera vez a principios de la década de 1930, bombardeando un blanco que contenía deuterio (el isótopo de hidrógeno de masa 2) con deuterones (núcleos de deuterio) de alta energía mediante un ciclotrón. Para acelerar el haz de deuterones se necesitaba una gran cantidad de energía, de la que la mayoría aparecía como calor en el blanco. Eso hacía que no se produjera una energía útil neta. En la década de 1950 se produjo la primera liberación a gran escala de energía de fusión, aunque incontrolada, en las pruebas de armas termonucleares realizadas por Estados Unidos, la URSS, Gran Bretaña y Francia. Una liberación tan breve e incontrolada no puede emplearse para la producción de energía eléctrica. En las reacciones de fisión estudiadas anteriormente, el neutrón, que no tiene carga eléctrica, puede acercarse fácilmente a un núcleo fisionable (por ejemplo, uranio 235) y reaccionar con él. En una reacción de fusión típica, en cambio, cada uno de los dos núcleos que reaccionan tiene una carga eléctrica positiva, y antes de que puedan unirse hay que superar la repulsión natural que ejercen entre sí, llamada repulsión de Coulomb. Esto ocurre cuando la temperatura del gas es suficientemente alta, entre 50 y 100 millones de grados centígrados. En un gas formado por los isótopos pesados del hidrógeno, deuterio y tritio, a esa temperatura se produce la reacción de fusión que libera unos 17,6 MeV por cada fusión. La energía aparece en un primer momento como energía cinética del núcleo de helio 4 y el neutrón, pero pronto se convierte en calor en el gas y los materiales próximos. Si la densidad del gas es suficiente —a esas temperaturas basta una densidad de sólo 10-5 atmósferas, casi un vacío— el núcleo de helio 4 puede transferir su energía al gas hidrógeno circundante, con lo que mantiene la temperatura elevada y permite que se produzca una reacción de fusión en cadena. En esas condiciones se dice que se ha producido la ‘ignición nuclear’. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 29 Los problemas básicos para alcanzar las condiciones para la fusión nuclear útil son: 1) calentar el gas a temperaturas tan altas; 2) confinar una cantidad suficiente de núcleos durante un tiempo lo bastante largo para permitir la liberación de una energía mayor que la necesaria para calentar y confinar el gas. Un problema importante que surge después es la captura de esta energía y su conversión en electricidad. A temperaturas superiores a los 100.000 °C, todos los átomos de hidrógeno están ionizados. El gas está formado por un conjunto eléctricamente neutro de núcleos con carga positiva y electrones libres con carga negativa. Este estado de la materia se denomina plasma. Los materiales ordinarios no pueden contener un plasma lo suficientemente caliente para que se produzca la fusión. El plasma se enfriaría muy rápidamente, y las paredes del recipiente se destruirían por las altas temperaturas. Sin embargo, como el plasma está formado por núcleos y electrones cargados, que se mueven en espiral alrededor de líneas de campo magnético intensas, el plasma puede contenerse en una zona de campo magnético de la forma apropiada. Para que un dispositivo de fusión resulte útil, la energía producida debe ser mayor que la energía necesaria para confinar y calentar el plasma. Para que esta condición se cumpla, el producto del tiempo de confinamiento, y la 14 densidad del plasma, n, debe superar el valor 10 . La relación n 1014 se denomina criterio de Lawson. Desde 1950 se han llevado a cabo numerosos proyectos para la confinación magnética de plasma en Estados Unidos, la antigua Unión Soviética, Gran Bretaña, Japón y otros países. Se han observado reacciones termonucleares, pero el número de Lawson fue pocas veces superior a 10 12. Sin embargo, uno de los dispositivos —el tokamak, sugerido originalmente en la URSS por Ígor Tamm y Andréi Sajárov— comenzó a arrojar resultados prometedores a principios de la década de 1960. La cámara de confinamiento de un tokamak tiene forma toroidal, con un diámetro interior de aproximadamente 1 m y un diámetro exterior de alrededor de 3 m. En esta cámara se establece un campo magnético toroidal de unos 5 teslas mediante grandes electroimanes. La intensidad de este campo es unas 100.000 veces mayor que la del campo magnético de la Tierra en la superficie del planeta. Las bobinas que rodean la cámara inducen en el plasma una corriente longitudinal de varios millones de amperios. Las líneas de campo magnético resultantes son espirales dentro de la cámara, que confinan el plasma. Después de que en varios laboratorios funcionaran con éxito tokamaks pequeños, a principios de la década de 1980 se construyeron dos dispositivos de gran tamaño, uno en la Universidad de Princeton, en Estados Unidos, y otro en la URSS. En el tokamak, el plasma alcanza una temperatura elevada por el calentamiento resistivo producido por la inmensa corriente toroidal, y en los nuevos aparatos grandes, un calentamiento adicional mediante la inyección de haces neutrales debería producir condiciones de ignición. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 30 Otra posible vía para obtener energía de la fusión es el confinamiento inercial. En esta técnica, el combustible (tritio o deuterio) está contenido en una pequeña bolita que se bombardea desde distintas direcciones con un haz láser de pulsos. Esto provoca la implosión de la bolita y desencadena una reacción termonuclear que causa la ignición del combustible. Los avances en la investigación de la fusión son prometedores, pero probablemente hagan falta décadas para desarrollar sistemas prácticos que produzcan más energía de la que consumen. Además, las investigaciones son sumamente costosas. Sin embargo, en los primeros años de la década de 1990 se realizaron algunos avances. En 1991, se generó por primera vez en la historia una potencia significativa (unos 1,7 MW) a partir de la fusión nuclear controlada, en el laboratorio de la Cámara Toroidal Conjunta Europea (JET, siglas en inglés), en Gran Bretaña. En diciembre de 1993, los investigadores de la Universidad de Princeton emplearon el Reactor Experimental de Fusión Tokamak para producir una reacción de fusión controlada que generó 5,6 megavatios. No obstante, tanto el JET como el Reactor Experimental de Fusión Tokamak consumieron más energía de la que produjeron durante su funcionamiento. Si la energía de fusión llega a ser practicable, ofrecería las siguientes ventajas: 1) una fuente ilimitada de combustible, el deuterio procedente de los océanos; 2) imposibilidad de un accidente en el reactor, ya que la cantidad de combustible en el sistema es muy pequeña, y 3) residuos mucho menos radiactivos y más sencillos de manejar que los procedentes de sistemas de fisión. Energía eólica, energía producida por el viento. La primera utilización de la capacidad energética del viento la constituye la navegación a vela. En ella, la fuerza del viento se utiliza para impulsar un barco. Barcos con velas aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los egipcios, los fenicios y más tarde los romanos tenían que utilizar también los remos para contrarrestar una característica esencial de la energía eólica, su discontinuidad. Efectivamente, el viento cambia de intensidad y de dirección de manera impredecible, por lo que había que utilizar los remos en los periodos de calma o cuando no soplaba en la dirección deseada. Hoy, cuando se utilizan molinos para generar electricidad, se usan los acumuladores para producir electricidad durante un tiempo cuando el viento no sopla. Otra característica de la energía producida por el viento es su infinita disponibilidad en función lineal a la superficie expuesta a su incidencia. En los barcos, a mayor superficie vélica mayor velocidad. En los parques eólicos, cuantos más molinos haya, más potencia en bornes de la central. En los veleros, el aumento de superficie vélica tiene limitaciones mecánicas (se rompe el mástil o vuelca el barco). En los parques eólicos las únicas limitaciones al aumento del número de molinos son las urbanísticas. Energía hidráulica, energía que se obtiene de la caída del agua desde cierta altura a un nivel inferior lo que provoca el movimiento de ruedas hidráulicas o turbinas. La hidroelectricidad es un recurso natural disponible en Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 31 las zonas que presentan suficiente cantidad de agua. Su desarrollo requiere construir pantanos, presas, canales de derivación, y la instalación de grandes turbinas y equipamiento para generar electricidad. Todo ello implica la inversión de grandes sumas de dinero, por lo que no resulta competitiva en regiones donde el carbón o el petróleo son baratos, aunque el coste de mantenimiento de una central térmica, debido al combustible, sea más caro que el de una central hidroeléctrica. Sin embargo, el peso de las consideraciones medioambientales centra la atención en estas fuentes de energía renovables. Historia Los antiguos romanos y griegos aprovechaban ya la energía del agua; utilizaban ruedas hidráulicas para moler trigo. Sin embargo, la posibilidad de emplear esclavos y animales de carga retrasó su aplicación generalizada hasta el siglo XII. Durante la edad media, las grandes ruedas hidráulicas de madera desarrollaban una potencia máxima de cincuenta caballos. La energía hidroeléctrica debe su mayor desarrollo al ingeniero civil británico John Smeaton, que construyó por vez primera grandes ruedas hidráulicas de hierro colado. La hidroelectricidad tuvo mucha importancia durante la Revolución Industrial. Impulsó las industrias textil y del cuero y los talleres de construcción de máquinas a principios del siglo XIX. Aunque las máquinas de vapor ya estaban perfeccionadas, el carbón era escaso y la madera poco satisfactoria como combustible. La energía hidráulica ayudó al crecimiento de las nuevas ciudades industriales que se crearon en Europa y América hasta la construcción de canales a mediados del siglo XIX, que proporcionaron carbón a bajo precio. Las presas y los canales eran necesarios para la instalación de ruedas hidráulicas sucesivas cuando el desnivel era mayor de cinco metros. La construcción de grandes presas de contención todavía no era posible; el bajo caudal de agua durante el verano y el otoño, unido a las heladas en invierno, obligaron a sustituir las ruedas hidráulicas por máquinas de vapor en cuanto se pudo disponer de carbón. Desarrollo de la energía hidroeléctrica La primera central hidroeléctrica se construyó en 1880 en Northumberland, Gran Bretaña. El renacimiento de la energía hidráulica se produjo por el desarrollo del generador eléctrico, seguido del perfeccionamiento de la turbina hidráulica y debido al aumento de la demanda de electricidad a principios del siglo XX. En 1920 las centrales hidroeléctricas generaban ya una parte importante de la producción total de electricidad. La tecnología de las principales instalaciones se ha mantenido igual durante el siglo XX. Las centrales dependen de un gran embalse de agua contenido por una presa. El caudal de agua se controla y se puede mantener casi constante. El agua se transporta por unos conductos o tuberías forzadas, controlados con válvulas y turbinas para adecuar el flujo de agua con respecto a la demanda de electricidad. El agua que entra en la turbina sale Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 32 por los canales de descarga. Los generadores están situados justo encima de las turbinas y conectados con árboles verticales. El diseño de las turbinas depende del caudal de agua; las turbinas Francis se utilizan para caudales grandes y saltos medios y bajos, y las turninas Pelton para grandes saltos y pequeños caudales. Además de las centrales situadas en presas de contención, que dependen del embalse de grandes cantidades de agua, existen algunas centrales que se basan en la caída natural del agua, cuando el caudal es uniforme. Estas instalaciones se llaman de agua fluente. Una de ellas es la de las cataratas del Niágara, situada en la frontera entre Estados Unidos y Canadá. A principios de la década de los noventa, las primeras potencias productoras de hidroelectricidad eran Canadá y Estados Unidos. Canadá obtiene un 60% de su electricidad de centrales hidráulicas. En todo el mundo, la hidroelectricidad representa aproximadamente la cuarta parte de la producción total de electricidad, y su importancia sigue en aumento. Los países en los que constituye fuente de electricidad más importante son Noruega (99%), República Democrática del Congo (97%) y Brasil (96%). La central de Itaipú, en el río Paraná, está situada entre Brasil y Paraguay; se inauguró en 1982 y tiene la mayor capacidad generadora del mundo. Como referencia, la presa Grand Coulee, en Estados Unidos, genera unos 6.500 MW y es una de las más grandes. En algunos países se han instalado centrales pequeñas, con capacidad para generar entre un kilovatio y un megavatio. En muchas regiones de China, por ejemplo, estas pequeñas presas son la principal fuente de electricidad. Otras naciones en vías de desarrollo están utilizando este sistema con buenos resultados. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 33 Energía solar, energía radiante producida en el Sol como resultado de reacciones nucleares de fusión. Llega a la Tierra a través del espacio en cuantos de energía llamados fotones, que interactúan con la atmósfera y la superficie terrestres. La intensidad de la radiación solar en el borde exterior de la atmósfera, si se considera que la Tierra está a su distancia promedio del Sol, se llama constante solar, y su valor medio es 1,37 × 106 erg/s/cm2, o unas 2 cal/min/cm2. Sin embargo, esta cantidad no es constante, ya que parece ser que varía un 0,2% en un periodo de 30 años. La intensidad de energía real disponible en la superficie terrestre es menor que la constante solar debido a la absorción y a la dispersión de la radiación que origina la interacción de los fotones con la atmósfera. La intensidad de energía solar disponible en un punto determinado de la Tierra depende, de forma complicada pero predecible, del día del año, de la hora y de la latitud. Además, la cantidad de energía solar que puede recogerse depende de la orientación del dispositivo receptor. Transformación natural de la energía solar La recogida natural de energía solar se produce en la atmósfera, los océanos y las plantas de la Tierra. Las interacciones de la energía del Sol, los océanos y la atmósfera, por ejemplo, producen vientos, utilizados durante siglos para hacer girar los molinos. Los sistemas modernos de energía eólica utilizan hélices fuertes, ligeras, resistentes a la intemperie y con diseño aerodinámico que, cuando se unen a generadores, producen electricidad para usos locales y especializados o para alimentar la red eléctrica de una región o comunidad. Casi el 30% de la energía solar que alcanza el borde exterior de la atmósfera se consume en el ciclo del agua, que produce la lluvia y la energía potencial de las corrientes de montaña y de los ríos. La energía que generan estas aguas en movimiento al pasar por las turbinas modernas se llama energía hidroeléctrica. Gracias al proceso de fotosíntesis, la energía solar contribuye al crecimiento de la vida vegetal (biomasa) que, junto con la madera y los combustibles fósiles que desde el punto de vista geológico derivan de plantas antiguas, puede ser utilizada como combustible. Otros combustibles como el alcohol y el metano también pueden extraerse de la biomasa. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 34 Asimismo, los océanos representan un tipo natural de recogida de energía solar. Como resultado de su absorción por los océanos y por las corrientes oceánicas, se producen gradientes de temperatura. En algunos lugares, estas variaciones verticales alcanzan 20 °C en distancias de algunos cientos de metros. Cuando hay grandes masas a distintas temperaturas, los principios termodinámicos predicen que se puede crear un ciclo generador de energía que extrae energía de la masa con mayor temperatura y transferir una cantidad a la masa con temperatura menor. La diferencia entre estas energías se manifiesta como energía mecánica (para mover una turbina, por ejemplo), que puede conectarse a un generador, para producir electricidad. Estos sistemas, llamados sistemas de conversión de energía térmica oceánica (CETO), requieren enormes intercambiadores de energía y otros aparatos en el océano para producir potencias del orden de megavatios. Recogida directa de energía solar La recogida directa de energía solar requiere dispositivos artificiales llamados colectores solares, diseñados para recoger energía, a veces después de concentrar los rayos del Sol. La energía, una vez recogida, se emplea en procesos térmicos o fotoeléctricos, o fotovoltaicos. En los procesos térmicos, la energía solar se utiliza para calentar un gas o un líquido que luego se almacena o se distribuye. En los procesos fotovoltaicos, la energía solar se convierte en energía eléctrica sin ningún dispositivo mecánico intermedio. Los colectores solares pueden ser de dos tipos principales: los de placa plana y los de concentración. Colectores de placa plana En los procesos térmicos los colectores de placa plana interceptan la radiación solar en una placa de absorción por la que pasa el llamado fluido portador. Éste, en estado líquido o gaseoso, se calienta al atravesar los canales por transferencia de calor desde la placa de absorción. La energía transferida por el fluido portador, dividida entre la energía solar que incide sobre el colector y expresada en porcentaje, se llama eficiencia instantánea del colector. Los colectores de placa plana tienen, en general, una o más placas cobertoras transparentes para intentar minimizar las pérdidas de calor de la placa de absorción en un esfuerzo para maximizar la eficiencia. Son capaces de calentar fluidos portadores hasta 82 °C y obtener entre el 40 y el 80% de eficiencia. Los colectores de placa plana se han usado de forma eficaz para calentar agua y para calefacción. Los sistemas típicos para casa-habitación emplean colectores fijos, montados sobre el tejado. En el hemisferio norte se orientan hacia el Sur y en el hemisferio sur hacia el Norte. El ángulo de inclinación óptimo para montar los colectores depende de la latitud. En general, para sistemas que se usan durante todo el año, como los que producen agua caliente, los colectores se inclinan (respecto al plano horizontal) un ángulo igual a los 15° de latitud y se orientan unos 20° latitud S o 20° de latitud N. Además de los colectores de placa plana, los sistemas típicos de agua caliente y calefacción están constituidos por bombas de circulación, sensores Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 35 de temperatura, controladores automáticos para activar el bombeo y un dispositivo de almacenamiento. El fluido puede ser tanto el aire como un líquido (agua o agua mezclada con anticongelante), mientras que un lecho de roca o un tanque aislado sirven como medio de almacenamiento de energía. Colectores de concentración Para aplicaciones como el aire acondicionado y la generación central de energía y de calor para cubrir las grandes necesidades industriales, los colectores de placa plana no suministran, en términos generales, fluidos con temperaturas bastante elevadas como para ser eficaces. Se pueden usar en una primera fase, y después el fluido se trata con medios convencionales de calentamiento. Como alternativa, se pueden utilizar colectores de concentración más complejos y costosos. Son dispositivos que reflejan y concentran la energía solar incidente sobre un zona receptora pequeña. Como resultado de esta concentración, la intensidad de la energía solar se incrementa y las temperaturas del receptor (llamado ‘blanco’) pueden acercarse a varios cientos, o incluso miles, de grados Celsius. Los concentradores deben moverse para seguir al Sol si se quiere que actúen con eficacia; los dispositivos utilizados para ello se llaman heliostatos. Hornos solares Los hornos solares son una aplicación importante de los concentradores de alta temperatura. El mayor, situado en Odeillo, en la parte francesa de los Pirineos, tiene 9.600 reflectores con una superficie total de unos 1.900 m2 para producir temperaturas de hasta 4.000 °C. Estos hornos son ideales para investigaciones, por ejemplo, en la investigación de materiales, que requieren temperaturas altas en entornos libres de contaminantes. Receptores centrales La generación centralizada de electricidad a partir de energía solar está en desarrollo. En el concepto de receptor central, o de torre de potencia, una matriz de reflectores montados sobre heliostatos controlados por computadora reflejan y concentran los rayos del Sol sobre una caldera de agua situada sobre la torre. El vapor generado puede usarse en los ciclos convencionales de las plantas de energía y generar electricidad. Enfriamiento solar Se puede producir frío con el uso de energía solar como fuente de calor en un ciclo de enfriamiento por absorción. Uno de los componentes de los sistemas estándar de enfriamiento por absorción, llamado generador, necesita una fuente de calor. Puesto que, en general, se requieren temperaturas superiores a 150 °C para que los dispositivos de absorción trabajen con eficacia, los colectores de concentración son más apropiados que los de placa plana. Electricidad fotovoltaica Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 36 Las células solares hechas con obleas finas de silicio, arseniuro de galio u otro material semiconductor en estado cristalino, convierten la radiación en electricidad de forma directa. Ahora se dispone de células con eficiencias de conversión superiores al 30%. Por medio de la conexión de muchas de estas células en módulos, el coste de la electricidad fotovoltaica se ha reducido mucho. El uso actual de las células solares se limita a dispositivos de baja potencia, remotos y sin mantenimiento, como boyas y equipamiento de naves espaciales. Energía solar en el espacio Un proyecto futurista propuesto para producir energía a gran escala propone situar módulos solares en órbita alrededor de la Tierra. En ellos la energía concentrada de la luz solar se convertiría en microondas que se emitirían hacia antenas terrestres para su conversión en energía eléctrica. Para producir tanta potencia como cinco plantas grandes de energía nuclear (de mil millones de vatios cada una), tendrían que ser ensamblados en órbita varios kilómetros cuadrados de colectores, con un peso de más de 4000 t; se necesitaría una antena en tierra de 8 m de diámetro. Se podrían construir sistemas más pequeños para islas remotas, pero la economía de escala supone ventajas para un único sistema de gran capacidad (Astronáutica). Dispositivos de almacenamiento de energía solar Debido a la naturaleza intermitente de la radiación solar como fuente energética durante los periodos de baja demanda debe almacenarse el sobrante de energía solar para cubrir las necesidades cuando la disponibilidad sea insuficiente. Además de los sistemas sencillos de almacenamiento como el agua y la roca, se pueden usar, en particular en las aplicaciones de refrigeración, dispositivos más compactos que se basan en los cambios de fase característicos de las sales eutécticas (sales que se funden a bajas temperaturas). Los acumuladores pueden servir para almacenar el excedente de energía eléctrica producida por dispositivos eólicos o fotovoltaicos (Batería). Un concepto más global es la entrega del excedente de energía eléctrica a las redes existentes y el uso de éstas como fuentes suplementarias si la disponibilidad solar es insuficiente. Sin embargo, la economía y la fiabilidad de este proyecto plantea límites a esta alternativa. Energía renovable, también llamada energía alternativa o blanda, este término engloba una serie de fuentes energéticas que en teoría no se agotarían con el paso del tiempo. Estas fuentes serían una alternativa a otras tradicionales y producirían un impacto ambiental mínimo, pero que en sentido estricto ni son renovables, como es el caso de la geotermia, ni se utilizan de forma blanda. Las energías renovables comprenden: la energía solar, la hidroeléctrica (se genera haciendo pasar una corriente de agua a través de una turbina), la eólica (derivada de la solar, ya que se produce por un calentamiento diferencial del aire y de las irregularidades del relieve terrestre), la geotérmica (producida por el gradiente térmico entre la temperatura del centro de la Tierra y la de la superficie), la hidráulica (derivada de la evaporación del agua) y la procedente de la biomasa (se genera a partir del tratamiento de la materia orgánica). Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 37 Biomasa, abreviatura de masa biológica, cantidad de materia viva producida en un área determinada de la superficie terrestre, o por organismos de un tipo específico. El término es utilizado con mayor frecuencia en las discusiones relativas a la energía de biomasa, es decir, al combustible energético que se obtiene directa o indirectamente de recursos biológicos. La energía de biomasa que procede de la madera, residuos agrícolas y estiércol, continúa siendo la fuente principal de energía de las zonas en desarrollo. En algunos casos también es el recurso económico más importante, como en Brasil, donde la caña de azúcar se transforma en etanol, y en la provincia de Sichuan, en China, donde se obtiene gas a partir de estiércol. Existen varios proyectos de investigación que pretenden conseguir un desarrollo mayor de la energía de biomasa, sin embargo, la rivalidad económica que plantea con el petróleo es responsable de que dichos esfuerzos se hallen aún en una fase temprana de desarrollo. Suministro de energía; Combustible sintético; Gasohol. Este fragmento resalta la importancia de las nuevas tecnologías en la generación de energía, así como la limitación principal de estas tecnologías, impuesta por las leyes físicas. Fragmento de La energía. De Antonio Moreno González. Capítulo 2. El desarrollo tecnológico ha sido el elemento básico que ha permitido al hombre utilizar nuevas fuentes de energía de manera cada vez más eficiente. Pero este progreso también tiene sus límites. Todos los procesos de aprovechamiento energético recurren en un momento al intercambio de energía térmica. La utilización de combustibles fósiles o de la biomasa obtiene la energía a partir de recursos de combustión que liberan la energía térmica que se utiliza para calentar un fluido. La energía nuclear genera una energía cinética que se transforma en energía térmica. El aprovechamiento de la energía hidráulica ha requerido una evaporación previa de agua por la acción térmica solar. La energía eólica es consecuencia de las variaciones térmicas en la atmósfera. La limitación principal de las tecnologías de generación de energía viene impuesta por la propia naturaleza. La termodinámica es la parte de la física que trata de los fenómenos relacionados con la energía térmica y de las leyes que rigen su transformación en otro tipo de energía. La variación de energía térmica acumulada en un medio en un proceso de calentamiento o de enfriamiento se obtiene como el producto de la masa del medio, por su calor específico y por el salto térmico. Pero no toda la energía térmica almacenada en un medio es utilizable. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 38 El siglo pasado se enunció el primer principio de la termodinámica o principio de conservación de la energía. Puede enunciarse así: «La energía puede transformarse de calor en trabajo o de trabajo en calor, siendo constante su relación de equivalencia». Es la conocida relación de 4 185 julios por caloría. El segundo principio, enunciado en 1851 por lord Kelvin, afirma que «es imposible realizar una transformación cuyo único resultado sea la conversión en trabajo del calor extraído de una sola fuente a temperatura uniforme». El principio puede exponerse de diferentes formas. Pero la limitación que impone es que la transformación sólo es posible si se toma energía de un foco caliente y parte de ella se devuelve a un foco más frío. La diferencia entre la energía tomada y la devuelta es la energía térmica que se ha transformado en trabajo. Es decir, sólo es aprovechable una parte de la energía tomada del foco caliente. Se introduce así un concepto conocido como rendimiento del ciclo termodinámico, que es la relación entre el trabajo conseguido y la energía térmica puesta en juego en el foco de mayor temperatura. La energía no aprovechada, que no ha podido ser transformada en trabajo, se libera en forma de calor, pero a una temperatura más baja que la original. Este segundo principio es la manifestación de que en un ciclo termodinámico no es posible volver al estado inicial. Los procesos termodinámicos naturales son irreversibles. Para recuperar la energía térmica original a la temperatura original sería necesario aportar energía desde fuera del sistema. No es posible elevar la temperatura del foco frío sin un aporte de energía exterior. Esta observación se enuncia como el teorema de Clausius, según el cual existe una función de estado, que depende sólo de la situación y no del camino como se ha llegado a él, que crece en todo proceso termodinámico irreversible. Esta función se llama entropía y es una medida de la irreversibilidad acumulada en el proceso. El tercer principio de la termodinámica se enuncia como «la variación de entropía asociada a cualquier proceso termodinámico tiende a cero cuando la temperatura tiende al cero absoluto». Es decir, siempre que la temperatura sea superior al cero absoluto (-273 ºC) se producirán procesos termodinámicos irreversibles con crecimiento de entropía. Las consecuencias de estas limitaciones son claras: todos los procesos termodinámicos enfrían el universo. La energía térmica es una energía más degradada cuanto menor es la temperatura del medio que la sustenta. A menor temperatura, su potencial de ser transformada en trabajo es menor. Por otro lado, a menor temperatura, la energía acumulada en una cierta cantidad de masa es menor. Se requiere más masa para acumular una cierta cantidad de energía. Los sistemas desarrollados por el hombre para aprovechar la energía térmica de los combustibles se basan en calentar un fluido a 200 o 300 ºC a una elevada presión, de 80 a 150 kg/cm2, para que al expandirse en una turbina la haga girar. A su vez, esta turbina hace girar el rotor de un generador Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 39 eléctrico. El rendimiento de este ciclo varía entre el 35 % y el 45 %. Actualmente, utilizando turbinas de gas se alcanzan rendimientos del 50 %. Con la energía nuclear el proceso es semejante, pero los rendimientos se quedan en el 35 %. En la actualidad se están desarrollando múltiples tecnologías que pretenden aumentar los recursos y los rendimientos, reduciendo al mismo tiempo el impacto ambiental. En las tecnologías convencionales de conversión térmica la temperatura del foco caliente es de varios cientos de grados; la temperatura del foco último más frío del conjunto de procesos apenas llega a unas decenas de grados. El salto térmico ha sido de unos centenares de grados. La energía se devuelve al entorno a una temperatura ligeramente superior a la del ambiente. Para aumentar el rendimiento del proceso se ha maximizado la degradación de la energía no transformada. Las energías renovables son energías degradadas. Energías de baja temperatura y difusas, de baja densidad. Los posibles rendimientos son muy inferiores a los indicados más arriba. Su ventaja es que su cuantificación global supone unos recursos muy elevados. La dispersión, o baja densidad espacial, de estas energías limitan sus posibilidades de aprovechamiento. Se requieren extensiones muy grandes de terreno para recolectar cantidades significativas de energía. Ello implica perturbaciones en el entorno que no son despreciables. Las perturbaciones serían más tolerables en lugares alejados de las áreas habitadas. Por ejemplo, los círculos polares, donde podría aprovecharse la acción del viento; los desiertos, donde la insolación media es más elevada. Aun así, dado nuestro escaso conocimiento del funcionamiento de nuestra atmósfera, podría suceder que la perturbación de los vientos polares o la absorción solar en el desierto, por la absorción de cantidades significativas de energía, podría perturbar el régimen de vientos en el casquete polar o el régimen de lluvias en el desierto. No hay que olvidar que una central térmica perturba el microclima del área donde está instalada. Lo mismo sucede con la creación de embalses. El grado de perturbación es función del tamaño de la explotación. Las tecnologías desempeñan un papel fundamental en la seguridad del abastecimiento, la eficiencia energética y la protección del medio ambiente. Son un factor de desarrollo y de posicionamiento de las industrias energéticas en el mercado mundial. Tanto en las técnicas de producción como en las de utilización y consumo de energía. Además fomentan el desarrollo de tecnologías conexas en otros campos tales como protección medioambiental, y tecnologías de control y de información. Descontando los desarrollos tecnológicos asociados a la fusión nuclear, el futuro tecnológico estará asociado al perfeccionamiento de los procedimientos existentes de producción y utilización de la energía. Este avance tecnológico estará supeditado a la mejora de la eficacia, a la reducción de costes y a la reducción del impacto ambiental. La energía se utilizará más eficientemente mediante las tecnologías de control y de automatización. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 40 Fuente: La energía. © Antonio Moreno / © Acento Editorial, 1997. Ahorro de Energía, esfuerzo por reducir la cantidad de energía para usos industriales y domésticos, en especial en el mundo desarrollado. En otros tiempos, la energía disponible en relación a la demanda de consumo humano era abundante. La madera y el carbón vegetal eran el principal combustible hasta la aparición, en el siglo XVIII, del combustible de carbón mineral con la Revolución Industrial. Todavía hoy la madera constituye el 13% de la energía mundial, y la mayor parte se quema de modo poco eficaz para cocinar y calentar los hogares en los países menos desarrollados. Un típico aldeano de la India gasta cinco veces más energía que un europeo para preparar la cena sobre el fuego o utilizando la madera para quemar. La consecuencia de ello es que la madera como combustible está empezando a escasear en África y el Sureste asiático. En Europa, y en particular en Gran Bretaña, los suministros de madera empezaron a disminuir en la mitad del siglo XVIII, pero el carbón disponible iba aumentando. El carbón se utilizaba para usos domésticos y para las máquinas de vapor necesarias para bombear el agua de las minas de carbón y, de este modo, aumentar la producción de este valioso combustible. La máquina de vapor de caldera de carbón también hizo posible el transporte por ferrocarril, al inventar George Stephenson la locomotora (Locomotion, construida de 1825), que resultó una forma de propulsión más segura y eficaz que muchas otras. No es necesario recalcar la gran eficacia de este invento; la conversión de la energía química del carbón en energía mecánica de la máquina alcanzaba un rendimiento inferior al 1%. Rendimiento de la energía Los esfuerzos de los ingenieros para mejorar el rendimiento de las máquinas llevaron a Nicolas Carnot a la formulación de las leyes de la termodinámica en 1824. Éstas son leyes basadas en la experiencia pero con una importante base teórica, y son fundamentales para incrementar el rendimiento del uso que hacemos de las cada día más escasas reservas de energía de combustibles fósiles. El descubrimiento de que la energía no se crea ni se destruye debería disuadir a los inventores de máquinas de movimiento perpetuo, pero la segunda ley de la termodinámica supone un límite más complejo al rendimiento de cualquier motor de calor, ya sea una turbina o el motor de un automóvil. Por ejemplo, si en una turbina de vapor la temperatura del vapor de admisión tiene un valor Tcaliente, y la temperatura de salida de la turbina a la que ha hecho girar tiene un valor Tfrío, el rendimiento de la conversión teóricamente posible de la máquina sería muy simple: donde T se mide en kelvins (K). Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 41 Por esta razón, en la práctica el rendimiento de la conversión de las grandes centrales eléctricas de vapor que funcionan con carbón o petróleo es de menos del 40%, y el de los motores de gasolina de automóviles es de menos del 20%. El resto de la energía se disipa en forma de calor, aunque en el caso de los motores de automóviles dicho calor puede emplearse para la calefacción de la cabina. El bajo rendimiento con el que generamos nuestra energía o propulsamos nuestros automóviles, una consecuencia de las leyes físicas más que de la negligencia, hace pensar que los futuros adelantos en el rendimiento de la energía serán el resultado tanto de nuevos avances tecnológicos como de la reducción consciente del consumo de energía. Factores que mejoran el rendimiento Todo el sistema energético del mundo desarrollado se vio seriamente afectado en 1973, cuando los productores de petróleo árabes, en respuesta a las presiones de la guerra del Yom Kippur, cuatriplicaron el precio del petróleo hasta alcanzar 12 dólares por barril, y redujeron en un 5% el suministro a los grandes importadores de petróleo como la Comunidad Europea y Estados Unidos (como medida de presión para que retiraran su apoyo a Israel). Más tarde, en 1979, los precios subieron aún más, y en 1980 se pagaban 40 dólares por barril. La Comunidad Europea reaccionó poniendo en práctica una política conocida en inglés como CoCoNuke, iniciales de carbón, conservación y nuclear. Se dio prioridad a la reducción del consumo de combustibles, en especial del petróleo. Estimulada por el aumento de los precios, la gente comenzó a ahorrar energía y utilizarla de un modo más económico, consiguiéndose a lo largo de la década de 1980 un espectacular avance en el rendimiento de la energía. Al deshacerse el cártel árabe y bajar los precios del petróleo, llegando en algunos casos a menos de diez dólares por barril, han aparecido nuevas razones para el rendimiento de la energía: motivos medioambientales, de contaminación y en especial de calentamiento global. Contaminación medioambiental El químico sueco Svante Arrhenius ya descubrió en 1896 que el equilibrio radiactivo de la Tierra dependía en gran medida de la capa protectora de dióxido de carbono. Durante 150.000 años el contenido de dióxido de carbono (CO2) en la atmósfera se ha mantenido en un valor constante de unas 270 partes por millón (ppm). El dióxido de carbono atrapa los rayos infrarrojos que salen de la Tierra y es el responsable de que la temperatura de la superficie terrestre sea unos 31 grados más cálida que si no existiera. Esto ha tenido un efecto crucial en el desarrollo de la vida misma, ya que sin este efecto invernadero natural, la mayoría del agua terrestre sería hielo. Sin embargo el contenido de dióxido de carbono en la atmósfera se ha incrementado desde 1850 hasta alcanzar 360 ppm. El mayor motivo de este aumento es el incremento progresivo de la combustión de carbón, petróleo y gas para obtener la energía necesaria a fin de mantener nuestro estilo de Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 42 vida. Los habitantes del oeste de Europa gastan tres toneladas de petróleo, o su equivalente en gas o carbón, por persona y año, mientras que en Estados Unidos el gasto es de ocho toneladas por persona y año. En el mundo se consumen 8.000 millones de toneladas de petróleo u otros combustibles fósiles al año, y se espera que en el año 2020 el consumo alcance los 14.000 millones de toneladas anuales. Gran parte de este aumento de la demanda proviene del mundo en vías de desarrollo. En China se queman 1.000 millones de toneladas de carbón y se calcula que en cinco años esta cifra se incrementará a 1.500 millones de toneladas, ya que su economía está creciendo a un ritmo del 10% anual. (Como media, en un país en vías de desarrollo un crecimiento anual del 1% viene a suponer un incremento en el consumo de energía del 1,5%). El rápido aumento de la población de los países en vías de desarrollo acentúa el problema. Las Naciones Unidas estiman que en el año 2040 el crecimiento será de 10.000 millones de personas de las que 8.000 millones pertenecerán a países en vías de desarrollo, muchos de ellos con economías en fuerte expansión, con lo que su demanda de energía aumentará de forma considerable. El efecto de la quema masiva de combustibles fósiles es el aumento de la cantidad de dióxido de carbono. Su concentración en el aire habrá duplicado en el año 2030 los valores medios del siglo XIX, que se situaban en 270 ppm, lo que provocará el aumento en 2 ºC de la temperatura de la superficie terrestre así como una subida de unos 4 cm del nivel del mar, según las estimaciones de la Conferencia Intergubernamental sobre el Cambio Climático de las Naciones Unidas. Las posibles consecuencias del calentamiento global son impredecibles a largo plazo y han provocado la alarma en todo el mundo. La posibilidad de ver masas de agua inundando los países ribereños y cambios en el clima provocando el aumento de las lluvias en partes del hemisferio norte, así como la extensión de la desertización en algunas regiones ecuatoriales en las próximas décadas resulta inquietante. En mayo de 1992, 154 países (incluidos los de la Unión Europea) firmaron el Tratado de las Naciones Unidas para el Cambio Climático (ratificado en marzo de 1994). Los países signatarios se comprometieron a estabilizar, para el final de siglo, los niveles de las emisiones de dióxido de carbono en los valores de 1990. Los científicos participantes de la Conferencia Intergubernamental sobre el Cambio Climático, encargados de vigilar e investigar el fenómeno del calentamiento, advirtieron que con las propuestas de reducción aprobadas difícilmente se logrará evitar los posibles daños futuros que puede causar el cambio en el clima. La estabilización del nivel de las emisiones de dióxido de carbono va a requerir una considerable voluntad política. El Consejo Mundial de la Energía afirma que para alcanzar la pretendida estabilización sería necesaria una reducción anual de al menos un 60% de las emisiones anuales de dióxido de carbono a partir de ahora. ¿Cómo lograr esta reducción? Ahorro de energía y efecto invernadero Hay diversos métodos pero el más efectivo es quemar menos combustibles fósiles y en especial, combustibles ricos en carbono como el Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 43 carbón y petróleo. Estos combustibles también tienen un alto contenido de azufre, que junto con nitrógeno provocan emisiones ácidas durante la combustión y causan la lluvia ácida. De ello se desprende que la protección del medio ambiente es hoy el mayor incentivo para el ahorro de energía. A largo plazo, también es importante el agotamiento de los recursos de combustibles fósiles no renovables. Al ritmo de consumo actual se calcula que las reservas de petróleo y gas durarán unos cincuenta años y las de carbón unos doscientos años. La demanda creciente de combustibles fósiles y los daños por la contaminación derivados de su utilización han motivado llamadas de atención por parte de la Comisión Brutland (1987), entre otras, para ir avanzando hacia un desarrollo sostenible, un concepto que apoyan políticos de muchos países. La enorme dificultad para conseguir esta meta ha sido menospreciada a menudo. El Consejo Mundial de la Energía estima que las fuentes de energía renovables sólo podrán aportar un 30% de la demanda mundial en el año 2020 (aunque la cifra podría llegar a un 60% para el año 2100). Por esta razón, la Unión Europea ha llevado a cabo numerosas iniciativas para estimular el ahorro de energía, estimando posible lograr un ahorro del 20%. El Consejo Mundial de la Energía ha aconsejado una reducción de la intensidad de la energía para el futuro en distintas zonas, teniendo en cuenta la cantidad de energía necesaria para producir una unidad del producto interior bruto (PIB). En un informe de 1993, el Consejo Mundial de la Energía publicó sus estimaciones para un uso eficaz de la energía, situándolo en un 3 o 3,5% para los países medios, un 4-5% para Europa occidental y Japón, y sólo un 2% para Estados Unidos. Métodos para un ahorro de energía eficaz El ahorro de energía mediante el aumento de la eficacia en su manipulado puede lograrse, por lo que respecta a la parte del suministro, a través de avances tecnológicos en la producción de electricidad, mejora de los procesos en la refinerías y otros. En cambio, por lo que respecta a la parte de la demanda (la energía empleada para calefacción de edificios, aparatos eléctricos, iluminación…), se ha descuidado en relación con la parte del suministro, existiendo un margen amplio para su mejora. En Europa occidental el 40% del consumo final de energía se destina al sector doméstico, un 25% a la industria y un 30% al transporte. Sector de edificios domésticos y comerciales Más o menos la mitad de la energía consumida en Europa occidental se destina a edificios. Con la tecnología moderna para ahorro de energía, el consumo puede llegar a reducirse un 20% en un periodo de cinco años. Se debe estimular la construcción de diseños con buen aislamiento, el uso eficaz de la energía en la iluminación, la instalación de sistemas de control de energía y la de aparatos modernos y eficaces para calefacción, aire acondicionado, cocinas y refrigeración. Las etiquetas en los aparatos con información sobre la eficacia de su funcionamiento ayudan a elegir el sistema más adecuado. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 44 Los progresos en el sector doméstico son lentos al mejorar las técnicas de ahorro de energía en el periodo de construcción. Debe alentarse la instalación de sistemas eficaces de iluminación y aislamiento. Cada vez tienen lugar más renovaciones de edificios comerciales e industriales que deberían incluir medidas de ahorro de energía. Sector industrial El ahorro de electricidad puede conseguirse mediante sistemas avanzados de control de potencia, la instalación de motores eléctricos modernos para ventiladores, bombas, mecanismos de transmisión…, y la instalación de equipos de iluminación de alta eficacia; se debe evitar la penalización que supone el uso de energía en momentos de máximo coste, utilizando las tarifas reducidas para ahorrar dinero (aunque no necesariamente energía). El rendimiento de las calderas y hornos puede mejorarse en gran medida mediante un ajuste y control cuidadosos de los niveles de combustión de aire en exceso. La recuperación del calor desechado a través de intercambiadores, bombas de calor y ruedas térmicas es un buen método para mejorar el ahorro energético. Las innovaciones en los sistemas de vapor y condensación pueden aportar también un ahorro sustancial. La conservación de la energía sólo puede conseguirse si se introduce un plan de gestión de la energía con un seguimiento riguroso y metas de progreso. La motivación de la mano de obra es esencial y sólo es posible si existe un compromiso abierto al más alto nivel. La mejora en la conservación de la energía es un problema tanto psicológico como técnico y financiero. Generación de electricidad El rendimiento en la generación de electricidad depende en última instancia de las leyes de la termodinámica. Al incrementar la temperatura de entrada en las turbinas de gas mediante la introducción de nuevos materiales y técnicas de diseño, el rendimiento de las últimas turbinas se ha incrementado en un 42%. Si el gas caliente de salida se usa para aumentar el vapor a fin de alimentar una turbina de vapor, se forma un llamado ciclo combinado, con un rendimiento generalizado de la conversión del calor en electricidad de cerca del 60%. Las plantas de ciclo combinado que funcionan con gas están sustituyendo con rapidez a las de carbón y petróleo en todo el mundo. Un incentivo para su construcción es el menor impacto medioambiental y la reducción de la emisión de dióxido de carbono que suponen. Un modo aún más eficaz de utilizar la energía de combustibles fósiles primarios es la construcción de sistemas de Cogeneración o de Energía y Calor Combinados (ECC). En este caso, el calor de salida de la turbina de gas o vapor e incluso de los motores diesel se emplea para alimentar los generadores de electricidad y suministrar vapor y calor a los distintos elementos de la fábrica. Estos sistemas tienen un rendimiento global en el uso de la energía de más del 80%. (Este sistema se ilustra en el diagrama). Son muchas circunstancias comerciales en las que los sistemas ECC son ideales para el equilibrio electricidad/calor necesario, y su instalación supone un adelanto en costes y ahorro de energía. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 45 Transporte El transporte es el sector más contaminante de todos, ocasionando más dióxido de carbono que la generación de electricidad o la destrucción de los bosques. En la actualidad hay en el mundo 500 millones de vehículos y en Europa occidental se calcula que su número se duplicará en el año 2020. En los países en desarrollo el crecimiento será incluso más rápido. A pesar de que el rendimiento de los motores de los vehículos se ha mejorado mucho mediante sistemas de control de la ignición y el uso de motores diesel, la tendencia sigue siendo la fabricación de vehículos con prestaciones muy superiores a las que permiten las carreteras. La congestión y la contaminación están estimulando la aparición de movimientos en favor de la tracción eléctrica y de la extensión del transporte público. Políticas energéticas La desregularización y privatización de los sistemas de suministro de energía, junto con la introducción de políticas energéticas en manos de las leyes del mercado, alientan a los productores a aumentar sus beneficios, vendiendo más y más cantidad de energía y disminuyendo su disposición a la conservación de la misma. El único límite son las leyes sobre contaminación. Por lo que respecta a la demanda, los usuarios parecen reacios a instalar sistemas de ahorro de energía, a pesar del ahorro que les supondría durante tres o cuatro años. Un ejemplo son la lámparas de alto rendimiento energético. No hay duda de que se debe hacer un uso más eficaz de los recursos energéticos del mundo en el futuro, si queremos satisfacer la demanda creciente de energía de una población en rápido aumento e industrialización. La presión sobre los recursos limitados de combustible y los niveles crecientes de la población requieren una respuesta urgente. Superconductividad, fenómeno que presentan algunos conductores que no ofrecen resistencia al flujo de corriente eléctrica (Electricidad). Los superconductores también presentan un acusado diamagnetismo, es decir, son repelidos por los campos magnéticos. La superconductividad sólo se manifiesta por debajo de una determinada temperatura crítica Tc y un campo magnético crítico Hc, que dependen del material utilizado. Antes de 1986, el valor más elevado de Tc que se conocía era de 23,2 K (-249,95 °C), en determinados compuestos de niobio-germanio. Para alcanzar temperaturas tan bajas se empleaba helio líquido, un refrigerante caro y poco eficaz. La necesidad de temperaturas tan reducidas limita mucho la eficiencia global de una máquina con elementos superconductores, por lo que no se consideraba práctico el funcionamiento a gran escala de estas máquinas. Sin embargo, en Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 46 1986, los descubrimientos llevados a cabo en varias universidades y centros de investigación comenzaron a cambiar radicalmente la situación. Se descubrió que algunos compuestos cerámicos de óxidos metálicos que contenían lantánidos eran superconductores a temperaturas suficientemente elevadas como para poder usar nitrógeno líquido como refrigerante. Como el nitrógeno líquido, cuya temperatura es de 77 K (-196 °C), enfría con una eficacia 20 veces mayor que el helio líquido y un precio 10 veces menor, muchas aplicaciones potenciales empezaron a parecer económicamente viables. En 1987 se reveló que la fórmula de uno de estos compuestos superconductores, con una Tc de 94 K (-179 °C), era (Y0,6Ba0,4)2CuO4. Desde entonces se ha demostrado que los lantánidos no son un componente esencial, ya que en 1988 se descubrió un óxido de cobre y talio-bario-calcio con una Tc de 125 K (-148 °C). Historia La superconductividad fue descubierta en 1911 por el físico holandés Heike Kamerlingh Onnes, que observó que el mercurio no presentaba resistencia eléctrica por debajo de 4,2 K (-269 °C). El fenómeno no se empezó a entender hasta que, en 1933, los alemanes Karl W. Meissner y R. Ochsenfeld detectaron un acusado diamagnetismo en un superconductor. Sin embargo, los principios físicos de la superconductividad no se comprendieron hasta 1957, cuando los físicos estadounidenses John Bardeen, Leon N. Cooper y John R. Schrieffer propusieron una teoría que ahora se conoce como teoría BCS por las iniciales de sus apellidos, y por la que sus autores recibieron el Premio Nobel de Física en 1972. La teoría BCS describe la superconductividad como un fenómeno cuántico, en el que los electrones de conducción se desplazan en pares, que no muestran resistencia eléctrica. Esta teoría explicaba satisfactoriamente la superconducción a altas temperaturas en los metales, pero no en los materiales cerámicos. En 1962, el físico británico Brian Josephson estudió la naturaleza cuántica de la superconductividad y predijo la existencia de oscilaciones en la corriente eléctrica que fluye a través de dos superconductores separados por una delgada capa aislante en un campo eléctrico o magnético. Este fenómeno, conocido como efecto Josephson, fue posteriormente confirmado experimentalmente. Aplicaciones Por su ausencia de resistencia, los superconductores se han utilizado para fabricar electroimanes que generan campos magnéticos intensos sin pérdidas de energía. Los imanes superconductores se han utilizado en estudios de materiales y en la construcción de potentes aceleradores de partículas. Aprovechando los efectos cuánticos de la superconductividad se han desarrollado dispositivos que miden la corriente eléctrica, la tensión y el campo magnético con una sensibilidad sin precedentes. El descubrimiento de mejores compuestos semiconductores es un paso significativo hacia una gama mayor de aplicaciones, entre ellas computadoras más rápidas y con mayor capacidad de memoria, reactores de fusión nuclear en los que el plasma se mantenga confinado por campos magnéticos, trenes Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 47 de levitación magnética de alta velocidad y, tal vez lo más importante, una generación y transmisión más eficiente de la energía eléctrica. El Premio Nobel de Física de 1987 se concedió al físico alemán J. Georg Bednorz y al físico suizo K. Alex Mueller por su trabajo sobre la superconductividad a altas temperaturas. En este artículo se describen los distintos modelos que tratan de explicar el fenómeno de la superconductividad a altas temperaturas. Se reproduce la introducción del artículo, en la que se recoge la explicación más extendida de la superconductividad clásica. Fragmento de Superconductividad a altas temperaturas. De John R. Kirtley y Chang C. Tsuei. Pocas sesiones habrá habido más memorables en la historia de la física que la celebrada el 18 de marzo de 1987 durante una reunión de la Sociedad Norteamericana de Física. Se organizó de prisa y corriendo para dar cabida a las muchísimas comunicaciones que habían llegado fuera de plazo. Dos mil físicos acudieron al hotel Hilton de Nueva York. Apiñados en un salón de baile, desbordado hasta el vestíbulo, se las veían y deseaban para ofrecer y escuchar los cinco minutos de disertación sobre las últimas ideas e investigaciones. La causa de tanta conmoción académica fue el anuncio de la superconductividad a altas temperaturas. A finales de 1986 J. Georg Bednorz y K. Alexander Müller, del Laboratorio de Investigaciones de IBM en Zurich, comunicaron que una cerámica, el óxido de lantano, bario y cobre, perdía toda resistencia eléctrica enfriada sólo a -238 grados centígrados, o 35 kelvins (grados sobre el cero absoluto). Aunque es una temperatura muy baja, estaba diez grados por encima de la mejor a la que se hubiese conseguido hasta entonces la superconductividad, siempre con metales o aleaciones. Enseguida se anunciaron y confirmaron temperaturas críticas de más de 90 kelvins, y abundaron los rumores de superconductividades a 130 y 240 kelvins. Si algún día se hallase un material que supercondujese a la temperatura ambiente (unos 300 kelvins), la sociedad entraría en una nueva era. En la reunión de marzo se presentaron artículos sobre la teoría y la medición de los nuevos superconductores. El frenesí de la sesión no se debió sólo al sueño de la superconductividad a temperatura ambiente sino también, en parte, al miedo. A algunos les preocupaba que se conociesen bien estos materiales de óxido de cobre, a menudo llamados cupratos, antes de haber elaborado ellos la teoría correcta que les valiera el Nobel. Nueve años después, tal nerviosismo se nos antoja injustificado. Miles de científicos de todo el mundo han dedicado millones de horas a la búsqueda, Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 48 hasta hoy infructuosa, de por qué y cómo superconducen los cupratos a temperaturas tan altas. Pese a todo, se ha progresado bastante. Experimentos recientes han mostrado que los cupratos difieren de los superconductores al uso y, además, han delimitado las lindes entre teorías competidoras. De sus resultados se desprende un mecanismo radical: las fluctuaciones magnéticas de los átomos que constituyen el medio. Que el secreto se esconda en el magnetismo contrasta de plano con las ideas, bien asentadas, acerca de la superconducción a bajas temperaturas. A tenor de la descripción más extendida, la superconductividad se produce cuando los electrones se combinan y forman pares de Cooper (en honor de Leon N. Cooper, padre del concepto). A diferencia de lo que ocurre con los electrones sueltos, los pares de Cooper no chocan entre sí, ni se dispersan por las imperfecciones del medio conductor; no hay, por tanto, resistencia que se oponga a su avance. La corriente eléctrica fluye en los superconductores sin voltaje; si lo hace por un camino cerrado, seguirá haciéndolo para siempre mientras la sustancia permanezca enfriada por debajo de su temperatura crítica. Resulta llamativo que los electrones de los metales puedan emparejarse: todos tienen carga negativa y, por ende, tienden a repelerse. En los años cincuenta, Cooper, John Bardeen y J. Robert Schrieffer encontraron una explicación. La teoría BCS, denominada así por las iniciales de sus creadores, afirma que los electrones de los superconductores clásicos superan de dos formas su repulsión mutua. En la primera se bloquea parte de la carga negativa. Este efecto de “apantallamiento”, causado por los movimientos de los otros electrones, reduce la fuerza de repulsión entre los del par de Cooper. En la segunda, la más importante, es un mediador el que junta a los electrones que mutuamente se repelen. Esta función casamentera la desempeñan los iones positivos que forman el metal. (Los átomos neutros se vuelven iones positivos al donar electrones para la conducción.) Un electrón que se mueva desplazará un poco las posiciones de los iones a su paso por la vecindad de los mismos. Estas distorsiones, o fonones, crean pequeñas zonas positivas que atraen a otros electrones. Se compara ese comportamiento con el de las bolas de una bolera sobre una cama elástica. Una distorsiona los muelles del colchón y la distorsión atrae a otra. Pero la analogía se acaba ahí, pues los electrones se repelen mutuamente con fuerza. Bardeen encontró una metáfora más ajustada: el barullo de los jugadores en una cancha de fútbol americano. Los pares de Cooper son las parejas que, en la melé, intentan desesperadamente seguir juntas. Una vez iniciado el apelotonamiento, se hace muy difícil detenerlo, porque, para parar a un sujeto, hay que parar a muchos. Los apelotonados se desplazarán alrededor de los obstáculos, los postes por ejemplo, sin apenas modificaciones. Al decir de los físicos, los electrones se mantienen emparejados porque intercambian fonones, lo mismo que los jugadores de rugby se emparejan pasándose la pelota para que no los derriben mientras corren campo adelante. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 49 Incorporado en la teoría BCS, el mecanismo fonónico de emparejamiento explica cabalmente la superconductividad de los materiales comunes. Pero el modelo BCS no puede explicar por sí solo la superconductividad de los óxidos de cobre. Los electrones y los fonones de unos superconductores BCS que tuviesen una temperatura crítica alta interaccionarían entre sí con violencia. En ese caso, la estructura de los materiales acabaría por distorsionarse de tal forma que dejarían de ser superconductores y, en muchísimas ocasiones, incluso conductores. Fuente: Kirtley, John R. y Tsuei, Chang C. Superconductividad a altas temperaturas. Investigación y Ciencia. Octubre, 1996. Barcelona. Prensa Científica. Electricidad, Generación y transporte de, conjunto de instalaciones que se utilizan para transformar otros tipos de energía en electricidad y transportarla hasta los lugares donde se consume. La generación y transporte de energía en forma de electricidad tiene importantes ventajas económicas debido al coste por unidad generada. Las instalaciones eléctricas también permiten utilizar la energía hidroeléctrica a mucha distancia del lugar donde se genera. Estas instalaciones suelen utilizar corriente alterna, ya que es fácil reducir o elevar el voltaje con transformadores. De esta manera, cada parte del sistema puede funcionar con el voltaje apropiado. Las instalaciones eléctricas tienen seis elementos principales: la central eléctrica, los transformadores que elevan el voltaje de la energía eléctrica generada a las altas tensiones utilizadas en las líneas de transmisión, las líneas de transmisión, las subestaciones donde la señal baja su voltaje para adecuarse a las líneas de distribución, las líneas de distribución y los transformadores que bajan el voltaje al valor utilizado por los consumidores. En una instalación normal, los generadores de la central eléctrica suministran voltajes de 26.000 voltios; voltajes superiores no son adecuados por las dificultades que presenta su aislamiento y por el riesgo de cortocircuitos y sus consecuencias. Este voltaje se eleva mediante transformadores a tensiones entre 138.000 y 765.000 voltios para la línea de transmisión primaria (cuanto más alta es la tensión en la línea, menor es la corriente y menores son las pérdidas, ya que éstas son proporcionales al cuadrado de la intensidad de corriente). En la subestación, el voltaje se transforma en tensiones entre 69.000 y 138.000 voltios para que sea posible transferir la electricidad al sistema de distribución. La tensión se baja de nuevo con transformadores en cada punto de distribución. La industria pesada suele trabajar a 33.000 voltios (33 kilovoltios), y los trenes eléctricos requieren de 15 a 25 kilovoltios. Para su suministro a los consumidores se baja más la tensión: la industria suele trabajar a tensiones entre 380 y 415 voltios, y las viviendas reciben entre 220 y 240 voltios en algunos países y entre 110 y 125 en otros. El desarrollo actual de los rectificadores de estado sólido para alta tensión hace posible una conversión económica de alta tensión de corriente alterna a Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 50 alta tensión de corriente continua para la distribución de electricidad. Esto evita las pérdidas inductivas y capacitivas que se producen en la transmisión de corriente alterna. La estación central de una instalación eléctrica consta de una máquina motriz, como una turbina de combustión, que mueve un generador eléctrico. La mayor parte de la energía eléctrica del mundo se genera en centrales térmicas alimentadas con carbón, aceite, energía nuclear o gas; una pequeña parte se genera en centrales hidroeléctricas, diesel o provistas de otros sistemas de combustión interna. Las líneas de transmisión de alta tensión suelen estar formadas por cables de cobre, aluminio o acero recubierto de aluminio o cobre. Estos cables están suspendidos de postes o pilones, altas torres de acero, mediante una sucesión de aislantes de porcelana. Gracias a la utilización de cables de acero recubierto y altas torres, la distancia entre éstas puede ser mayor, lo que reduce el coste del tendido de las líneas de transmisión; las más modernas, con tendido en línea recta, se construyen con menos de cuatro torres por kilómetro. En algunas zonas, las líneas de alta tensión se cuelgan de postes de madera. Las líneas de distribución a menor tensión suelen ser postes de madera, más adecuados que las torres de acero. En las ciudades y otras áreas donde los cables aéreos son peligrosos se utilizan cables aislados subterráneos. Algunos cables tienen el centro hueco para que circule aceite a baja presión. El aceite proporciona una protección temporal contra el agua, que podría producir fugas en el cable. Se utilizan con frecuencia tubos rellenos con muchos cables y aceite a alta presión (unas 15 atmósferas) para la transmisión de tensiones de hasta 345 kV. Cualquier sistema de distribución de electricidad requiere una serie de equipos suplementarios para proteger los generadores, transformadores y las propias líneas de transmisión. Suelen incluir dispositivos diseñados para regular la tensión que se proporciona a los usuarios y corregir el factor de potencia del sistema. Los cortacircuitos se utilizan para proteger todos los elementos de la instalación contra cortocircuitos y sobrecargas y para realizar las operaciones de conmutación ordinarias. Estos cortacircuitos son grandes interruptores que se activan de modo automático cuando ocurre un cortocircuito o cuando una circunstancia anómala produce una subida repentina de la corriente. En el momento en el que este dispositivo interrumpe la corriente se forma un arco eléctrico entre sus terminales. Para evitar este arco, los grandes cortacircuitos, como los utilizados para proteger los generadores y las secciones de las líneas de transmisión primarias, están sumergidos en un líquido aislante, por lo general aceite. También se utilizan campos magnéticos para romper el arco. En tiendas, fábricas y viviendas se utilizan pequeños cortacircuitos diferenciales. Los aparatos eléctricos también incorporan unos cortacircuitos llamados fusibles, consistentes en un alambre de una aleación de bajo punto de fusión; el fusible se introduce en el circuito y se funde si la corriente aumenta por encima de un valor predeterminado. Fallos del sistema Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 51 En muchas zonas del mundo las instalaciones locales o nacionales están conectadas formando una red. Esta red de conexiones permite que la electricidad generada en un área se comparta con otras zonas. Cada empresa aumenta su capacidad de reserva y comparte el riesgo de apagones. Estas redes son enormes y complejos sistemas compuestos y operados por grupos diversos. Representan una ventaja económica pero aumentan el riesgo de un apagón generalizado, ya que si un pequeño cortocircuito se produce en una zona, por sobrecarga en las zonas cercanas puede transmitirse en cadena a todo el país. Muchos hospitales, edificios públicos, centros comerciales y otras instalaciones que dependen de la energía eléctrica tienen sus propios generadores para eliminar el riesgo de apagones. Regulación del voltaje Las largas líneas de transmisión presentan inductancia, capacitancia y resistencia al paso de la corriente eléctrica. El efecto de la inductancia y de la capacitancia de la línea es la variación de la tensión si varía la corriente, por lo que la tensión suministrada varía con la carga acoplada. Se utilizan muchos tipos de dispositivos para regular esta variación no deseada. La regulación de la tensión se consigue con reguladores de la inducción y motores síncronos de tres fases, también llamados condensadores síncronos. Ambos varían los valores eficaces de la inductancia y la capacitancia en el circuito de transmisión. Ya que la inductancia y la capacitancia tienden a anularse entre sí, cuando la carga del circuito tiene mayor reactancia inductiva que capacitiva (lo que suele ocurrir en las grandes instalaciones) la potencia suministrada para una tensión y corriente determinadas es menor que si las dos son iguales. La relación entre esas dos cantidades de potencia se llama factor de potencia. Como las pérdidas en las líneas de transmisión son proporcionales a la intensidad de corriente, se aumenta la capacitancia para que el factor de potencia tenga un valor lo más cercano posible a 1. Por esta razón se suelen instalar grandes condensadores en los sistemas de transmisión de electricidad. Producción mundial de energía eléctrica Durante el periodo comprendido entre 1959 y 1990, la producción y consumo anual de electricidad aumentó de poco más de 1 billón de kWh a más de 11,5 billones de kWh. También tuvo lugar un cambio en el tipo de generación de energía. En 1950 las dos terceras partes de la energía eléctrica se generaban en centrales térmicas y un tercio en centrales hidroeléctricas. En 1990 las centrales térmicas siguen produciendo alrededor del 60% de la electricidad, pero las centrales hidroeléctricas han descendido hasta poco más del 20% y la energía nuclear genera el 15% de la producción mundial. Sin embargo, el crecimiento de la energía nuclear ha descendido en algunos países debido a consideraciones de seguridad. En Estados Unidos las centrales nucleares generaron el 20% de la electricidad en 1990, mientras que en Francia, líder mundial del uso de energía atómica, las centrales nucleares proporcionan el 75% de su producción eléctrica. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 52 Motores y generadores eléctricos, grupo de aparatos que se utilizan para convertir la energía mecánica en eléctrica, o a la inversa, con medios electromagnéticos. A una máquina que convierte la energía mecánica en eléctrica se le denomina generador, alternador o dínamo, y a una máquina que convierte la energía eléctrica en mecánica se le denomina motor. Dos principios físicos relacionados entre sí sirven de base al funcionamiento de los generadores y de los motores. El primero es el principio de la inducción descubierto por el científico e inventor británico Michael Faraday en 1831. Si un conductor se mueve a través de un campo magnético, o si está situado en las proximidades de un circuito de conducción fijo cuya intensidad puede variar, se establece o se induce una corriente en el conductor. El principio opuesto a éste fue observado en 1820 por el físico francés André Marie Ampère. Si una corriente pasaba a través de un conductor dentro de un campo magnético, éste ejercía una fuerza mecánica sobre el conductor. La máquina dinamoeléctrica más sencilla es la dinamo de disco desarrollada por Faraday, que consiste en un disco de cobre que se monta de tal forma que la parte del disco que se encuentra entre el centro y el borde quede situada entre los polos de un imán de herradura. Cuando el disco gira, se induce una corriente entre el centro del disco y su borde debido a la acción del campo del imán. El disco puede fabricarse para funcionar como un motor mediante la aplicación de un voltaje entre el borde y el centro del disco, lo que hace que el disco gire gracias a la fuerza producida por la reacción magnética. El campo magnético de un imán permanente es lo suficientemente fuerte como para hacer funcionar una sola dinamo pequeña o motor. Por ello, los electroimanes se emplean en máquinas grandes. Tanto los motores como los generadores tienen dos unidades básicas: el campo magnético, que es el electroimán con sus bobinas, y la armadura, que es la estructura que sostiene los conductores que cortan el campo magnético y transporta la corriente inducida en un generador, o la corriente de excitación en el caso del motor. La armadura es por lo general un núcleo de hierro dulce laminado, alrededor del cual se enrollan en bobinas los cables conductores. Generadores de corriente continua Si una armadura gira entre dos polos de campo fijos, la corriente en la armadura se mueve en una dirección durante la mitad de cada revolución, y en la otra dirección durante la otra mitad. Para producir un flujo constante de corriente en una dirección, o continua, en un aparato determinado, es necesario disponer de un medio para invertir el flujo de corriente fuera del generador una vez durante cada revolución. En las máquinas antiguas esta inversión se llevaba a cabo mediante un conmutador, un anillo de metal partido montado sobre el eje de una armadura. Las dos mitades del anillo se aislaban entre sí y servían como bornes de la bobina. Las escobillas fijas de metal o de carbón se mantenían en contra del conmutador, que al girar conectaba eléctricamente la bobina a los cables externos. Cuando la armadura giraba, cada escobilla estaba en contacto de forma alternativa con Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 53 las mitades del conmutador, cambiando la posición en el momento en el que la corriente invertía su dirección dentro de la bobina de la armadura. Así se producía un flujo de corriente de una dirección en el circuito exterior al que el generador estaba conectado. Los generadores de corriente continua funcionan normalmente a voltajes bastante bajos para evitar las chispas que se producen entre las escobillas y el conmutador a voltajes altos. El potencial más alto desarrollado para este tipo de generadores suele ser de 1.500 V. En algunas máquinas más modernas esta inversión se realiza usando aparatos de potencia electrónica, como por ejemplo rectificadores de diodo. Los generadores modernos de corriente continua utilizan armaduras de tambor, que suelen estar formadas por un gran número de bobinas agrupadas en hendiduras longitudinales dentro del núcleo de la armadura y conectadas a los segmentos adecuados de un conmutador múltiple. Si una armadura tiene un solo circuito de cable, la corriente que se produce aumentará y disminuirá dependiendo de la parte del campo magnético a través del cual se esté moviendo el circuito. Un conmutador de varios segmentos usado con una armadura de tambor conecta siempre el circuito externo a uno de cable que se mueve a través de un área de alta intensidad del campo, y como resultado la corriente que suministran las bobinas de la armadura es prácticamente constante. Los campos de los generadores modernos se equipan con cuatro o más polos electromagnéticos que aumentan el tamaño y la resistencia del campo magnético. En algunos casos, se añaden interpolos más pequeños para compensar las distorsiones que causa el efecto magnético de la armadura en el flujo eléctrico del campo. Los generadores de corriente continua se clasifican según el método que usan para proporcionar corriente de campo que excite los imanes del mismo. Un generador de excitado en serie tiene su campo en serie respecto a la armadura. Un generador de excitado en derivación, tiene su campo conectado en paralelo a la armadura. Un generador de excitado combinado tiene parte de sus campos conectados en serie y parte en paralelo. Los dos últimos tipos de generadores tienen la ventaja de suministrar un voltaje relativamente constante, bajo cargas eléctricas variables. El de excitado en serie se usa sobre todo para suministrar una corriente constante a voltaje variable. Un magneto es un generador pequeño de corriente continua con un campo magnético permanente. Motores de corriente continua En general, los motores de corriente continua son similares en su construcción a los generadores. De hecho podrían describirse como generadores que funcionan al revés. Cuando la corriente pasa a través de la armadura de un motor de corriente continua, se genera un par de fuerzas por la reacción magnética, y la armadura gira. La acción del conmutador y de las conexiones de las bobinas del campo de los motores son exactamente las mismas que usan los generadores. La revolución de la armadura induce un voltaje en las bobinas de ésta. Este voltaje es opuesto en la dirección al voltaje exterior que se aplica a la armadura, y de ahí que se conozca como voltaje inducido o fuerza contraelectromotriz. Cuando el motor gira más rápido, el voltaje inducido aumenta hasta que es casi igual al aplicado. La Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 54 corriente entonces es pequeña, y la velocidad del motor permanecerá constante siempre que el motor no esté bajo carga y tenga que realizar otro trabajo mecánico que no sea el requerido para mover la armadura. Bajo carga, la armadura gira más lentamente, reduciendo el voltaje inducido y permitiendo que fluya una corriente mayor en la armadura. El motor puede así recibir más potencia eléctrica de la fuente, suministrándola y haciendo más trabajo mecánico. Debido a que la velocidad de rotación controla el flujo de la corriente en la armadura, deben usarse aparatos especiales para arrancar los motores de corriente continua. Cuando la armadura está parada, ésta no tiene realmente resistencia, y si se aplica el voltaje de funcionamiento normal, se producirá una gran corriente, que podría dañar el conmutador y las bobinas de la armadura. El medio normal de prevenir estos daños es el uso de una resistencia de encendido conectada en serie a la armadura, para disminuir la corriente antes de que el motor consiga desarrollar el voltaje inducido adecuado. Cuando el motor acelera, la resistencia se reduce gradualmente, tanto de forma manual como automática. La velocidad a la que funciona un motor depende de la intensidad del campo magnético que actúa sobre la armadura, así como de la corriente de ésta. Cuanto más fuerte es el campo, más bajo es el grado de rotación necesario para generar un voltaje inducido lo bastante grande como para contrarrestar el voltaje aplicado. Por esta razón, la velocidad de los motores de corriente continua puede controlarse mediante la variación de la corriente del campo. Generadores de corriente alterna (alternadores) Como se decía antes, un generador simple sin conmutador producirá una corriente eléctrica que cambia de dirección a medida que gira la armadura. Este tipo de corriente alterna es ventajosa para la transmisión de potencia eléctrica, por lo que la mayoría de los generadores eléctricos son de este tipo. En su forma más simple, un generador de corriente alterna se diferencia de uno de corriente continua en sólo dos aspectos: los extremos de la bobina de su armadura están sacados a los anillos colectores sólidos sin segmentos del árbol del generador en lugar de los conmutadores, y las bobinas de campo se excitan mediante una fuente externa de corriente continua más que con el generador en sí. Los generadores de corriente alterna de baja velocidad se fabrican con hasta 100 polos, para mejorar su eficiencia y para lograr con más fácilidad la frecuencia deseada. Los alternadores accionados por turbinas de alta velocidad, sin embargo, son a menudo máquinas de dos polos. La frecuencia de la corriente que suministra un generador de corriente alterna es igual a la mitad del producto del número de polos y el número de revoluciones por segundo de la armadura. A veces, es preferible generar un voltaje tan alto como sea posible. Las armaduras rotatorias no son prácticas en este tipo de aplicaciones, debido a que pueden producirse chispas entre las escobillas y los anillos colectores, y a que pueden producirse fallos mecánicos que podrían causar cortocircuitos. Por tanto, los alternadores se construyen con una armadura fija en la que gira Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 55 un rotor compuesto de un número de imanes de campo. El principio de funcionamiento es el mismo que el del generador de corriente alterna descrito con anterioridad, excepto en que el campo magnético (en lugar de los conductores de la armadura) está en movimiento. La corriente que se genera mediante los alternadores descritos más arriba, aumenta hasta un pico, cae hasta cero, desciende hasta un pico negativo y sube otra vez a cero varias veces por segundo, dependiendo de la frecuencia para la que esté diseñada la máquina. Este tipo de corriente se conoce como corriente alterna monofásica. Sin embargo, si la armadura la componen dos bobinas, montadas a 90º una de otra, y con conexiones externas separadas, se producirán dos ondas de corriente, una de las cuales estará en su máximo cuando la otra sea cero. Este tipo de corriente se denomina corriente alterna bifásica. Si se agrupan tres bobinas de armadura en ángulos de 120º, se producirá corriente en forma de onda triple, conocida como corriente alterna trifásica. Se puede obtener un número mayor de fases incrementando el número de bobinas en la armadura, pero en la práctica de la ingeniería eléctrica moderna se usa sobre todo la corriente alterna trifásica, con el alternador trifásico, que es la máquina dinamoeléctrica que se emplea normalmente para generar potencia eléctrica. Motores de corriente alterna Se diseñan dos tipos básicos de motores para funcionar con corriente alterna polifásica: los motores síncronos y los motores de inducción. El motor síncrono es en esencia un alternador trifásico que funciona a la inversa. Los imanes del campo se montan sobre un rotor y se excitan mediante corriente continua, y las bobinas de la armadura están divididas en tres partes y alimentadas con corriente alterna trifásica. La variación de las tres ondas de corriente en la armadura provoca una reacción magnética variable con los polos de los imanes del campo, y hace que el campo gire a una velocidad constante, que se determina por la frecuencia de la corriente en la línea de potencia de corriente alterna. La velocidad constante de un motor síncrono es ventajosa en ciertos aparatos. Sin embargo, no pueden utilizarse este tipo de motores en aplicaciones en las que la carga mecánica sobre el motor llega a ser muy grande, ya que si el motor reduce su velocidad cuando está bajo carga puede quedar fuera de fase con la frecuencia de la corriente y llegar a pararse. Los motores síncronos pueden funcionar con una fuente de potencia monofásica mediante la inclusión de los elementos de circuito adecuados para conseguir un campo magnético rotatorio. El más simple de todos los tipos de motores eléctricos es el motor de inducción de caja de ardilla que se usa con alimentación trifásica. La armadura de este tipo de motor consiste en tres bobinas fijas y es similar a la del motor síncrono. El elemento rotatorio consiste en un núcleo, en el que se incluyen una serie de conductores de gran capacidad colocados en círculo alrededor del árbol y paralelos a él. Cuando no tienen núcleo, los conductores del rotor se parecen en su forma a las jaulas cilíndricas que se usaban para las ardillas. El flujo de la corriente trifásica dentro de las bobinas de la armadura fija genera un campo magnético rotatorio, y éste induce una Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 56 corriente en los conductores de la jaula. La reacción magnética entre el campo rotatorio y los conductores del rotor que transportan la corriente hace que éste gire. Si el rotor da vueltas exactamente a la misma velocidad que el campo magnético, no habrá en él corrientes inducidas, y, por tanto, el rotor no debería girar a una velocidad síncrona. En funcionamiento, la velocidad de rotación del rotor y la del campo difieren entre sí de un 2 a un 5%. Esta diferencia de velocidad se conoce como caída. Los motores con rotores del tipo jaula de ardilla se pueden usar con corriente alterna monofásica utilizando varios dispositivos de inductancia y capacitancia, que alteren las características del voltaje monofásico y lo hagan parecido al bifásico. Este tipo de motores se denominan motores multifásicos o motores de condensador (o de capacidad), según los dispositivos que usen. Los motores de jaula de ardilla monofásicos no tienen un par de arranque grande, y se utilizan motores de repulsión-inducción para las aplicaciones en las que se requiere el par. Este tipo de motores pueden ser multifásicos o de condensador, pero disponen de un interruptor manual o automático que permite que fluya la corriente entre las escobillas del conmutador cuando se arranca el motor, y los circuitos cortos de todos los segmentos del conmutador, después de que el motor alcance una velocidad crítica. Los motores de repulsión-inducción se denominan así debido a que su par de arranque depende de la repulsión entre el rotor y el estátor, y su par, mientras está en funcionamiento, depende de la inducción. Los motores de baterías en serie con conmutadores, que funcionan tanto con corriente continua como con corriente alterna, se denominan motores universales. Éstos se fabrican en tamaños pequeños y se utilizan en aparatos domésticos. Otros tipos de máquinas En aplicaciones especiales se emplean algunos tipos de máquinas dinamoeléctricas combinadas. Por lo general, es deseable cambiar de corriente continua a alterna o a la inversa, o cambiar de voltaje de alimentación de corriente continua, o la frecuencia o fase con alimentación de corriente alterna. Una forma de realizar dichos cambios, es usar un motor que funcione con el tipo disponible de alimentación eléctrica para que haga funcionar un generador que proporcione a su vez la corriente y el voltaje deseados. Los generadores de motor, que están compuestos de un motor que se acopla mecánicamente a un generador adecuado, pueden realizar la mayoría de las conversiones antes indicadas. Un transformador rotatorio es una máquina que sirve para convertir corriente alterna en continua, usando bobinas separadas en una armadura rotatoria común. El voltaje de alimentación de corriente alterna se aplica a la armadura a través de los anillos colectores, y el voltaje de la corriente continua se extrae de la máquina con un conmutador independiente. Un dinamotor, que se usa por lo general para convertir corriente continua de bajo voltaje en corriente de alto voltaje, es una máquina parecida que tiene bobinas de armadura independientes. Las máquinas de corriente continua conocidas como amplidinas o rototroles, que tienen varias bobinas de campo, se usan como amplificadores de potencia. Un pequeño cambio en la potencia suministrada a una bobina de campo produce un gran cambio en la potencia de salida de la máquina. Estos Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 57 amplificadores electrodinámicos se utilizan a menudo en servomecanismos y otros sistemas de control. Servomecanismo, en ingeniería, dispositivo o conjunto de ellos que permite la automatización del control de un mecanismo o de una fuente de energía. Los servomecanismos pueden ser mecánicos, eléctricos, hidráulicos y ópticos. Su característica principal es que se activa por la llamada señal de error, que viene determinada por la diferencia entre la señal establecida como salida para una determinada señal de entrada y la señal de salida real. Esta señal de error se envía a la entrada para compensar ese error, de forma que el mecanismo se autorregula. Esta técnica se llama realimentación. La dirección de los automóviles es un ejemplo de servomecanismo. La orientación de las ruedas delanteras se controla mediante el giro del volante. Cuando soltamos el volante, un servomecanismo, que en este caso es un sistema hidráulico y mecánico, obliga a las ruedas a volver a la posición normal. Otro ejemplo de servomecanismo es el control automático que efectúa un termostato del calor generado por un radiador doméstico. Otros ejemplos son los pilotos automáticos utilizados en barcos, aviones y naves espaciales, en los que el movimiento del vehículo está regido por las instrucciones de la brújula. En las naves espaciales no tripuladas los servomecanismos se encargan de orientar las cámaras, las antenas de radio y los paneles solares. En este caso la señal de entrada es la que proporcionan los sensores, que captan la situación del Sol y las estrellas, y la señal de salida es la que se aplica a unos pequeños motores a reacción que giran y orientan la nave. Cibernética, ciencia interdisciplinar que trata de los sistemas de comunicación y control en los organismos vivos, las máquinas y las organizaciones. El término cibernética, que proviene del griego (‘timonel’ o ‘gobernador’), fue aplicado por primera vez en 1948 por el matemático estadounidense Norbert Wiener a la teoría de los mecanismos de control. La cibernética se desarrolló como investigación de las técnicas por las cuales la información se transforma en la actuación deseada. Esta ciencia surgió de los problemas planteados durante la II Guerra Mundial al desarrollar los denominados cerebros electrónicos y los mecanismos de control automático para los equipos militares como los visores de bombardeo. Esta ciencia contempla de igual forma los sistemas de comunicación y control de los organismos vivos que los de las máquinas. Para obtener la respuesta deseada en un organismo humano o en un dispositivo mecánico, habrá que proporcionarle, como guía para acciones futuras, la información relativa a los resultados reales de la acción prevista. En el cuerpo humano, el cerebro y el sistema nervioso coordinan dicha información, que sirve para determinar una futura línea de conducta; los mecanismos de control y de autocorrección en las máquinas sirven para lo mismo. El principio se conoce como feedback (realimentación), y constituye el concepto fundamental de la automatización. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 58 Según la teoría de la información, uno de los principios básicos de la cibernética establece que la información es estadística por naturaleza y se mide de acuerdo con las leyes de la probabilidad. En este sentido, la información es concebida como una medida de la libertad de elección implícita en la selección. A medida que aumenta la libertad de elección, disminuye la probabilidad de que sea elegido un determinado mensaje. La medida de la probabilidad se conoce como entropía. De acuerdo con la segunda ley de la termodinámica, en los procesos naturales existe una tendencia hacia un estado de desorganización, o caos, que se produce sin ninguna intervención o control. En consecuencia, de acuerdo con los principios de la cibernética, el orden (disminución de la entropía) es lo menos probable, y el caos (aumento de la entropía) es lo más probable. La conducta intencionada en las personas o en las máquinas exige mecanismos de control que mantengan el orden, contrarrestando la tendencia natural hacia la desorganización. La cibernética también se aplica al estudio de la psicología, la inteligencia artificial, los servomecanismos, la economía, la neurofisiología, la ingeniería de sistemas y al de los sistemas sociales. La palabra cibernética ha dejado de identificar un área independiente de estudio y la mayor parte de la actividad investigadora se centra ahora en el estudio y diseño de redes neurales artificiales. Física, ciencia que se ocupa de los componentes fundamentales del Universo, de las fuerzas que éstos ejercen entre sí y de los efectos de dichas fuerzas. En ocasiones la física moderna incorpora elementos de los tres aspectos mencionados, como ocurre con las leyes de simetría y conservación de la energía, el momento, la carga o la paridad. La física está estrechamente relacionada con las demás ciencias naturales, y en cierto modo las engloba a todas. La química, por ejemplo, se ocupa de la interacción de los átomos para formar moléculas; gran parte de la geología moderna es en esencia un estudio de la física de la Tierra y se conoce como geofísica; la astronomía trata de la física de las estrellas y del espacio exterior. Incluso los sistemas vivos están constituidos por partículas fundamentales que siguen el mismo tipo de leyes que las partículas más sencillas estudiadas tradicionalmente por los físicos. El hincapié que la física moderna hace en la interacción entre partículas (el llamado planteamiento microscópico) necesita muchas veces como complemento un enfoque macroscópico que se ocupe de elementos o sistemas de partículas más extensos. Este planteamiento macroscópico es indispensable en la aplicación de la física a numerosas tecnologías modernas. Por ejemplo, la termodinámica, una rama de la física desarrollada durante el siglo XIX, se ocupa de determinar y cuantificar las propiedades de un sistema en su conjunto, y resulta útil en otros campos de la física; también constituye la base de las ingenierías química y mecánica. Propiedades como la temperatura, la presión o el volumen de un gas carecen de sentido para un átomo o molécula individual: estos conceptos termodinámicos sólo pueden aplicarse directamente a un sistema muy grande de estas partículas. No Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 59 obstante, hay un nexo entre los enfoques microscópico y macroscópico: otra rama de la física, conocida como mecánica estadística, explica la forma de relacionar desde un punto de vista estadístico la presión y la temperatura con el movimiento de los átomos y las moléculas. Hasta principios del siglo XIX, era frecuente que los físicos fueran al mismo tiempo matemáticos, filósofos, químicos, biólogos o ingenieros. En la actualidad el ámbito de la física ha crecido tanto que, con muy pocas excepciones, los físicos modernos tienen que limitar su atención a una o dos ramas de su ciencia. Una vez que se descubren y comprenden los aspectos fundamentales de un nuevo campo, éste pasa a ser de interés para los ingenieros y otros científicos. Por ejemplo, los descubrimientos del siglo XIX en electricidad y magnetismo forman hoy parte del terreno de los ingenieros eléctricos y de comunicaciones; las propiedades de la materia descubiertas a comienzos del siglo XX han encontrado aplicación en la electrónica; los descubrimientos de la física nuclear, muchos de ellos posteriores a 1950, son la base de los trabajos de los ingenieros nucleares. Comienzos de la física Aunque las ideas sobre el mundo físico se remontan a la antigüedad, la física no surgió como un campo de estudio bien definido hasta principios del siglo XIX. Antigüedad Los chinos, los babilonios, los egipcios y los mayas observaron los movimientos de los planetas y lograron predecir los eclipses, pero no consiguieron encontrar un sistema subyacente que explicara el movimiento planetario. Las especulaciones de los filósofos griegos introdujeron dos ideas fundamentales sobre los componentes del Universo, opuestas entre sí: el atomismo, propuesto por Leucipo en el siglo IV a.C., y la teoría de los elementos, formulada en el siglo anterior. En Alejandría, el centro científico de la civilización occidental durante el periodo helenístico, hubo notables avances. Allí, el matemático e inventor griego Arquímedes diseñó con palancas y tornillos varios aparatos mecánicos prácticos y midió la densidad de objetos sólidos sumergiéndolos en un líquido. Otros científicos griegos importantes de aquella época fueron el astrónomo Aristarco de Samos, que halló la relación entre las distancias de la Tierra al Sol y de la Tierra a la Luna, el matemático, astrónomo y geógrafo Eratóstenes, que midió la circunferencia de la Tierra y elaboró un catálogo de estrellas, y el astrónomo Hiparco de Nicea, que descubrió la precesión de los equinoccios (Eclíptica). En el siglo II d.C. el astrónomo, matemático y geógrafo Tolomeo propuso el sistema que lleva su nombre para explicar el movimiento planetario. En el sistema de Tolomeo, la Tierra está en el centro y el Sol, la Luna y las estrellas giran en torno a ella en órbitas circulares. Edad media Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 60 Durante la edad media se produjeron pocos avances, tanto en la física como en las demás ciencias. Sin embargo, sabios árabes como Averroes o al-Qarashi (también conocido como Ibn al-Nafis) conservaron muchos tratados científicos de la Grecia clásica. En general, las grandes universidades medievales fundadas en Europa por las órdenes monásticas a partir del siglo XIII no supusieron un gran avance para la física y otras ciencias experimentales. El filósofo escolástico y teólogo italiano santo Tomás de Aquino, por ejemplo, trató de demostrar que las obras de Platón y Aristóteles eran compatibles con las Sagradas Escrituras. El filósofo escolástico y científico británico Roger Bacon fue uno de los pocos filósofos que defendió el método experimental como auténtica base del conocimiento científico; también investigó en astronomía, química, óptica y diseño de máquinas. Siglos XVI y XVII La ciencia moderna surgió tras el renacimiento, en el siglo XVI y comienzos del XVII, cuando cuatro personajes sobresalientes lograron interpretar de forma muy satisfactoria el comportamiento de los cuerpos celestes. El astrónomo polaco Nicolás Copérnico, propuso un sistema heliocéntrico, en el que los planetas giran alrededor del Sol. Sin embargo, Copérnico estaba convencido de que las órbitas planetarias eran circulares, por lo que su sistema requería unas elaboraciones casi tan complicadas como el sistema de Tolomeo al que pretendía sustituir (Sistema de Copérnico). El astrónomo danés Tycho Brahe adoptó un compromiso entre los sistemas de Copérnico y Tolomeo; según él, los planetas giraban en torno al Sol, mientras que el Sol giraba alrededor de la Tierra. Brahe era un gran observador y realizó una serie de medidas increíblemente precisas. Esto proporcionó a su ayudante Johannes Kepler los datos para atacar al sistema de Tolomeo y enunciar tres leyes que se ajustaban a una teoría heliocéntrica modificada. Galileo, que había oído hablar de la invención del telescopio, construyó uno, y en 1609 pudo confirmar el sistema heliocéntrico observando las fases del planeta Venus. También descubrió las irregularidades en la superficie de la Luna, los cuatro satélites de Júpiter más brillantes, las manchas solares y muchas estrellas de la Vía Láctea. Los intereses de Galileo no se limitaban a la astronomía: empleando planos inclinados y un reloj de agua perfeccionado ya había demostrado que los objetos tardan lo mismo en caer, independientemente de su masa (lo que invalidaba los postulados de Aristóteles), y que la velocidad de los mismos aumenta de forma uniforme con el tiempo de caída. Los descubrimientos astronómicos de Galileo y sus trabajos sobre mecánica precedieron la obra del matemático y físico británico del siglo XVII Isaac Newton, uno de los científicos más grandes de la historia. La física a partir de Newton A partir de 1665, cuando tenía 23 años, Newton desarrolló los principios de la mecánica, formuló la ley de la gravitación universal, separó la luz blanca en sus colores constituyentes e inventó el cálculo diferencial e integral. Las contribuciones de Newton cubrieron una gama muy amplia de fenómenos Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 61 naturales. Por ejemplo, demostró que tanto las leyes de Kepler sobre el movimiento planetario como los descubrimientos de Galileo sobre la caída de los cuerpos se deducen de la segunda ley del movimiento (segunda ley de Newton) combinada con la ley de la gravitación. Newton también logró explicar el efecto de la Luna sobre las mareas, así como la precesión de los equinoccios. El desarrollo de la mecánica El posterior desarrollo de la física debe mucho a las leyes del movimiento o leyes de Newton (Mecánica), especialmente a la segunda, que afirma que la fuerza necesaria para acelerar un objeto es igual a su masa multiplicada por su aceleración. Si se conocen la posición y velocidad iniciales de un cuerpo, así como la fuerza aplicada, es posible calcular las posiciones y velocidades posteriores aunque la fuerza cambie con el tiempo o la posición; en esos casos es necesario aplicar el cálculo infinitesimal de Newton. La segunda ley del movimiento también contiene otro aspecto importante: todos los cuerpos tienen una propiedad intrínseca, su masa inercial, que influye en su movimiento. Cuanto mayor es esa masa, menor es la aceleración que adquiere cuando se aplica una fuerza determinada sobre el cuerpo. Hoy sabemos que esta ley es válida siempre que el cuerpo no sea extremadamente pequeño, grande o rápido. La tercera ley de Newton, que afirma que “a cada fuerza de acción corresponde una fuerza de reacción igual y opuesta”, podría expresarse en términos modernos como que todas las fuerzas entre partículas se producen en pares de sentido opuesto, aunque no necesariamente situados a lo largo de la línea que une las partículas. Gravedad La contribución más específica de Newton a la descripción de las fuerzas de la naturaleza fue la explicación de la fuerza de la gravedad. En la actualidad los científicos saben que sólo hay otras tres fuerzas, además de la gravedad, que originan todas las propiedades y actividades observadas en el Universo: el electromagnetismo, la llamada interacción nuclear fuerte (que mantiene unidos los protones y neutrones en los núcleos atómicos) y la interacción nuclear débil (o interacción débil) entre algunas de las partículas elementales, que explica el fenómeno de la radiactividad. La comprensión del concepto de fuerza se remonta a la ley de la gravitación universal, que reconocía que todas las partículas materiales, y los cuerpos formados por estas partículas, tienen una propiedad denominada masa gravitacional. Esta propiedad hace que dos partículas cualesquiera ejerzan entre sí una fuerza atractiva (a lo largo de la línea que las une) directamente proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia que las separa. Esta fuerza gravitatoria rige el movimiento de los planetas alrededor del Sol y de los objetos en el campo gravitatorio terrestre; también es responsable del colapso gravitacional que, según se cree, constituye el estado final del ciclo vital de las estrellas masivas y es la causa de muchos fenómenos astrofísicos. Una de las observaciones más importantes de la física es que la masa gravitacional de un cuerpo (que es el origen de la fuerza gravitatoria que existe entre el cuerpo y otros cuerpos) es igual a su masa inercial, la Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 62 propiedad que determina el movimiento del cuerpo en respuesta a cualquier fuerza ejercida sobre él (Inercia). Esta equivalencia, confirmada experimentalmente con gran precisión (se ha demostrado que, en caso de existir alguna diferencia entre ambas masas, es menor de una parte en 10 13), lleva implícito el principio de proporcionalidad: cuando un cuerpo tiene una masa gravitacional dos veces mayor que otro, su masa inercial también es dos veces mayor. Esto explica la observación de Galileo —realizada con anterioridad a la formulación de las leyes de Newton— de que todos los cuerpos caen con la misma aceleración independientemente de su masa: aunque los cuerpos más pesados experimentan una fuerza gravitatoria mayor, su mayor masa inercial disminuye en un factor igual a la aceleración por unidad de fuerza, por lo que la aceleración total es la misma que en un cuerpo más ligero. Sin embargo, el significado pleno de esta equivalencia entre las masas gravitacional e inercial no se apreció hasta que Albert Einstein enunció la teoría de la relatividad general. Einstein se dio cuenta de que esta equivalencia tenía una implicación adicional: la equivalencia de un campo gravitatorio y un sistema de referencia acelerado. La fuerza gravitatoria es la más débil de las cuatro fuerzas de la naturaleza. Por ejemplo, la fuerza gravitatoria entre dos protones (una de las partículas elementales más pesadas) es 1036 veces menos intensa que la fuerza electrostática entre ellos, sea cual sea la distancia que los separe. En el caso de dos protones situados en el núcleo de un átomo, la fuerza electrostática de repulsión es a su vez mucho menor que la interacción nuclear fuerte. El que la gravedad sea la fuerza dominante a escala macroscópica se debe a dos hechos: 1) según se sabe, sólo existe un tipo de masa, por lo que sólo existe un tipo de fuerza gravitacional, siempre atractiva; esto hace que las fuerzas gravitacionales de las numerosísimas partículas elementales que componen un cuerpo como la Tierra se sumen, con lo que la fuerza total resulta muy grande. 2) Las fuerzas gravitacionales actúan a cualquier distancia, disminuyendo según el cuadrado de la separación entre los cuerpos. En cambio, las cargas eléctricas de las partículas elementales, que originan las fuerzas electrostáticas y electromagnéticas, pueden ser positivas o negativas. Las cargas iguales se repelen y las cargas opuestas se atraen. Los cuerpos formados por muchas partículas tienden a ser eléctricamente neutros, y las fuerzas eléctricas ejercidas por las partículas, aunque tienen un alcance infinito al igual que la fuerza de gravedad, se cancelan mutuamente. Por su parte, las interacciones nucleares, tanto la fuerte como la débil, tienen un alcance extremadamente corto, y apenas son apreciables a distancias mayores de una billonésima de centímetro. A pesar de su importancia macroscópica, la fuerza de la gravedad es tan débil que un cuerpo tiene que poseer una masa enorme para que su influencia sobre otro cuerpo resulte apreciable. Por eso, la ley de la gravitación universal se dedujo de las observaciones del movimiento de los planetas mucho antes de que pudiera comprobarse de forma experimental. Esto sucedió en 1771, cuando el físico y químico británico Henry Cavendish Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 63 confirmó la ley utilizando grandes esferas de plomo para atraer pequeñas masas unidas a un péndulo de torsión. A partir de esas medidas, Cavendish también dedujo la masa y la densidad de la Tierra. En los dos siglos posteriores a Newton, aunque la mecánica se analizó, se reformuló y se aplicó a sistemas complejos, no se aportaron nuevas ideas físicas. El matemático suizo Leonhard Euler fue el primero en formular las ecuaciones del movimiento para sólidos rígidos, mientras que Newton sólo se había ocupado de masas que se podían considerar concentradas en un punto. Diferentes físicos matemáticos, entre ellos Joseph Louis Lagrange y William Hamilton, ampliaron la segunda ley de Newton con formulaciones más complejas. A lo largo del mismo periodo, Euler, el científico Daniel Bernoulli y otros investigadores también ampliaron la mecánica newtoniana y sentaron las bases de la mecánica de fluidos. Electricidad y magnetismo Aunque los antiguos griegos conocían las propiedades electrostáticas del ámbar, y los chinos ya fabricaban imanes con magnetita en el 2700 a.C., los fenómenos eléctricos y magnéticos no empezaron a comprenderse hasta finales del siglo XVIII, cuando comenzaron a realizarse experimentos en estos campos. En 1785, el físico francés Charles de Coulomb confirmó por primera vez de forma experimental que las cargas eléctricas se atraen o se repelen con una intensidad inversamente proporcional al cuadrado de la distancia que las separa (ley de Coulomb). Más tarde el matemático francés Siméon Denis Poisson y su colega alemán Carl Friedrich Gauss desarrollaron una potente teoría para calcular el efecto de un número indeterminado de cargas eléctricas estáticas arbitrariamente distribuidas. Dos partículas con cargas opuestas se atraen, por lo que tienden a acelerarse una hacia la otra. Si el medio a través del cual se mueven ofrece resistencia, pueden acabar moviéndose con velocidad constante (en lugar de moverse con aceleración constante) a la vez que el medio se calienta y sufre otras alteraciones. La posibilidad de mantener una fuerza electromotriz capaz de impulsar de forma continuada partículas eléctricamente cargadas llegó con el desarrollo de la pila química en 1800, debido al físico italiano Alessandro Volta. La teoría clásica de un circuito eléctrico simple supone que los dos polos de una pila se mantienen cargados positiva y negativamente debido a las propiedades internas de la misma. Cuando los polos se conectan mediante un conductor, las partículas cargadas negativamente son repelidas por el polo negativo y atraídas por el positivo, con lo que se mueven hacia él y calientan el conductor, ya que ofrece resistencia a dicho movimiento. Al llegar al polo positivo las partículas son obligadas a desplazarse dentro de la pila hasta el polo negativo, en contra de las fuerzas que se oponen a ello según la ley de Coulomb. El físico alemán Georg Simon Ohm descubrió la existencia de una constante de proporcionalidad sencilla entre la corriente que fluye por el circuito y la fuerza electromotriz suministrada por la pila. Esta constante es la resistencia eléctrica del circuito, R. La ley de Ohm, que afirma que la resistencia es igual a la fuerza electromotriz, o tensión, dividida entre la intensidad de corriente, no es una ley fundamental de la física de aplicación Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 64 universal, sino que describe el comportamiento de una clase limitada de materiales sólidos. Los conceptos elementales del magnetismo, basados en la existencia de pares de polos opuestos, aparecieron en el siglo XVII y fueron desarrollados en los trabajos de Coulomb. Sin embargo, la primera conexión entre el magnetismo y la electricidad se encontró en los experimentos del físico y químico danés Hans Christian Oersted, que en 1819 descubrió que un cable conductor por el que fluía una corriente eléctrica desviaba una aguja magnética situada en sus proximidades. A la semana de conocer el descubrimiento de Oersted, el científico francés André Marie Ampère demostró experimentalmente que dos cables por los que circula una corriente ejercen una influencia mutua igual a la de los polos de un imán. En 1831, el físico y químico británico Michael Faraday descubrió que podía inducirse el flujo de una corriente eléctrica en un conductor en forma de espira no conectado a una batería, moviendo un imán en sus proximidades o situando cerca otro conductor por el que circulara una corriente variable. La forma más fácil de enunciar la íntima relación entre la electricidad y el magnetismo, perfectamente establecida en la actualidad, es a partir de los conceptos de campo eléctrico y magnético. La intensidad, dirección y sentido del campo en cada punto mide la fuerza que actuaría sobre una carga unidad (en el caso del campo eléctrico) o una corriente unidad (en el caso del campo magnético) situadas en ese punto. Las cargas eléctricas estacionarias producen campos eléctricos; las corrientes —esto es, las cargas en movimiento— producen campos eléctricos y magnéticos. Un campo eléctrico también puede ser producido por un campo magnético variable, y viceversa. Los campos eléctricos ejercen fuerzas sobre las partículas cargadas por el simple hecho de tener carga, independientemente de su velocidad; los campos magnéticos sólo ejercen fuerzas sobre partículas cargadas en movimiento. Estos hallazgos cualitativos fueron expresados en una forma matemática precisa por el físico británico James Clerk Maxwell, que desarrolló las ecuaciones diferenciales en derivadas parciales que llevan su nombre. Las ecuaciones de Maxwell relacionan los cambios espaciales y temporales de los campos eléctrico y magnético en un punto con las densidades de carga y de corriente en dicho punto. En principio, permiten calcular los campos en cualquier momento y lugar a partir del conocimiento de las cargas y corrientes. Un resultado inesperado que surgió al resolver las ecuaciones fue la predicción de un nuevo tipo de campo electromagnético producido por cargas eléctricas aceleradas. Este campo se propagaría por el espacio con la velocidad de la luz en forma de onda electromagnética, y su intensidad disminuiría de forma inversamente proporcional al cuadrado de la distancia de la fuente. En 1887, el físico alemán Heinrich Hertz consiguió generar físicamente esas ondas por medios eléctricos, con lo que sentó las bases para la radio, el radar, la televisión y otras formas de telecomunicaciones. El comportamiento de los campos eléctrico y magnético en estas ondas es bastante similar al de una cuerda tensa muy larga cuyo extremo se hace oscilar rápidamente hacia arriba y hacia abajo. Cualquier punto de la cuerda se mueve hacia arriba y hacia abajo con la misma frecuencia que la fuente de las ondas situada en el extremo de la cuerda. Los puntos de la cuerda Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 65 situados a diferentes distancias de la fuente alcanzan su máximo desplazamiento vertical en momentos diferentes. Cada punto de la cuerda hace lo mismo que su vecino, pero lo hace algo más tarde si está más lejos de la fuente de vibración (Oscilación). La velocidad con que se transmite la perturbación a lo largo de la cuerda, o la ‘orden’ de oscilar, se denomina velocidad de onda (Movimiento ondulatorio). Esta velocidad es función de la densidad lineal de la cuerda (masa por unidad de longitud) y de la tensión a la que esté sometida. Una fotografía instantánea de la cuerda después de llevar moviéndose cierto tiempo mostraría que los puntos que presentan el mismo desplazamiento están separados por una distancia conocida como longitud de onda, que es igual a la velocidad de onda dividida entre la frecuencia. En el caso del campo electromagnético la intensidad del campo eléctrico se puede asociar al movimiento vertical de cada punto de la cuerda, mientras que el campo magnético se comporta del mismo modo pero formando un ángulo recto con el campo eléctrico (y con la dirección de propagación). La velocidad con que la onda electromagnética se aleja de la fuente es la velocidad de la luz. Luz La aparente propagación lineal de la luz se conoce desde la antigüedad, y los griegos creían que la luz estaba formada por un flujo de corpúsculos. Sin embargo, había gran confusión sobre si estos corpúsculos procedían del ojo o del objeto observado. Cualquier teoría satisfactoria de la luz debe explicar su origen y desaparición y sus cambios de velocidad y dirección al atravesar diferentes medios. En el siglo XVII, Newton ofreció respuestas parciales a estas preguntas, basadas en una teoría corpuscular; el científico británico Robert Hooke y el astrónomo, matemático y físico holandés Christiaan Huygens propusieron teorías de tipo ondulatorio. No fue posible realizar ningún experimento cuyo resultado confirmara una u otra teoría hasta que, a principios del siglo XIX, el físico y médico británico Thomas Young demostró el fenómeno de la interferencia en la luz. El físico francés Augustin Jean Fresnel apoyó decisivamente la teoría ondulatoria. La interferencia puede observarse colocando una rendija estrecha delante de una fuente de luz, situando una doble rendija algo más lejos y observando una pantalla colocada a cierta distancia de la doble rendija. En lugar de aparecer una imagen de las rendijas uniformemente iluminada, se ve una serie de bandas oscuras y claras equidistantes. Para explicar cómo las hipotéticas partículas de luz procedentes de la misma fuente, que llegan a la pantalla a través de las dos rendijas, pueden producir distintas intensidades de luz en diferentes puntos —e incluso anularse unas a otras y producir zonas oscuras— habría que considerar complejas suposiciones adicionales. En cambio, las ondas de luz pueden producir fácilmente un efecto así. Si se supone, como hizo Huygens, que cada una de las dos rendijas actúa como una nueva fuente que emite luz en todas direcciones, los dos trenes de onda que llegan a la pantalla en un mismo punto pueden no estar en fase aunque lo estuvieran al salir de las rendijas (se dice que dos vibraciones están en fase en un punto determinado cuando en cada momento se encuentran en la misma etapa de la oscilación: sus máximos coinciden en un mismo momento, Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 66 y lo mismo ocurre con los mínimos). Según la diferencia de recorrido entre ambos trenes en cada punto de la pantalla, puede ocurrir que un desplazamiento ‘positivo’ de uno de ellos coincida con uno ‘negativo’ del otro —con lo que se producirá una zona oscura— o que lleguen simultáneamente dos desplazamientos positivos, o negativos, lo que provocará un refuerzo de las intensidades, y por ende una zona brillante. En cada punto brillante, la intensidad de la luz experimenta una variación temporal a medida que las sucesivas ondas en fase van desde el máximo desplazamiento positivo hasta el máximo negativo, pasando por cero, y vuelven de nuevo al máximo desplazamiento positivo. Sin embargo, ni el ojo ni ningún instrumento clásico puede determinar este rápido ‘parpadeo’, que en la zona de luz visible tiene una frecuencia que va de 4 × 1014 a 7,5 × 1014 hercios (ciclos por segundo). Aunque la frecuencia no puede medirse directamente, puede deducirse de las medidas de longitud de onda y velocidad. La longitud de onda puede determinarse midiendo la distancia entre ambas rendijas y la separación entre dos franjas brillantes adyacentes en la pantalla. Las longitudes de onda van desde 4 ×10-5 cm en la luz violeta hasta 7,5 ×10-5 cm en la luz roja; los demás colores corresponden a longitudes de onda intermedias. El astrónomo danés Olaus Roemer fue el primero en medir la velocidad de la luz, en 1676. Roemer observó una aparente variación temporal entre los eclipses sucesivos de los satélites de Júpiter, que atribuyó a los cambios en la distancia entre la Tierra y Júpiter (según la posición de la primera en su órbita) y las consiguientes diferencias en el tiempo empleado por la luz para llegar a la Tierra. Sus medidas coincidían bastante con las observaciones más precisas realizadas en el siglo XIX por el físico francés Armand Hippolyte Louis Fizeau y con los trabajos del físico estadounidense Albert Michelson y sus colaboradores, que se extendieron hasta el siglo XX. En la actualidad, la velocidad de la luz en el vacío se considera que es 299.792,46 km/s. En la materia, la velocidad es menor y varía con la frecuencia: este fenómeno se denomina dispersión. Los trabajos de Maxwell aportaron resultados importantes a la comprensión de la naturaleza de la luz, al demostrar que su origen es electromagnético: una onda luminosa corresponde a campos eléctricos y magnéticos oscilantes. Sus trabajos predijeron la existencia de luz no visible, y en la actualidad se sabe que las ondas o radiaciones electromagnéticas cubren todo un espectro, que empieza en los rayos gamma (Radiactividad), con longitudes de onda de 10-12 cm y aún menores, pasando por los rayos X, la luz visible y las microondas, hasta las ondas de radio, con longitudes de onda de hasta varios cientos de kilómetros. Maxwell también consiguió relacionar la velocidad de la luz en el vacío y en los diferentes medios con otras propiedades del espacio y la materia, de las que dependen los efectos eléctricos y magnéticos. Sin embargo, los descubrimientos de Maxwell no aportaron ningún conocimiento sobre el misterioso medio (que correspondería a la cuerda del ejemplo mencionado antes en la sección Electricidad y magnetismo de este artículo) por el que se pensaba que se propagaban la luz y las ondas electromagnéticas. A partir de las experiencias con las olas, el sonido y las ondas elásticas, los científicos suponían que existía un medio similar, un ‘éter luminífero’, sin masa, que llenaba todo el espacio (puesto que Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 67 la luz puede desplazarse a través del vacío) y actuaba como un sólido (ya que se sabía que las ondas electromagnéticas eran transversales, puesto que las oscilaciones se producen en un plano perpendicular a la dirección de propagación, y en los gases y líquidos sólo pueden propagarse ondas longitudinales, como las ondas sonoras). La búsqueda de este misterioso éter ocupó la atención de una gran parte de los físicos a lo largo de los últimos años del siglo XIX. El problema se complicaba por un aspecto adicional. Una persona que camine a 5 km/h en un tren que se desplaza a 100 km/h tiene una velocidad aparente de 105 km/h para un observador situado en el andén. La pregunta que surgía en relación con la velocidad de la luz era la siguiente: si la luz se desplaza a unos 300.000 km/s a través del éter, ¿a qué velocidad se desplazará con respecto a un observador situado en la Tierra, puesto que la Tierra también se mueve en relación al éter? ¿Cuál es la velocidad de la Tierra con respecto al éter, indicada por sus efectos sobre las ondas luminosas? El famoso experimento de Michelson-Morley, realizado en 1887 por Michelson y por el químico estadounidense Edward Williams Morley con ayuda de un interferómetro, pretendía medir esta velocidad. Si la Tierra se desplazara a través de un éter estacionario debería observarse una diferencia en el tiempo empleado por la luz para recorrer una distancia determinada según que se desplazase de forma paralela o perpendicular al movimiento de la Tierra. El experimento era lo bastante sensible para detectar —a partir de la interferencia entre dos haces de luz— una diferencia extremadamente pequeña. Sin embargo, los resultados fueron negativos: esto planteó un dilema para la física que no se resolvió hasta que Einstein formuló su teoría de la relatividad en 1905. Termodinámica Una rama de la física que alcanzó pleno desarrollo en el siglo XIX fue la termodinámica. En primer lugar aclaró los conceptos de calor y temperatura, proporcionando definiciones coherentes y demostrando cómo podían relacionarse éstas con los conceptos de trabajo y energía, que hasta entonces tenían un carácter puramente mecánico. Calor y temperatura Cuando una persona toca un cuerpo caliente y otro frío experimenta sensaciones diferentes: esto llevó al concepto cualitativo y subjetivo de temperatura. La adición de calor a un cuerpo lleva a un aumento de su temperatura (mientras no se produzca fusión o vaporización); cuando se ponen en contacto dos cuerpos a temperaturas diferentes, se produce un flujo de calor del más caliente al más frío hasta que se igualan sus temperaturas y se alcanza el equilibrio térmico. Para llegar a una medida de la temperatura, los científicos aprovecharon la observación de que la adición o sustracción de calor produce un cambio en alguna propiedad bien definida del cuerpo. Por ejemplo, la adición de calor a una columna de líquido mantenida a presión constante aumenta la longitud de la columna, mientras que el calentamiento de un gas confinado en un recipiente aumenta su presión. Esto hace que la temperatura pueda medirse a partir de otra propiedad física (por ejemplo, la longitud de la columna de mercurio en un termómetro) siempre que se Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 68 mantengan constantes las otras propiedades relevantes. La relación matemática entre las propiedades físicas relevantes de un cuerpo o sistema y su temperatura se conoce como ecuación de estado. Por ejemplo, en los gases llamados ideales, hay una relación sencilla entre la presión p, el volumen V, el número de moles n y la temperatura absoluta T, dada por la ecuación pV = nRT, donde R es una constante igual para todos los gases. La ley de Boyle-Mariotte, llamada así en honor al físico y químico británico Robert Boyle y al físico francés Edme Mariotte, y la ley de Charles y GayLussac, llamada así en honor a los físicos y químicos franceses Joseph Louis Gay-Lussac y Jacques Alexandre Cesar Charles, están contenidas en esa ecuación de estado (Gas). Hasta bien entrado el siglo XIX se consideraba que el calor era un fluido sin masa, el llamado ‘calórico’, que estaba contenido en la materia y podía introducirse en un cuerpo o extraerse del mismo. Aunque la teoría del calórico explicaba las cuestiones básicas de termometría y calorimetría¸ no lograba explicar satisfactoriamente muchas observaciones realizadas a principios del siglo XIX. La primera relación cuantitativa entre el calor y otras formas de energía fue observada en 1798 por el físico y estadista estadounidense de origen inglés Benjamin Thompson, conde de Rumford, que observó que el calor producido al taladrar el ánima de un cañón era aproximadamente proporcional al trabajo empleado (en mecánica, el trabajo es el producto de la fuerza que actúa sobre un cuerpo por la distancia recorrida por el cuerpo en la dirección de esta fuerza durante su aplicación). El primer principio de la termodinámica A mediados del siglo XIX, el físico alemán Hermann Ludwig von Helmholtz y el matemático y físico británico lord Kelvin explicaron la equivalencia entre calor y trabajo. Esta equivalencia significa que la realización de trabajo sobre un sistema puede producir el mismo efecto que la adición de calor. Por ejemplo, puede lograrse el mismo aumento de temperatura en un líquido contenido en un recipiente suministrándole calor o realizando la cantidad de trabajo apropiada, haciendo girar una rueda de paletas dentro del recipiente. El valor numérico de esta equivalencia, el llamado ‘equivalente mecánico del calor’, fue determinado en experimentos realizados entre 1840 y 1849 por el físico británico James Prescott Joule. Con ello quedó establecido que la realización de trabajo sobre un sistema y la adición de calor al mismo son formas equivalentes de transferir energía al sistema. Por tanto, la cantidad de energía añadida como calor o trabajo debe aumentar la energía interna del sistema, que a su vez determina la temperatura. Si la energía interna no varía, la cantidad de trabajo realizado sobre un sistema debe ser igual al calor desprendido por el mismo. Esto constituye el primer principio de la termodinámica, que expresa la conservación de la energía. Esta energía interna sólo pudo relacionarse con la suma de las energías cinéticas de todas las partículas del sistema cuando se comprendió mejor la actividad de los átomos y moléculas dentro de un sistema. El segundo principio de la termodinámica Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 69 El primer principio indica que la energía se conserva en cualquier interacción entre un sistema y su entorno, pero no pone limitaciones a las formas de intercambio de energía térmica y mecánica. El primero en formular el principio de que los intercambios de energía se producen globalmente en una dirección determinada fue el físico e ingeniero militar francés Sadi Carnot, quien en 1824 mostró que una máquina térmica (un dispositivo que puede producir trabajo de forma continua a partir del intercambio de calor con su entorno) necesita un cuerpo caliente como fuente de calor y un cuerpo frío para absorber el calor desprendido. Cuando la máquina realiza trabajo hay que transferir calor del cuerpo caliente al cuerpo frío; para que ocurra lo contrario hay que realizar trabajo mecánico (o eléctrico). Por ejemplo, en un refrigerador que funciona de forma continua, la absorción de calor del cuerpo de baja temperatura (el espacio que se quiere refrigerar) exige realizar trabajo (por lo general en forma eléctrica) y desprender calor al entorno (a través de aletas o rejillas de refrigeración situadas en la parte trasera del aparato). Estas ideas, basadas en los conceptos de Carnot, fueron formuladas de forma rigurosa como segundo principio de la termodinámica por el físico matemático alemán Rudolf Emanuel Clausius y lord Kelvin en formas diversas aunque equivalentes. Una de estas formulaciones es que el calor no puede fluir de un cuerpo frío a un cuerpo caliente sin que se realice trabajo. Del segundo principio se deduce que, en un sistema aislado (en el que no existen interacciones con el entorno), las partes internas que se encuentran a temperaturas distintas siempre tienden a igualar sus temperaturas y alcanzar así el equilibrio. Este principio también puede aplicarse a otras propiedades internas inicialmente no uniformes. Por ejemplo, si se vierte leche en una taza de café, las dos sustancias se mezclan hasta hacerse inseparables e indiferenciables. Por lo tanto, un estado inicial ordenado, con componentes diferenciados, se convierte en un estado mezclado o desordenado. Estas ideas se pueden expresar a partir de una propiedad termodinámica denominada entropía (enunciada por primera vez por Clausius), que mide lo cerca que está un sistema del equilibrio, es decir, del desorden interno perfecto. La entropía de un sistema aislado, y del Universo en su conjunto, sólo puede aumentar, y cuando se alcanza finalmente el equilibrio ya no son posibles cambios internos de ninguna clase. Cuando se aplica al conjunto del Universo, este principio sugiere que la temperatura de todo el cosmos acabará siendo uniforme, con lo que se producirá la llamada ‘muerte térmica’ del Universo. Sin embargo, la entropía puede disminuirse localmente mediante acciones externas. Esto ocurre en las máquinas (por ejemplo un refrigerador, en el que se reduce la entropía del espacio enfriado) y en los organismos vivos. Por otra parte, este aumento local del orden sólo es posible mediante un incremento de la entropía del entorno, donde necesariamente tiene que aumentar el desorden. Este aumento continuado de la entropía está relacionado con la irreversibilidad que se observa en los procesos macroscópicos. Si un proceso fuera reversible espontáneamente —es decir, si después de realizado el proceso, tanto el sistema como el entorno pudieran regresar a su estado inicial— la entropía permanecería constante, lo que violaría el segundo Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 70 principio. Aunque los procesos macroscópicos observados en la experiencia cotidiana son irreversibles, no ocurre lo mismo con los procesos microscópicos. Por ejemplo, las reacciones químicas entre moléculas individuales no se rigen por el segundo principio de la termodinámica, que sólo es válido para conjuntos macroscópicos. A partir de la formulación del segundo principio se produjeron otros avances en la termodinámica, cuyas aplicaciones se extendieron más allá de la física y alcanzaron a la química y la ingeniería. La mayor parte de la ingeniería química, toda la ingeniería energética, la tecnología de acondicionamiento de aire y la física de bajas temperaturas son algunos de los campos que deben su base teórica a la termodinámica y a los logros posteriores de científicos como Maxwell, el físico estadounidense Willard Gibbs, el químico físico alemán Walther Nernst o el químico estadounidense de origen noruego Lars Onsager. Teoría cinética y mecánica estadística El concepto moderno de átomo fue propuesto por primera vez por el químico y físico británico John Dalton en 1808, a partir de sus estudios que mostraban que los elementos químicos se combinan en proporciones constantes para formar compuestos. En 1811, el físico italiano Amedeo Avogadro propuso el concepto de molécula, la partícula más pequeña de una sustancia gaseosa que puede existir en estado libre y seguir teniendo las mismas propiedades que una cantidad mayor de dicha sustancia. Este concepto no tuvo una aceptación generalizada hasta unos 50 años después, cuando sirvió de base a la teoría cinética de los gases. Esta teoría, desarrollada por Maxwell, el físico austriaco Ludwig Boltzmann y otros, permitió aplicar las leyes de la mecánica y del cálculo probabilístico al comportamiento de las moléculas individuales, lo que llevó a deducciones estadísticas sobre las propiedades del gas en su conjunto. Un problema importante resuelto de esta forma fue la determinación del rango de velocidades de las moléculas de un gas, y en consecuencia de la energía cinética media de las moléculas. La energía cinética de un cuerpo es mv2, donde m es la masa del cuerpo y v su velocidad. Uno de los logros de la teoría cinética fue la demostración de que la temperatura —una propiedad termodinámica macroscópica que describe el conjunto del sistema— está directamente relacionada con la energía cinética media de las moléculas. Otro logro consistió en identificar la entropía de un sistema con el logaritmo de la probabilidad estadística de la distribución de energías. Esto llevó a demostrar que el estado de equilibrio termodinámico de mayor probabilidad es también el estado de máxima entropía. Después de su éxito en los gases, la teoría cinética y la mecánica estadística se aplicaron a otros sistemas, algo que continúa haciéndose en la actualidad. Primeras teorías atómicas y moleculares La teoría atómica de Dalton y la ley de Avogadro tuvieron una influencia crucial en el desarrollo de la química, además de su importancia para la física. Ley de Avogadro Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 71 La ley de Avogadro, fácil de demostrar a partir de la teoría cinética, afirma que a una presión y temperatura dadas un volumen determinado de un gas siempre contiene el mismo número de moléculas, independientemente del gas de que se trate. Sin embargo, los físicos no lograron determinar con exactitud esa cifra (y por tanto averiguar la masa y tamaño de las moléculas) hasta principios del siglo XX. Después del descubrimiento del electrón, el físico estadounidense Robert Andrews Millikan determinó su carga. Esto permitió finalmente calcular con precisión el número de Avogadro, es decir, el número de partículas (átomos, moléculas, iones o cualquier otra partícula) que hay en un mol de materia. Además de la masa del átomo interesa conocer su tamaño. A finales del siglo XIX se realizaron diversos intentos para determinar el tamaño del átomo, que sólo tuvieron un éxito parcial. En uno de estos intentos se aplicaron los resultados de la teoría cinética a los gases no ideales, es decir, gases cuyas moléculas no se comportan como puntos sino como esferas de volumen finito. Posteriores experimentos que estudiaban la forma en que los átomos dispersaban rayos X, partículas alfa y otras partículas atómicas y subatómicas permitieron medir con más precisión el tamaño de los átomos, que resultaron tener un diámetro de entre 10-8 y 10-9 cm. Sin embargo, una afirmación precisa sobre el tamaño de un átomo exige una definición explícita de lo que se entiende por tamaño, puesto que la mayoría de los átomos no son exactamente esféricos y pueden existir en diversos estados, con diferentes distancias entre el núcleo y los electrones. Espectroscopia Uno de los avances más importantes que llevaron a la exploración del interior del átomo y al abandono de las teorías clásicas de la física fue la espectroscopia; otro avance fue el propio descubrimiento de las partículas subatómicas. Cuando se calienta una sustancia gaseosa ésta emite luz en una serie de frecuencias determinadas; la distribución de estas frecuencias se denomina espectro de emisión. En 1823 el astrónomo y químico británico John Herschel sugirió que las sustancias químicas podían identificarse por su espectro. En los años posteriores, dos alemanes, el químico Robert Wilhelm Bunsen y el físico Gustav Robert Kirchhoff, catalogaron los espectros de numerosas sustancias. El helio se descubrió después de que, en 1868, el astrónomo británico Joseph Norman Lockyer observara una línea espectral desconocida en el espectro solar. Sin embargo, las contribuciones más importantes desde el punto de vista de la teoría atómica se debieron al estudio de los espectros de átomos sencillos, como el del hidrógeno, que presenta pocas líneas espectrales. Los llamados espectros de líneas (formados por líneas individuales correspondientes a diferentes frecuencias) son causados por sustancias gaseosas en las que, según sabemos hoy, los electrones han sido excitados por calentamiento o por bombardeo con partículas subatómicas. En cambio, cuando se calienta un sólido aparece un espectro continuo que cubre toda la zona visible y penetra en las regiones infrarroja y ultravioleta. La cantidad total de energía emitida por el sólido depende mucho de la temperatura, así Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 72 como la intensidad relativa de las distintas longitudes de onda. Por ejemplo, si se calienta un trozo de hierro la radiación emitida comienza en la región infrarroja, y no puede verse; después la radiación se desplaza hacia el espectro visible, primero con un brillo rojo y luego blanco, a medida que el máximo del espectro de radiación avanza hacia la mitad de la zona visible. El intento de explicar las características de la radiación de los sólidos con las herramientas de la física teórica de finales del siglo XIX llevaba a la predicción de que, a cualquier temperatura, la cantidad de radiación debía aumentar de forma ilimitada a medida que disminuía la longitud de onda. Este cálculo, en el que no se logró encontrar ningún error, estaba en desacuerdo con los experimentos y además llevaba a una conclusión absurda, la de que un cuerpo con temperatura finita pudiera radiar una cantidad infinita de energía. Estas contradicciones exigían una nueva forma de considerar la radiación e, indirectamente, el átomo. La crisis de la física clásica Hacia 1880 la física presentaba un panorama de calma: la mayoría de los fenómenos podían explicarse mediante la mecánica de Newton, la teoría electromagnética de Maxwell, la termodinámica y la mecánica estadística de Boltzmann. Parecía que sólo quedaban por resolver unos pocos problemas, como la determinación de las propiedades del éter y la explicación de los espectros de emisión y absorción de sólidos y gases. Sin embargo, estos fenómenos contenían las semillas de una revolución cuyo estallido se vio acelerado por una serie de asombrosos descubrimientos realizados en la última década del siglo XIX: en 1895, Wilhelm Conrad Roentgen descubrió los rayos X; ese mismo año, Joseph John Thomson descubrió el electrón; en 1896, Antoine Henri Becquerel descubrió la radiactividad; entre 1887 y 1899, Heinrich Hertz, Wilhelm Hallwachs y Philipp Lenard descubrieron diversos fenómenos relacionados con el efecto fotoeléctrico. Los datos experimentales de la física, unidos a los inquietantes resultados del experimento de Michelson-Morley y al descubrimiento de los rayos catódicos, formados por chorros de electrones, desafiaban a todas las teorías disponibles. La física moderna Dos importantes avances producidos durante el primer tercio del siglo XX —la teoría cuántica y la teoría de la relatividad— explicaron estos hallazgos, llevaron a nuevos descubrimientos y cambiaron el modo de comprender la física. Relatividad Para ampliar el ejemplo de velocidad relativa introducido a propósito del experimento de Michelson-Morley se pueden comparar dos situaciones. En una de ellas, una persona A avanza hacia delante con una velocidad v en un tren que se mueve a una velocidad u. La velocidad de A con respeto a un observador B situado en el andén es V = u + v. Si el tren está parado en la estación y A avanza hacia delante con una velocidad v mientras el observador B camina en sentido opuesto con velocidad u, la velocidad relativa de A respecto a B sería exactamente la misma que en el primer caso. En términos más generales, si dos sistemas de referencia se mueven uno Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 73 respecto del otro a velocidad constante, las observaciones de cualquier fenómeno realizadas por un observador en cualquiera de los sistemas son físicamente equivalentes. Como ya se indicó, el experimento de MichelsonMorley no logró confirmar esta simple suma de velocidades en el caso de un haz de luz: dos observadores, uno de los cuales estaba en reposo y el otro avanzaba hacia una fuente de luz a velocidad u, midieron el mismo valor de la velocidad de la luz, que suele simbolizarse con la letra c. Einstein incorporó la invariancia de c a su teoría de la relatividad. La teoría también exigió un cuidadoso replanteamiento de los conceptos de espacio y tiempo, y puso de manifiesto la imperfección de las nociones intuitivas sobre los mismos. De la teoría de Einstein se desprende que un reloj perfectamente sincronizado con otro reloj situado en reposo en relación con él se retrasará o adelantará con respecto al segundo reloj si ambos se mueven uno respecto del otro. Igualmente, dos varillas que tengan igual longitud cuando están en reposo tendrán longitudes distintas cuando una se mueva respecto a la otra. Las diferencias sólo son significativas cuando las velocidades relativas son comparables a c. El espacio y el tiempo están estrechamente ligados en un continuo de cuatro dimensiones: las tres dimensiones espaciales habituales y una cuarta dimensión temporal. Dos consecuencias importantes de la teoría de la relatividad son la equivalencia entre masa y energía y el límite máximo a la velocidad de los objetos materiales dado por c. La mecánica relativista describe el movimiento de objetos cuyas velocidades son fracciones apreciables de c, mientras que la mecánica newtoniana sigue siendo útil para las velocidades propias de los movimientos de los objetos macroscópicos en la Tierra. En cualquier caso, ningún objeto material puede tener una velocidad igual o mayor a la velocidad de la luz. La masa m y la energía E están ligadas por la relación E = mc2. Como c es muy grande, el equivalente energético de la masa es gigantesco. La transformación de masa en energía resulta significativa en las reacciones nucleares, como las que tienen lugar en una central nuclear o en una bomba atómica, y en las estrellas, donde la liberación de cantidades ingentes de energía se ve acompañada de una pérdida significativa de masa. La teoría original de Einstein, formulada en 1905 y conocida como teoría de la relatividad especial o restringida, se limitaba a sistemas de referencia que se mueven a velocidad constante uno respecto del otro. En 1915, Einstein generalizó su hipótesis y formuló la teoría de la relatividad general, aplicable a sistemas que experimentan una aceleración uno con respecto al otro. Esta extensión demostró que la gravitación era una consecuencia de la geometría del espacio-tiempo, y predijo la desviación de la luz al pasar cerca de un cuerpo de gran masa como una estrella, efecto que se observó por primera vez en 1919. La teoría de la relatividad general, aunque no está tan firmemente establecida como la relatividad restringida, tiene una importancia decisiva para la comprensión de la estructura del Universo y su evolución. Teoría cuántica El primero en resolver el dilema planteado por los espectros de emisión de los cuerpos sólidos fue el físico alemán Max Planck. Según la física clásica, Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 74 todas las moléculas de un sólido pueden vibrar, y la amplitud de sus vibraciones está directamente relacionada con la temperatura. En principio son posibles todas las energías de vibración, y la energía térmica del sólido debería de poder convertirse de forma continua en radiación electromagnética mientras se le suministre energía. Planck realizó una suposición radical al postular que un oscilador molecular sólo puede emitir ondas electromagnéticas en paquetes discretos, que llamó cuantos o fotones. Cada fotón tiene una longitud de onda y una frecuencia características y una energía E que viene dada por E = donde es la frecuencia de la onda luminosa y h es la denominada constante de Planck. La longitud de onda está relacionada con la frecuencia según la ecuación donde c es la velocidad de la luz. Si la frecuencia se expresa en hercios (Hz), o ciclos por segundo (1 Hz = 1 s-1), y la energía en julios, la constante de Planck es extremadamente pequeña, y vale 6,626 × 10-34 julios·segundo. Con su teoría, Planck introdujo una dualidad onda-corpúsculo en la naturaleza de la luz, que durante un siglo había sido considerada como un fenómeno exclusivamente ondulatorio. Efecto fotoeléctrico Cuando una radiación electromagnética de frecuencia apropiada incide sobre determinados metales, de la superficie del metal se desprenden cargas eléctricas negativas (hoy sabemos que se trata de electrones). Los aspectos importantes de este fenómeno son los siguientes: 1) la energía de cada electrón desprendido sólo depende de la frecuencia de la fuente luminosa, y no de su intensidad; 2) la cantidad o el ritmo de emisión de electrones sólo depende de la intensidad de iluminación, y no de la frecuencia (siempre que se supere la frecuencia mínima o umbral capaz de provocar la emisión); 3) los electrones se desprenden en cuanto se ilumina la superficie. Estas observaciones, que no podían ser explicadas por la teoría electromagnética de la luz desarrollada por Maxwell, llevaron a Einstein en 1905 a suponer que la luz sólo puede absorberse en cuantos, o fotones, y que el fotón desaparece por completo en el proceso de absorción y cede toda su energía E (igual a hf) a un solo electrón del metal. Con esta sencilla suposición, Einstein amplió la teoría cuántica de Planck a la absorción de radiación electromagnética, lo que concedió una importancia aún mayor a la dualidad onda-corpúsculo de la luz. Por este trabajo logró Einstein el Premio Nobel de Física en 1912. Rayos X En 1912 el físico alemán Max von Laue y sus colaboradores demostraron que estos rayos extremadamente penetrantes, descubiertos por Roentgen, eran radiación electromagnética de longitud de onda muy corta, es decir, de frecuencia elevada. Se comprobó que el mecanismo de producción de rayos X correspondía a un fenómeno cuántico, y en 1914 el físico británico Henry Gwyn Jeffreys Moseley empleó sus espectrogramas de rayos X para demostrar que el número de protones de un átomo coincide con su número atómico, que indica su posición en la tabla periódica. La teoría fotónica de la radiación electromagnética se reforzó y desarrolló aún más cuando el físico estadounidense Arthur Holly Compton predijo y observó en 1923 el llamado efecto Compton. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 75 Física del electrón En el siglo XIX ya se sospechaba que los portadores de las cargas eléctricas eran partículas extremadamente pequeñas, y los experimentos electroquímicos indicaban que la carga de esas partículas elementales era una cantidad definida e invariante. Los experimentos sobre conducción de electricidad en gases a baja presión llevaron al descubrimiento de dos clases de rayos: los rayos catódicos, procedentes del electrodo negativo de un tubo de descarga, y los rayos positivos o rayos canales, procedentes del electrodo positivo. El experimento realizado por Joseph John Thomson en 1895 midió la relación entre la carga q y la masa m de las partículas de los rayos catódicos. En 1899 Lenard confirmó que esta relación era la misma en las partículas emitidas en el efecto fotoeléctrico. Hacia 1911 Millikan determinó por fin que la carga eléctrica siempre aparece en múltiplos de una unidad básica e, y midió su valor, que es de 1,602 × 10-19 culombios. A partir del valor obtenido para la relación q/m, se determinó que la masa del portador de carga, denominado electrón, es de 9,109 × 10-31 kilogramos. Posteriormente Thomson y otros demostraron que los rayos positivos también estaban formados por partículas, pero con carga de signo positivo. Estas partículas (en la actualidad se sabe que son iones positivos producidos al eliminar electrones de un átomo neutro) tienen una masa muchísimo mayor que la del electrón. La más pequeña, el ion hidrógeno, está formado por un solo protón (con carga e pero de signo positivo) y tiene una masa de 1,673 × 10-27 kg, unas 1.800 veces mayor que la del electrón. La naturaleza ‘cuantizada’ de la carga eléctrica había quedado firmemente establecida, y al mismo tiempo se habían identificado dos de las partículas subatómicas fundamentales. Modelos atómicos En 1913 el físico británico nacido en Nueva Zelanda Ernest Rutherford comprobó que el anterior modelo atómico de Thomson, con partículas positivas y negativas uniformemente distribuidas, era insostenible. Las partículas alfa empleadas por Rutherford, muy rápidas y con carga positiva, se desviaban con claridad al atravesar una capa muy fina de materia. Para explicar este efecto era necesario un modelo atómico con un núcleo central pesado y cargado positivamente que provocara la dispersión de las partículas alfa. Rutherford sugirió que la carga positiva del átomo estaba concentrada en un núcleo estacionario de gran masa, mientras que los electrones negativos se movían en órbitas alrededor del núcleo, ligadas por la atracción eléctrica entre cargas opuestas. Sin embargo, este modelo de ‘sistema solar’ no podía ser estable según la teoría de Maxwell ya que, al girar, los electrones son acelerados y deberían emitir radiación electromagnética, perder energía y como consecuencia caer en el núcleo en un tiempo muy breve. Esto exigió otra ruptura radical con la física clásica, que corrió a cargo del físico danés Niels Bohr. Según Bohr en los átomos existían ciertas órbitas en las que los electrones giran sin emitir radiación electromagnética. Estas órbitas permitidas, los llamados estados estacionarios, están determinadas Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 76 por la condición de que el momento angular J del electrón de la órbita tiene que ser un múltiplo entero positivo de la constante de Planck dividida entre J = nh/ n puede tomar cualquier valor entero positivo. Estas fórmulas extendieron la ‘cuantización’ a la dinámica, fijaron las órbitas posibles y permitieron a Bohr calcular los radios de las mismas y los niveles de energía correspondientes. En 1913, el año en que apareció el primer trabajo de Bohr sobre este tema, el modelo fue confirmado experimentalmente por el físico estadounidense nacido en Alemania James Franck y su colega alemán Gustav Hertz. Bohr desarrolló su modelo con mucha mayor profundidad. Explicó el mecanismo por el que los átomos emiten luz y otras ondas electromagnéticas y propuso la hipótesis de que un electrón ‘elevado’ por una perturbación suficiente desde la órbita de menor radio y menor energía (el estado fundamental) hasta otra órbita vuelve a ‘caer’ al estado fundamental al poco tiempo. Esta caída está acompañada de la emisión de un único fotón con energía E = hf, que corresponde a la diferencia de energía entre las órbitas superior e inferior. Cada transición entre órbitas emite un fotón característico cuya longitud de onda y frecuencia están exactamente definidas; por ejemplo, en una transición directa desde la órbita de n = 3 hasta la de n = 1 se emite un solo fotón, muy distinto de los dos fotones emitidos en una transición secuencial desde la órbita de n = 3 hasta la de n = 2 y a continuación desde ésta hasta la de n = 1. Este modelo permitió a Bohr explicar con gran precisión el espectro atómico más sencillo, el del hidrógeno, que había desafiado a la física clásica. Aunque el modelo de Bohr se amplió y perfeccionó, no podía explicar los fenómenos observados en átomos con más de un electrón. Ni siquiera podía explicar la intensidad de las rayas espectrales del sencillo átomo de hidrógeno. Como su capacidad de predicción de resultados experimentales era limitada, no resultaba plenamente satisfactorio para los físicos teóricos.