Acreditalo ® Derechos Reservados FISICA FISICA – DINAMICA DINAMICA Estudia el movimiento de los objetos y de su respuesta a las fuerzas. Las descripciones del movimiento comienzan con una definición cuidadosa de magnitudes como el desplazamiento, el tiempo, la velocidad, la aceleración, la masa y la fuerza. Isaac Newton demostró que la velocidad de los objetos que caen aumenta continuamente durante su caída. Esta aceleración es la misma para objetos pesados o ligeros, siempre que no se tenga en cuenta la resistencia del aire (rozamiento). Newton mejoró este análisis al definir la fuerza y la masa, y relacionarlas con la aceleración. Para los objetos que se desplazan a velocidades próximas a la velocidad de la luz, las leyes de Newton han sido sustituidas por la teoría de la relatividad de Albert Einstein. Para las partículas atómicas y subatómicas, las leyes de Newton han sido sustituidas por la teoría cuántica. Pero para los fenómenos de la vida diaria, las tres leyes del movimiento de Newton siguen siendo la piedra angular de la dinámica (el estudio de las causas del cambio en el movimiento). Las leyes del movimiento de Newton Con la formulación de las tres leyes del movimiento, Isaac Newton estableció las bases de la dinámica. Primera ley de Newton (Equilibrio) Un cuerpo permanece en reposo o en movimiento rectilíneo uniforme (M.R.U. = velocidad constante) si la fuerza resultante es nula (ver condición de equilibrio). El que la fuerza ejercida sobre un objeto sea cero no significa necesariamente que su velocidad sea cero. Si no está sometido a ninguna fuerza (incluido el rozamiento), un objeto en movimiento seguirá desplazándose a velocidad constante. Para que haya equilibrio, las componentes horizontales de las fuerzas que actúan sobre un objeto deben cancelarse mutuamente, y lo mismo debe ocurrir con las componentes verticales. Esta condición es necesaria para el equilibrio, pero no es suficiente. Por ejemplo, si una persona coloca un libro de pie sobre una mesa y lo empuja igual de fuerte con una mano en un sentido y con la otra en el sentido opuesto, el libro permanecerá en reposo si las manos están una frente a otra. (El resultado total es que el libro se comprime). Pero si una mano está cerca de la parte superior del libro y la otra mano cerca de la parte inferior, el libro caerá sobre la mesa. Para que haya equilibrio también es necesario que la suma de los momentos en torno a cualquier eje sea cero. Los momentos dextrógiros (a derechas) en torno a todo eje deben cancelarse con los momentos levógiros (a izquierdas) en torno a ese eje. Puede demostrarse que si los momentos se cancelan para un eje determinado, se cancelan para todos los ejes. Para calcular la fuerza total, hay que sumar las fuerzas como vectores. a) Condición de equilibrio en el plano: la sumatoria de todas las fuerzas aplicadas y no aplicadas debe ser nula y, la sumatoria de los momentos de todas las fuerzas con respecto a cualquier punto debe ser nula. Σ Fx = 0 Σ Fy = 0 Σ MF = 0 1 Acreditalo ® Derechos Reservados b) Condición de equilibrio en el espacio: la sumatoria de todas las fuerzas aplicadas y no aplicadas debe ser nula y, la sumatoria de los momentos de todas las fuerzas con respecto a los tres ejes de referencia debe ser nula. Σ Fx = 0 Equilibrio de fuerzas Σ Fy = 0 Equilibrio de momentos Σ Fz = 0 Σ My = 0 Σ Mx = 0 Σ Mz = 0 Segunda ley de Newton (masa) Para entender cómo y por qué se aceleran los objetos, hay que definir la fuerza y la masa. Una fuerza neta ejercida sobre un objeto lo acelerará, es decir, cambiará su velocidad. La aceleración será proporcional a la magnitud de la fuerza total y tendrá la misma dirección y sentido que ésta. La constante de proporcionalidad es la masa m del objeto. La masa es la medida de la cantidad de sustancia de un cuerpo y es universal. Cuando a un cuerpo de masa m se le aplica una fuerza F se produce una aceleración a. F = m.a [ N ] [ Kg ] Unidades: En el Sistema Internacional de unidades (SI), la aceleración a se mide en metros por segundo cuadrado, la masa m se mide en kilogramos, y la fuerza F en newtons. Se define por el efecto que produce la aceleración en la fuerza a la cual se aplica. Un newton se define como la fuerza necesaria para suministrar a una masa de 1 kg una aceleración de 1 metro por segundo cada segundo. Un objeto con más masa requerirá una fuerza mayor para una aceleración dada que uno con menos masa. Lo asombroso es que la masa, que mide la inercia de un objeto (su resistencia a cambiar la velocidad), también mide la atracción gravitacional que ejerce sobre otros objetos. Resulta sorprendente, y tiene consecuencias profundas, que la propiedad inercial y la propiedad gravitacional estén determinadas por una misma cosa. Este fenómeno supone que es imposible distinguir si un punto determinado está en un campo gravitatorio o en un sistema de referencia acelerado. Albert Einstein hizo de esto una de las piedras angulares de su teoría general de la relatividad, que es la teoría de la gravitación actualmente aceptada. Se deduce que: 1 kg = 9,81 N En particular para la fuerza peso: P = m.g Tercera ley de Newton (acción y reacción) Cuando a un cuerpo se le aplica una fuerza (acción o reacción), este devuelve una fuerza de igual magnitud, igual dirección y de sentido contrario (reacción o acción). Por ejemplo, en una pista de patinaje sobre hielo, si un adulto empuja suavemente a un niño,no sólo existe la fuerza que el adulto ejerce sobre el niño, sino que el niño ejerce una fuerza igual pero de sentido opuesto sobre el adulto. Sin embargo, como la masa del adulto es mayor, su aceleración será menor. La tercera ley de Newton también implica la conservación del momento lineal, el producto de la masa por la velocidad. En un sistema aislado, sobre el que no actúan fuerzas externas, el momento debe ser constante. En el ejemplo del adulto y el niño en la pista de patinaje, sus velocidades iniciales son cero, por lo que el momento inicial del sistema es cero. Durante la interacción operan fuerzas internas entre el 2 Acreditalo ® Derechos Reservados adulto y el niño, pero la suma de las fuerzas externas es cero. Por tanto, el momento del sistema tiene que seguir siendo nulo. Después de que el adulto empuje al niño, el producto de la masa grande y la velocidad pequeña del adulto debe ser igual al de la masa pequeña y la velocidad grande del niño. Los momentos respectivos son iguales en magnitud pero de sentido opuesto, por lo que su suma es cero. Otra magnitud que se conserva es el momento angular o cinético. El momento angular de un objeto en rotación depende de su velocidad angular, su masa y su distancia al eje. Cuando un patinador da vueltas cada vez más rápido sobre el hielo, prácticamente sin rozamiento, el momento angular se conserva a pesar de que la velocidad aumenta. Al principio del giro, el patinador tiene los brazos extendidos. Parte de la masa del patinador tiene por tanto un radio de giro grande. Cuando el patinador baja los brazos, reduciendo su distancia del eje de rotación, la velocidad angular debe aumentar para mantener constante el momento angular. Un libro colocado sobre una mesa es atraído hacia abajo por la atracción gravitacional de la Tierra y es empujado hacia arriba por la repulsión molecular de la mesa. Como se ve se cumplen todas las leyes de Newton. Cuarta ley de Newton (gravitación) Fg = G.m1.m2 / r ² La fuerza entre dos partículas de masas m1 y m2 y, que están separadas por una distancia r, es una atracción que actúa a lo largo de la línea que une las partículas, en donde G es la constante universal que tiene el mismo valor para todos los pares de partículas. En 1798 Sir Henry Cavendish realizó la primera medición experimental de la constante G utilizando para ello una balanza de torsión. El valor aceptado actualmente es: G = 6,67.10-11 N.m²/kg² Fuerza elástica: Una fuerza puede deformar un resorte, como alargarlo o acortarlo. Cuanto mayor sea la fuerza, mayor será la deformación del resorte (Δx), en muchos resortes, y dentro de un rango de fuerzas limitado, es proporcional a la fuerza: Fe = -k. Δx k: Constante que depende del material y dimensiones del resorte. Δx: Variación del resorte con respecto a su longitud normal. Fuerza normal: Fuerza normal al plano e igual pero de sentido contrario a la componente normal al plano, de la fuerza peso. N = cos α.m.g Fuerza de rozamiento: Fuerza aplicada y contraria al movimiento y que depende de la calidad de la superficie del cuerpo y de la superficie sobre la cual se desliza. 3 Acreditalo ® Derechos Reservados Fr = μ.N μ :Coeficiente de rozamiento. Fuerza de rozamiento estática: fuerza mínima a vencer para poner en movimiento un cuerpo. Fuerza de rozamiento cinética: fuerza retardadora que comienza junto con el movimiento de un cuerpo. En el caso de deslizamiento en seco, cuando no existe lubricación, la fuerza de rozamiento es casi independiente de la velocidad. La fuerza de rozamiento tampoco depende del área aparente de contacto entre un objeto y la superficie sobre la cual se desliza. El área real de contacto (la superficie en la que las rugosidades microscópicas del objeto y de la superficie de deslizamiento se tocan realmente) es relativamente pequeña. Cuando un objeto se mueve por encima de la superficie de deslizamiento, las minúsculas rugosidades del objeto y la superficie chocan entre sí, y se necesita fuerza para hacer que se sigan moviendo. El área real de contacto depende de la fuerza perpendicular entre el objeto y la superficie de deslizamiento. Frecuentemente, esta fuerza no es sino el peso del objeto que se desliza. Si se empuja el objeto formando un ángulo con la horizontal, la componente vertical de la fuerza dirigida hacia abajo se sumará al peso del objeto. La fuerza de rozamiento es proporcional a la fuerza perpendicular total. Centro de gravedad En cuanto al tamaño o peso del objeto en movimiento, no se presentan problemas matemáticos si el objeto es muy pequeño en relación con las distancias consideradas. Si el objeto es grande, se emplea un punto llamado centro de masas, cuyo movimiento puede considerarse característico de todo el objeto. Si el objeto gira, muchas veces conviene describir su rotación en torno a un eje que pasa por el centro de masas. El centro de gravedad o baricentro o centro de masas, es un punto donde puede suponerse encontrada todo el área,peso o masa de un cuerpo y tener ante un sistema externo de fuerzas un comportamiento equivalente al cuerpo real. PRESION Las fórmulas espantan, generalmente porque hay que pensar mucho y porque cuesta entenderlas. Los invitamos a hacer un pequeño esfuerzo para entender una. Es una tarea que vale la pena: La letra P indica presión y se define como la fuerza (F) aplicada sobre una determinada superficie (S). En realidad no se trata de una ley, es solo una definición. Si no sabés como leer una fórmula puede aprender fácilmente. Observá que si el valor de la superficie crece, la presión disminuye. Pero si el valor de la superficie decrece, la presión aumenta. Los valores de P y S se comportan como niños en los extremos de un sube y baja; cuando uno sube, el otro baja y viceversa. Por último la presión se mide, por ejemplo, en Kg/cm ². Vemos en acción esta fórmula en muchos casos en el mundo cotidiano. Contacto Cuando usted empuja algo, la fuerza que está haciendo se distribuye en toda la superficie de contacto entre su mano y el objeto. Cuanto más superficie de contacto haya, menor será la presión. Empujar apoyando ambas manos disminuye la presión sobre las misma y sobre el propio objeto. Por ejemplo, si cierra el puño y prueba presionar contra una pared, sentirá mayor dolor que al empujar con la palma. Esto no es solo porque la palma es blanda y el puño expone los huesos, sino que también se debe a que el puño hace contacto en una menor superficie y concentra más la fuerza aplicada. Por esta razón los que practican las artes marciales hacen flexiones con los nudillos en lugar de usar la mano entera. El mismo peso se distribuye de maneras distintas en ambos casos; más concentrado en el puño, más disperso en la mano. 4 Acreditalo ® Derechos Reservados Todos los golpes duros de las artes marciales buscan disminuir la superficie de contacto para concentrar la fuerza; así se pega con el metatarso (pie),nudillos, punta de los dedos, etc. Calzado ¿Qué sucede si una dama con tacos altos quiere caminar sobre un terreno fangoso? Seguramente se hundirá, es que todo su peso se concentra en la pequeña superficie de apoyo que le brinda ese par de zapatos. Para evitar hundirse, debe aumentar la superficie de apoyo. Recuerde que aumentando esa variable disminuye la presión (como en el sube y baja). Por esta razón tanto las raquetas (zapatos) para nieve como los esquís buscan aumentar la superficie de contacto para disminuir la presión de apoyo y así no hundirse en la nieve. Pero a veces se persigue el fin opuesto. Pensando en los tacos altos se puede ver que unos zapatos así servirían si lo que se busca es justamente hundirse en el terreno. Es el caso de los botines de fútbol. También es el caso de los zapatos de alpinista, hechos con puntas filosas en la base que se aferran al resbaloso hielo. Esas puntas reducen al mínimo la superficie de contacto aumentando al máximo la presión. El resultado es un gran agarre en el hielo. Puntas agudas Cuando tomamos un tenedor, no pensamos que lo que hace que el mismo pinche es justamente la menor superficie de apoyo de sus puntas. Toda la fuerza se concentra en esos cuatro puntos. Un clavo concentra toda la fuerza del golpe dado en su cabeza sobre su punta, al igual que las tachuelas. La cabeza chata de las chinches permite hacer fuerza sobre ella y concentrarla en un solo punto, el de apoyo. El principio es similar al de los clavos, pero la amplia superficie de la cabeza permite hacer fuerza con los propio dedos sin lastimarse. En el caso de los alfileres, como están destinados para atravesar cosas blandas como tela,a lo sumo papel, la fuerza requerida no es muy grande, y alcanza una pequeña cabeza para evitar que el alfiler se clave en el dedo que empuja. El filo del cuchillo presenta el mismo principio de disminución de la superficie para aumentar la presión. Podemos pensar en muchos otros objetos del estilo, como ser espadas, flechas, escarbadientes, arpones, el aparato bucal de los mosquitos para picar, las estacas y más. Analicemos dos casos interesantes Arados: Los arados, sean arrastrados por animales o máquinas, tienen un gran peso y una mínima superficie de apoyo en sus cuchillas porque la idea es justamente que se introduzcan en tierra para removerla. 5 Acreditalo ® Derechos Reservados Patines para hielo: La cuchilla de estos patines parece contradecir el principio que venimos viendo. ¿No se usan acaso zapatos afilados para agarrarse en el hielo? Es verdad, pero nos falta considerar dos pequeñas cosas. La primera es que se trata de un filo, no de una aguja. El filo tiene libertad de moverse longitudinalmente pero no a los lados (como el caso del cuchillo), así que el agarre del patín sobre el hielo evitará que se deslice de costado. Y segundo, hay algo que decir sobre el hielo. Cuando este es presionado, se derrite momentáneamente. Disminuyendo la superficie de apoyo del patinador en solo dos cuchillas, se aumenta mucho la presión sobre el hielo,obligando al mismo que se encuentra bajo las cuchillas a derretirse un poco. Esto lo torna sumamente resbaladizo y le permite deslizarse suavemente. Cuando la cuchilla se retira del lugar el agua formada rápidamente vuelve a congelarse dado que regresa a su presión normal. Transporte El peso de un automóvil (que es una fuerza) se distribuye en una superficie de apoyo que no es toda la rueda,sino solo la parte en contacto con el suelo. Las ruedas vienen a ser como los calzados de los automóviles. El número elevado de ruedas en un transporte pesado busca disminuir la presión sobre el pavimento. También se puede reforzar ese efecto aumentando el tamaño de las mismas, lo que aumenta la superficie de contacto, o haciéndolas más anchas (patonas). En estos casos entran los ómnibus, camiones y vehículos todo terreno. Si decimos que las ruedas son los zapatos de los transportes, ¿Qué clase de rueda se parecería al esquí? El esquí busca aumentar la superficie para disminuir la presión y no hundirse en la nieve. El equivalente en "ruedas" es la llamada oruga. Se trata de una cinta sinfín con numerosas y pequeñas ruedas en el interior que distribuyen el peso sobre esa cinta. Las orugas son tan útiles para transportes en la nieve como en el barro o terrenos pantanosos; hablamos de los camiones de la Antártida,de tanques de guerra o máquinas para la construcción. 6 Acreditalo ® Derechos Reservados Las cadenas que se agregan a los vehículos para circular en caminos helados, no mejoran el asunto de la presión pero sí el del agarre. Equivaldría a hablar de zapatos de alpinista. ¿Existe algún transporte que busque minimizar el apoyo para ejercer una fuerte presión sobre la base? Parecería ridículo que exista algo así pues se hundiría y no podría avanzar. Si juntamos dos metales, estos deslizarán entre sí. Pero si entre ambos la presión se hace muy fuerte, habrá adherencia, y la misma es la base de cualquier transporte, por ejemplo entre la goma y el asfalto. Una rueda que no se adhiera al camino no serviría como transporte. Pero para construir algo así debería haber carreteras cubiertas de metal, los vehículos tendrían ruedas metálicas y deberían pesar mucho para lograr la adherencia rueda carretera. Resolver: 1) Una fuerza de 10 kgf actúa sobre una masa que se desplaza con una velocidad de 20 cm/s y al cabo de 5 s le hace adquirir una velocidad de 8 cm/s, ¿cuál es la masa del cuerpo?. Ver solución al final de ésta página 2) Si la tensión en el cable de un ascensor es de 2800 N, el peso del ascensor es de 300 kgf y transporta a una persona de 80 kgf de peso. Calcular: a) ¿Qué aceleración tiene?. b) ¿El ascensor sube o baja?. Ver solución al final de ésta página 3) Calcular para el sistema de la figura su aceleración y la tensión en la cuerda si m1 = 12 kg, m2 = 8 kg y α = 30°. Ver solución al final de ésta página 4) Con los datos del problema anterior calcular α para que el sistema tenga una aceleración de 3 m/s ². Ver solución al final de ésta página Desarrollo: 1) Datos: F = 10 kgf = 10 kgf.(9,80665 m/s ²)/ 1 kgf = 98,0665 N v1 = 20 cm/s = 20 cm/s.(1 m/100 cm) = 0,2 m/s v2 = 8 cm/s = 8 cm/s.(1 m/100 cm) = 0,08 m/s t=5s De acuerdo a los datos la fuerza le produce a la masa una desaceleración. F = -98,0665 N Primero, empleando ecuaciones de cinemática, calculamos la aceleración (negativa) producida por la fuerza. v2 - v1 = a.t a = (v2 - v1)/t a = (0,08 m/s - 0,2 m/s)/5 s a = -0,024 m/s ² Luego: F = m.a m = F/a m = -98,0665 N/(-0,024 m/s ²) m = 4086,1 kg 2) Datos: 7 Acreditalo ® Derechos Reservados T = 2800 N PA = 300 kgf = 300 kgf.(9,80665 m/s ²)/ 1 kgf = 2942 N PP = 80 kgf = 80 kgf.(9,80665 m/s ²)/ 1 kgf = 784,5 N Se adopta g = 10 m/s ² a) La condición de equilibrio es: ∑F = 0 Pero como hay movimiento: ∑F = m.a La masa es: m = (PA + PP)/g m = (2942 N + 784,5 N)/10 m/s ² m = 372,65 kg Las fuerzas sobre el eje (tomando el eje positivo hacia arriba) son: T - PA - PP = m.a a = (T - PA - PP)/m a = (2800 N - 2942 N - 784,5 N)/372,65 kg a = -2,49 m/s ² b) Como la aceleración del sistema es negativa el ascensor desciende. 3) Datos: m1 = 12 kg m2 = 8 kg α = 30° Se adopta g = 10 m/s ² Los gráficos correspondientes a las masas puntuales son: Nos interesa particularmente el movimiento a lo largo del eje "x", la condición de equilibrio es: ∑ Fx = 0 Pero como hay movimiento: ∑ Fx = m.a La ecuación en el eje "x" es: 8 Acreditalo ® Derechos Reservados P2x - T = m2.a T = P2.sen 30° - m2.a (para la masa 2) T = m1.a (para la masa 1) Igualando: m1.a = P2.sen 30° - m2.a m2 ) m1.a + m2.a = P2.sen 30° a = 8 kg.(10 m/s ²).0,5/(12 kg + 8 kg) a = 40 N/20 kg (m1 + m2).a = P2.sen 30° a = P2.sen 30°/(m1 + a = 2 m/s ² Luego: T = m1.a T = 12 kg.2 m/s ² T = 24 N 4) Datos: m1 = 12 kg m2 = 8 kg a = 3 m/s ² Se adopta g = 10 m/s ² Los gráficos son los mismos del ejercicio n° 3. Para el caso: ∑ Fx = m.a P2x - T = m2.a T = P2.sen α - m2.a (para la masa 2) T = m1.a (para la masa 1) Igualando: m1.a = P2.sen α - m2.a m1.a + m2.a = P2.sen α sen α = (12 kg + 8 kg).(3 m/s ²)/(8 kg.10 m/s ²) α = arcsen 0,75 (m1 + m2).a/P2 = sen α sen α = 0,75 α = 48° 35´ 25" 9 Acreditalo ® Derechos Reservados FISICA – ELECTRODINAMICA CARGAS ELECTRICAS Las cargas en los conductores pueden moverse con cierta libertad. La corriente eléctrica constituye un movimiento continuado de las cargas libres. La cantidad de carga que circula por un conductor en la unidad de tiempo es la intensidad de corriente. Los responsables de mantener la corriente en un circuito eléctrico son los generadores eléctricos, los cuales suministran al circuito la energía precisa para ello. Dos leyes de naturaleza experimental descubiertas por Georg Simon Ohm y James Prescott Joule respectivamente aportan algunas relaciones que facilitan el estudio científico de la corriente eléctrica. La característica esencial de los conductores, sean éstos sólidos, líquidos o gaseosos, consiste en que disponen de partículas cargadas que pueden moverse con bastante libertad bajo la acción de campos eléctricos. Cuando un conductor descargado se pone en contacto con un cuerpo cargado se produce un desplazamiento de la carga del uno a otro por efecto de las fuerzas eléctricas. Si ambos están aislados,el movimiento de las cargas libres durará unos instantes entre tanto el sistema de cargas encuentra una configuración de equilibrio en la cual las fuerzas eléctricas que se ejercen sobre cada una de las cargas se compensan mutuamente. Esto es lo que sucede cuando un hilo metálico se conecta por uno de sus extremos a uno solo de los bornes de una pila. Sin embargo, cuando se conecta el otro extremo del conductor al segundo borne, se produce un movimiento continuado de cargas en el conductor. Se tiene en tal caso una corriente eléctrica. La parte de la física que se ocupa del estudio de este tipo de movimiento de las cargas eléctricas a través de un conductor recibe el nombre de electrocinética. LA CORRIENTE ELECTRICA Movimiento de cargas y corriente eléctrica La presencia de un campo eléctrico permanente en el seno de un conductor es la causa del movimiento continuado de las cargas libres. En términos de potencial puede decirse que para que se mantenga una corriente eléctrica es necesario que exista una diferencia de potencial constante entre los extremos del conductor. Si ésta disminuye por efecto de la circulación de las cargas, el campo eléctrico llega a hacerse nulo y cesa el movimiento. Esta es la situación que corresponde a esos desplazamientos de carga que se producen cuando un conductor aislado se carga o descarga eléctricamente. Debido a su facilidad de manejo, en electrocinética para describir las propiedades del campo en el interior de un conductor se recurre a la noción de diferencia de potencial,también denominada tensión eléctrica porque de ella depende el movimiento de las cargas libres de un punto a otro. El sentido de la corriente eléctrica depende no sólo del signo de la diferencia de potencial, sino también del signo de los elementos portadores de carga o cargas móviles presentes en el conductor. En un conductor metálico los portadores de carga son los electrones (-), por lo que su desplazamiento se producirá del extremo del conductor a menor potencial hacia el extremo a mayor potencias, o en términos de signos desde el polo negativo hacia el positivo. En una disolución salina los portadores de carga son iones tanto positivos como negativos; cuando se somete dicha disolución a una diferencia de potencial constante, como la producida entre los bornes de una pila, se generarán movimientos de carga de sentidos opuestos; las cargas positivas se desplazarán por la disolución del extremo de mayor potencial al de menor potencial,o lo que es lo mismo, del polo positivo de la pila al polo negativo, y las negativas en sentido contrario. Algo semejante sucede en un medio gaseoso ionizado como el que se produce en el interior de un tubo fluorescente o de neón sometido a una diferencia de potencial intensa. Benjamin Franklin fue el primero en asignar un sentido de circulación a la corriente eléctrica en los conductores metálicos. El supuso que era la electricidad positiva la que, como un fluido sutil, se desplazaba por el interior del conductor. Según dicha suposición, la corriente eléctrica circularía del polo positivo al negativo. Más de un siglo después la moderna teoría atómica revelaba que los electrones son los portadores de carga en los metales, de modo que el sentido real de la corriente resulta ser justamente el opuesto al avanzado por Franklin. Por razones históricas y dado que en la electrocinética el sentido de circulación de la corriente no tiene mayor trascendencia, se sigue aceptando como sentido convencional el postulado por Franklin. Sin embargo, en otras partes de la física, como la electrónica, la distinción entre ambos resulta importante. La intensidad de la corriente eléctrica Junto a la idea de movimiento de partículas, la noción de corriente eléctrica lleva asociada la de transporte de carga eléctrica de un punto a otro. La importancia de dicho transporte en términos de 10 Acreditalo ® Derechos Reservados cantidad se expresa mediante la magnitud intensidad de corriente eléctrica que se define como la carga total que circula por el conductor en la unidad de tiempo. En forma de ecuación se puede escribir como: I = q/t (10.1) La unidad de intensidad de corriente en el SI recibe el nombre de ampere (A) por el científico André Marie Ampere y equivale a un transporte de carga que se produzca a razón de 1 coulomb (C) en cada segundo (s),1 A = 1 C/s. En un metal, en donde la corriente eléctrica es debida únicamente al movimiento de electrones, sólo el transporte de carga negativa contribuye al valor de la intensidad. En las disoluciones iónicas, al ser conducida la corriente tanto por iones positivos como negativos, se produce una doble contribución de ambos tipos de carga a la intensidad de corriente eléctrica. Voltímetro y amperímetro El galvanómetro, cuyo nombre honra a Galvani, aprovecha el efecto magnético de la corriente eléctrica. Consta, en esencia, de un imán entre cuyos polos se dispone una bobina que puede girar sobre un eje dispuesto perpendicularmente al plano del imán. Una aguja solidaria con el bastidor de la bobina hace visible, sobre una escala graduada, el posible movimiento de aquélla. Este movimiento se halla impedido en ausencia de corriente por dos muelles recuperadores o resortes en espiral Cuando se hace pasar una corriente por la bobina, aparece una fuerza magnética entre la bobina y el imán que desvía la aguja de su posición inicial tanto más cuanto mayor es la intensidad de corriente. Un amperímetro se utiliza para medir intensidades y consiste, básicamente, en un galvanómetro con un shunt o resistencia en paralelo con la bobina, de magnitud lo suficientemente pequeña como para conseguir que prácticamente toda, la corriente se desvíe por ella y que el aparato de Medida perturbe lo menos posible las condiciones del circuito. Los amperímetros se conectan en serie con el circuito, es decir, se intercalan entre los puntos en donde se desea medir la intensidad. Un voltímetro se utiliza para medir diferencias de potencial entre dos puntos cualesquiera y viene a ser un galvanómetro con una importante resistencia asociada en serie con él. El conjunto se conecta en paralelo o derivación entre los puntos cuya diferencia de potencial se desea medir. Si la resistencia total del voltímetro es mucho mayor que la del circuito, entre tales puntos la corriente se derivará en su mayor parte por el tramo que ofrece menor resistencia a su paso y sólo una fracción de ella atravesará el voltímetro. Con ello se logra que la perturbación que introduce en el circuito el aparato de medida sea despreciable. Aplicación del concepto de intensidad de corriente Por una bombilla de 40 W conectada a la red de 220 V circula una corriente de intensidad aproximadamente igual a 0,2 A. ¿Durante cuánto tiempo ha de estar conectada la bombilla para que a través de ella haya pasado una carga de 4,5 C? ¿Cuántos electrones habrán circulado por la bombilla en ese intervalo?. La expresión que define la magnitud intensidad de corriente viene dada por: I = q/t t = q/i sustituyendo se tiene: t = 4,5 C/0,2 A t = 22,5 s Para averiguar el número de electrones que han circulado por la bombilla es preciso saber que 1 18 coulomb equivale a 6,27x10 veces la carga del electrón. Si en el intervalo de tiempo considerado han 18 19 circulado 4,5 C, el número de electrones resulta ser: número de e =4,5 C.6,27.10 e /C = 2,8.10 e GENERADORES ELECTRICOS El movimiento de los electrones por un conductor metálico como consecuencia de una diferencia de potencial entre sus extremos puede compararse con el flujo de agua entre depósitos situados a diferente altura y conectados mediante una tubería. Cuando se llena el depósito superior el agua desciende, pero dicho movimiento dura sólo en tanto se mantiene una diferencia entre los niveles de agua en ambos depósitos. Para mantener el agua en continua circulación es necesario intercalar una bomba que eleve de nuevo el agua desde el depósito inferior al superior. El papel de la bomba en dicho circuito hidráulico es el de comunicar a la masa de agua que lo atraviesa la energía suficiente como para salvar la diferencia de altura entre los dos depósitos, lo que equivale de hecho a mantener constante la diferencia de niveles del agua entre ambos depósitos aun a pesar del flujo continuo que los atraviese. Para mantener una corriente eléctrica en un conductor es preciso que exista una diferencia de potencial constante entre sus extremos; hace falta, pues, un dispositivo que juegue un papel análogo al de la bomba en el circuito hidráulico. Dicho dispositivo recibe el nombre de generador.Una asociación de conductores con un generador constituye un circuito eléctrico en donde puede tener lugar un movimiento continuado de cargas. El generador mantiene constante la diferencia de potencial entre dos puntos del circuito, o dicho en otros términos, genera un campo eléctrico en el conductor que es el responsable de la corriente. Fuerza electromotriz de un generador La fuerza electromotriz es la magnitud que caracteriza el comportamiento del generador en un circuito eléctrico. En el caso de una bomba hidráulica la potencia mecánica representa la energía que suministra al circuito por unidad de tiempo. En los circuitos eléctricos se define la fuerza electromotriz de un generador y se representa mediante la letra ε, como la energía que cede el generador al circuito por 11 Acreditalo ® Derechos Reservados cada unidad de carga que lo atraviesa y que se invierte en incrementar su energía potencial eléctrica. Cada carga al pasar por el generador recibe una dosis de energía que podrá gastar después en su recorrido a lo largo del circuito. Con frecuencia, se emplean las iniciales f.e.m. para designar esta magnitud, que siendo una energía se la denomina impropiamente fuerza. Según su definición la f.e.m. se expresará en unidades de energía partido por unidades de carga. Este es también el caso de las magnitudes potencial y diferencia de potencial. Por tal motivo su unidad en el SI es el volt. Tipos de generadores El tipo de generadores más conocido es el generador químico, al cual pertenece la pila eléctrica o pila seca. Transforma energía producida en ciertas reacciones químicas en energía eléctrica capaz de mantener una diferencia de potencial constante entre sus polos o bornes. Una pila cinc-carbón, como las que se emplean para alimentar un aparato de radio portátil, está formada por dos elementos o electrodos de diferentes sustancias. Uno es de cinc y tiene forma de envoltura cilíndrica, el otro es una barrita de carbón. Entre ambos existe una pasta intermedia o electrolito que contribuye al proceso de generación de tensión. La reacción química que se produce en el electrodo de cinc libera electrones, con lo que éste se convierte en un polo negativo (cátodo); la que se produce en el electrodo de carbón da lugar a una disminución de electrones, resultando de signo positivo (ánodo). La tensión producida por una pila es constante y al aplicarla sobre un circuito eléctrico produce una corriente continua. Este tipo de corriente se caracteriza porque el sentido del movimiento de los portadores de carga se mantiene constante. La pila de combustible es otro tipo de generador químico de uso frecuente en el suministro de energía eléctrica a naves espaciales. Recibe este nombre porque las sustancias que participan en las correspondientes reacciones químicas son, en parte, introducidas desde el exterior como si de un combustible se tratara. Una pila de combustible típica es la que se basa en las reacciones hidrógenooxígeno que se producen con pérdida de electrones en un electrodo y ganancia en el otro, dando lugar a una diferencia de potencial capaz de producir una corriente eléctrica exterior. Un termopar es un generador termoeléctrico que transforma calor en electricidad. Se produce cuando dos hilos conductores unidos entre sí por sus extremos respectivos se someten a una diferencia de temperatura, sumergiendo una de las soldaduras en hielo fundente y aplicando a la otra la llama de un mechero. Entre ambos puntos se genera una diferencia de potencial que aumenta con la temperatura y puede detectarse con un aparato de medidas eléctricas. Dicho efecto generador de electricidad conocido como efecto Seebeck se emplea principalmente en la medida de temperaturas. La célula fotovoltaica es un generador que transforma la energía luminosa en energía eléctrica. Se basa en la, capacidad de los semiconductores para conducir la electricidad en un sentido dado, pero no en el opuesto. Al incidir la luz sobre la célula, arranca algunos electrones de sus átomos, electrones que se acumulan en una región determinada a expensas de la pérdida de electrones en la región opuesta. Estas dos regiones constituyen los polos negativo y positivo, respectivamente, de la célula cuya diferencia de potencial se mantendrá constante en tanto no varíe la intensidad luminosa que alcanza su superficie. El generador electromagnético se basa en el fenómeno de la inducción electromagnética. Cuando un conductor cerrado se hace girar en el seno del campo magnético producido por un imán se genera en su interior una diferencia de potencial capaz de producir una corriente eléctrica. Es el tipo de generador denominado alternador que se emplea en las grandes plantas de producción de energía eléctrica. En ellas, diferentes formas de energía, cuya naturaleza depende del tipo de central, se invierten en mover grandes bobinas de conductores, haciéndolas girar en el seno de campos magnéticos. De este modo se producen tensiones eléctricas entre sus bornes cuya polaridad positiva/negativa, se invierte alternativamente con el tiempo a razón de cincuenta veces en cada segundo. Cuando esta tensión se aplica a un circuito eléctrico, produce en él una corriente alterna que se caracteriza por una inversión alternativa, con idéntica frecuencia, del sentido del movimiento de los portadores de carga. LA LEY DE OHM Diferencia de potencial e intensidad de corriente En un conductor el movimiento de cargas eléctricas es consecuencia de la existencia de una tensión eléctrica entre sus extremos. Por ello la intensidad de corriente que circula por el conductor y la tensión o diferencia de potencial deben estar relacionadas. Otros fenómenos de la física presentan una cierta semejanza con la conducción eléctrica; así el flujo de calor entre dos puntos depende de la diferencia de temperaturas entre ellos y la velocidad de caída de un cuerpo por un plano inclinado es función de la diferencia de alturas. Ese tipo de analogías, y en particular la relativa a la conducción del calor, sirvió de punto de partida al físico alemán Georg Simon Ohm (1787-1854) para investigar la conducción eléctrica en los metales. En 1826 llegó a establecer que en los conductores metálicos el cociente entre la diferencia de potencial entre sus extremos y la intensidad de corriente que lo atraviesa es una cantidad constante, o en otros términos, que ambas magnitudes son directamente proporcionales. Esta relación de proporcionalidad directa entre tensión e intensidad recibe el nombre de ley de Ohm. Representando, como es habitual en electrocinética,la tensión eléctrica por V y no por Δ V, la ley de Ohm se puede escribir en la forma: I = G.V (10.2) 12 Acreditalo ® Derechos Reservados donde G es una constante característica de cada conductor que recibe el nombre de conductancia. Curva característica de un conductor y concepto de resistencia Se denomina curva característica I-V de un conductor a la línea que se obtiene cuando se representa gráficamente la variación de la intensidad de corriente I que atraviesa un conductor con la diferencia de potencial o tensión V aplicada entre sus extremos. Su forma es característica de cada conductor,de ahí su nombre. La determinación experimental de una curva característica se efectúa mediante un montaje que permita aplicar a los extremos de un conductor cualquiera una tensión variable y que a la vez haga posible la medida tanto de la tensión aplicada como de la intensidad de corriente que constituye la respuesta del conductor. Algunas curvas características I-V son lineales, lo que equivale a decir que en sus conductores correspondientes ambas magnitudes eléctricas son directamente proporcionales. Esto es lo que viene a establecer la ley de Ohm para los conductores metálicos. En la curva característica I-V de un conductor metálico la pendiente de la gráfica coincide con la constante de G que, de acuerdo con su definición, constituye una medida de la aptitud para la conducción eléctrica del cuerpo considerado. Cuanto mayor sea G, mayor será la inclinación de la característica I-V y, por tanto, mayor la intensidad que circulará por el conductor para una misma diferencia de potencial. La inversa de la conductancia G se denomina resistencia eléctrica y se representa por la letra R: R = 1/G Desde un punto de vista físico, la resistencia R de un conductor constituye una medida de la oposición que presenta éste al paso de la corriente eléctrica. En los metales los electrones han de moverse a través de los átomos de la estructura cristalina del propio metal. Tales obstáculos al movimiento libre de las cargas contribuyen, en su conjunto, al valor de la resistencia R. La expresión (10.2) puede escribirse, haciendo intervenir a la resistencia, en la forma: V = I.R (10.3) que constituye la expresión más conocida de la ley de Ohm. A partir de la ecuación anterior se define el ohm (Ω) como unidad de resistencia eléctrica en la forma: 1 ohm (Ω) = 1 volt (V)/1 ampere (A) El hecho experimentalmente observado de que no todos los conductores posean características I-V rectilíneas indica que no todos cumplen la ley de Ohm. Es ésta, por tanto, una ley de carácter restringido que sólo puede aplicarse a cierto tipo de conductores llamados óhmicos. En los no óhmicos la resistencia no tiene un valor constante, sino que éste depende de la tensión que se aplique entre los extremos del conductor. Resistividad y conductividad Experimentos con hilos metálicos de diferentes longitudes y grosores llevaron a Ohm a establecer el concepto de resistencia al observar que la intensidad I de corriente era inversamente proporcional a la longitud l del conductor y directamente proporcional a su sección S o grosor. Cuando este descubrimiento se combina con la relación de proporcionalidad inversa entre R e I resulta la relación: R = ρ .l/s (10.4) donde ρ es una constante característica del tipo de metal que constituye el hilo conductor considerado. Dicha constante se denomina resistividad y equivale a una resistencia específica referida a una longitud y sección unidad. Se expresa en ohm x metro (Ω.m). La inversa de la resistividad recibe el nombre de -1 -1 conductividad y se representa por la letra σ (σ = 1/ ρ) . Se expresa en Ω .m y caracteriza el comportamiento de un material como conductor eléctrico. En los metales, σ toma valores del orden de 107 Ω-1.m-1 y en los aisladores típicos como el vidrio o la parafina alcanza 10-14 en el primer material y 107 Ω-1.m-1 en el segundo. Los materiales semiconductores presentan valores de σ intermedios. El significado energético de la ley de Ohm Dado que la diferencia de potencial V constituye una energía por unidad de carga, la ley de Ohm puede ser interpretada en términos de energía. Las colisiones de los electrones en los metales con los nudos de la red cristalina llevan consigo una disipación de energía eléctrica. Dicho fenómeno es el responsable de la pérdida o caída de potencial V que se detecta, en mayor o menor medida, entre los extremos de un conductor, e indica que cada unidad de carga pierde energía al pasar de uno a otro punto a razón de V julios por cada coulomb de carga que lo atraviese. Si se aplica el principio general de conservación de la energía a los fenómenos eléctricos, la ley de Ohm, definida por la expresión (10.3), puede ser considerada como una ecuación de conservación en donde el primer miembro representa la energía perdida en el circuito por cada unidad de carga en movimiento y el segundo la energía cedida al exterior por cada coulomb que circula entre los puntos considerados. Comprobación experimental de la ley de ohm Cuando entre los extremos de un conductor se establece una diferencia de potencial V, aparece en él una corriente eléctrica de intensidad i que lo atraviesa. Dado que I es consecuencia de V, debe existir una relación entre sus valores respectivos. Para conductores metálicos dicha relación es lineal o de 13 Acreditalo ® Derechos Reservados proporcionalidad directa y constituye la ley de Ohm. La comprobación experimental de la ley de Ohm pueda efectuarse con la ayuda de los siguientes medios: una fuente de f.e.m. cuya tensión de salida pueda graduarse a voluntad, una resistencia metálica que hará las veces de conductor, problema cuyo comportamiento se desea estudiar, un voltímetro,un amperímetro y cables de conexión. Con la ayuda de un montaje determinado se modifica la tensión de salida de la fuente actuando sobre el mando circular o potenciómetro. Para cada posición del potenciómetro se efectúan sendas lecturas en el voltímetro y el amperímetro. Se ordenan las parejas de valores I/V correspondientes en una tabla y a continuación se representan en una gráfica. Dentro del error experimental,los puntos de la gráfica se ajustarán a una recta que pasa por el origen, indicando así una relación de proporcionalidad directa entre intensidad y tensión. La obtención de tal relación lineal constituirá una comprobación de la ley de Ohm. LA SUPERCONDUCTIVIDAD La superconductividad es una propiedad que presentan algunos materiales sometidos a ciertas condiciones especiales, de conducir la electricidad sin oponer ninguna resistencia y, por tanto, sin disipar energía por efecto Joule. Aun cuando el fenómeno de la superconductividad fue descubierto por Onnes en 1911, hasta hace sólo unos años resultaba necesario, para conseguir tal propiedad, someter a ciertos metales a temperaturas próximas al cero absoluto (- 273 °C). Investigaciones recientes han conseguido sintetizar materiales de tipo cerámica capaces de convertirse en superconductores a temperaturas mucho más altas. La desenfrenada carrera científica que se ha desatado en este campo permite albergar la esperanza de conseguir, a corto plazo, materiales superconductores a temperaturas muy próximas a la ambiente. La importancia de este logro científico puede resultar decisiva en un buen número de aplicaciones técnicas. Cabe destacar la posibilidad de fabricar electroimanes a base de superconductores con un costa reducido, lo cual abarataría la construcción de algunos sofisticados aparatos de diagnóstico médico que emplean potentes imanes, facilitaría la producción de la energía del futuro y permitiría construir medios de transporte terrestre ultrarrápidos y económicos basados en la sustentación o levitación magnética. Un tren experimental alemán de estas características ha conseguido una velocidad de 406 km/h. Este tipo de trenes, al desplazarse sin entrar en contacto con el suelo, evitan los efectos indeseables del rozamiento y equivalen a aviones que se muevan en vuelo rasante. POTENCIA Potencia y energía de un generador La energía eléctrica We que suministra un generador al circuito eléctrico depende de la cantidad de carga que lo atraviese. Dado que la fuerza electromotriz de un generador representa la energía que suministra al circuito por cada unidad de carga que lo atraviesa, se podrá escribir: Energía total suministrada = Energía x carga / carga es decir: We = q. ε Pero de acuerdo con la definición de intensidad eléctrica,la carga eléctrica q se puede escribir como el producto de la intensidad por el tiempo (10.1); luego la energía eléctrica suministrada por el generador al circuito en un tiempo t vendrá dada por la expresión: We = ε .i.t (10.5) La potencia P de un generador representa la energía eléctrica que cede al circuito por unidad de tiempo: P = We/t (10.6) Combinando las anteriores ecuaciones resulta para P la expresión: P = ε .i (10.7) Al igual que la potencia mecánica, la potencia eléctrica se expresa en watts (W). Efectos caloríficos de la corriente eléctrica. Ley de Joule El calentamiento de los conductores por el paso de la corriente eléctrica fue uno de los primeros efectos observados por los científicos estudiosos de los fenómenos eléctricos,sin embargo, habría de pasar algún tiempo antes de que se conociera la magnitud de tal efecto calorífico y los factores de los que depende. James Prescott Joule (1818-1889) se interesó desde joven en la medida de temperaturas de motores eléctricos,lo que le permitió hacia 1840 encontrar la ley que rige la producción de calor por el paso de una corriente eléctrica a través de un conductor. La ley de Joule establece que la cantidad de calor producida es directamente proporcional a la resistencia R del conductor, al cuadrado de la intensidad de corriente I que lo atraviesa y al tiempo t. Es decir: Q = I ².R.t (10.8) El efecto calorífico, también llamado efecto Joule, puede ser explicado a partir del mecanismo de conducción de los electrones en un metal. La energía disipada en los choques internos aumenta la 14 Acreditalo ® Derechos Reservados agitación térmica del material, lo que da lugar a un aumento de la temperatura y a la consiguiente producción de calor. La ley de Joule, por su parte, puede ser enfocada como una consecuencia de la interpretación energética de la ley de Ohm. Si I.R representa la energía disipada por cada unidad de carga, la energía total que se disipa en el conductor en forma de calor, cuando haya sido atravesado por una carga q, será: Q = q.I.R Pero dado que q = I.t, se tiene finalmente: Q = I ².R.t que es precisamente la ley de Joule. La potencia calorífica representa el calor producido en un conductor en la unidad de tiempo. Su expresión se deduce a partir de la ley de Joule en la forma: P = Q/t = i ².R.t/t = i ².R (10.9) Puesto que el calor es una forma de energía, se expresa en joules (J) y la potencia calorífica en watts (W). Cuando se combinan las ecuaciones (10.9) y (10.3) resulta otra expresión para la potencia eléctrica consumida en un conductor: P = I.R.I = I.V Fuerza electromotriz y diferencia de potencial (10.10) La noción de fuerza electromotriz de un generador como energía que comunica el circuito por cada unidad de carga que lo atraviesa, está referida a un generador ideal o puro. En tal caso toda la energía que produce el generador la cede íntegramente al circuito, por lo cual la fuerza electromotriz ε coincide exactamente con la diferencia de potencial V constante que mantiene entre sus bornes: ε=V (10.11) En realidad, una pila, una batería o un alternador son en sí mismos elementos conductores que forman parte del circuito por donde pasa la corriente y en mayor o menor medida oponen, como tales, una cierta resistencia al movimiento de las cargas. Ello significa que el generador, al formar parte del circuito, se calienta y disipa, por tanto, una cierta cantidad de calor. La idea de balance de energía a la que equivale la interpretación de la ley de Ohm en términos energéticos puede entonces extenderse al caso de un generador con el propósito de encontrar la relación entre ε y V en esta nueva situación. Aplicando la conservación de la energía por unidad de carga a los extremos del generador, se tiene: Energía disponible por unidad de carga = Energía producida por el generador por unidad de carga Energía disipada por efecto Joule por unidad de carga que en forma de símbolos resulta ser: V = ε - i.r (10.12) Esta ecuación se conoce como ley de Ohm generalizada a un generador y permite determinar la diferencia de potencial que es capaz de mantener entre sus bornes un generador real, esto es, con resistencia interna r no despreciable. Aplicación de la ley de joule La ley de Joule permite calcular la energía disipada en forma de calor en un conductor. Su expresión matemática es Q = I ².R.t, siendo R la resistencia en ohms, I la intensidad de corriente en amperios y t el tiempo en segundos. Para elevar la temperatura del agua en 1 °C se necesitan 4,2 J por cada gramo. Se trata de determinar, aplicando la ley de Joule,el valor de la resistencia eléctrica que debe tener un calentador eléctrico para que, conectado a un enchufe de 220 V,sea capaz de elevar la temperatura de un litro de agua de 15 °C a 80 °C en cinco minutos. La energía calorífica necesaria para elevar la temperatura del agua de 15 °C a 80 °C será: 5 Q = 1 kg.(80 °C - 15 °c).4,2 J/kg °C = 2,73.10 .J pues un litro de agua corresponde a un kilogramo de masa y 4,2 representa el calor en joules por gramo y grado centígrado (calor específico). Dado que se dispone del valor de la tensión, pero no de la Intensidad, será necesario transformar la ley de Joule de modo que en la fórmula correspondiente aparezca aquélla y no ésta. Recurriendo a la ley de Ohm V = i.R se tiene: Q = (V/R) ².R.t = V ².t/R Despejando R y sustituyendo los valores conocidos resulta: 5 R = V ².t/Q = (220 V) ².300 s/2,73.10 J = 53,2.Ω Aplicación del concepto de potencia eléctrica En una bombilla ordinaria puede leerse la inscripción 60 W-220 V. Con estos datos se trata de determinar: a) la intensidad de corriente que pasa por la bombilla cuando está conectada a la red. b) El valor en Ω de su resistencia eléctrica. c) La energía eléctrica expresada en joules y en kW-h que consume al cabo de dos horas de estar encendida. 15 Acreditalo ® Derechos Reservados La potencia eléctrica P consumida en una resistencia puede expresarse bien en la forma P = I.V siendo I la intensidad de corriente , V la caída de potencial entre sus extremos, bien en la forma P = I ². R que combina la anterior ecuación con la ley de Ohm V = I.R. a) El valor de la intensidad se obtiene a partir de la primera ecuación sustituyendo los datos que aparecen grabados en la bombilla: P = i.V i = P/V = 60 W/220 V 0,27 A b) El valor de la resistencia puede calcularse, bien utilizando la segunda expresión de la potencia, bien a partir de la ley de Ohm: V = i.R R = V/i = V ²/P = (220 V) ²/60 W 807Ω c) El valor de la energía eléctrica consumida en joules resulta de aplicar la noción de potencia como energía por unidad de tiempo: P = We/t We = P.t Dado que cada hora consta de 3 600 segundos, resulta: 5 We = 60.2.3600 = 4,32.10 .J - Recordando que 1 W = 10 ³ kW, el resultado en kW-h vendrá dado por: We = 60.10-³.kW.2.h = 0,12.kW.h Circuitos de corriente continua Un circuito eléctrico está formado por la asociación de una serie de elementos conductores que hacen posible el mantenimiento por su interior de una corriente eléctrica. Si los generadores producen una diferencia de potencial constante entre sus bornes o polos, la corriente producida será continua. Tal es el caso de las pilas y de las baterías. En los circuitos de corriente continua pueden distinguirse básicamente dos tipos de elementos, los generadores y los receptores. Los primeros aportan al circuito la energía necesaria para mantener la corriente eléctrica, los segundos consumen energía eléctrica y, o bien la disipan en forma de calor,como es el caso de las resistencias, o bien la convierten en otra forma de energía, como sucede en los motores. Una pila en un circuito eléctrico se representa mediante el símbolo: que refleja la polaridad del generador. Una resistencia se representa por el símbolo: Para simplificar el estudio, se supone que las magnitudes o parámetros característicos de estos elementos se concentran en los puntos del circuito donde se representan. Así,la resistencia de los cables de conexión o se desprecia o se supone concentrada en un punto como si se tratara de un elemento de circuito más. El estudio cuantitativo de los circuitos eléctricos de corriente continua se efectúa como una aplicación de dos principios básicos: El principio de conservación de la energía referido a la unidad de carga eléctrica, según el cual en todo el circuito, o en cualquier tramo de él, la energía que pierde la corriente eléctrica es igual a la energía cedida por el circuito al exterior. Es, en esencia, la ley de Ohm generalizada e interpretada como balance de energías. El principio de no acumulación de cargas, que indica que las cargas no pueden acumularse. Eso significa que si no hay bifurcaciones, la intensidad de corriente es la misma en todo el circuito, y si las hay, la intensidad de corriente que entra en un nudo o punto de bifurcación ha de ser igual a la suma de las que salen de él. Tales principios se conocen también como leyes de Kirchhoff. Asociación de resistencias Existen dos modos fundamentales de conectar o asociar las resistencias entre sí, en serie y en paralelo o derivación. En la asociación en serie las resistencias se conectan una tras otra de modo que por todas ellas pasa la misma intensidad de corriente. En la asociación en paralelo la conexión se efectúa uniendo los dos extremos de cada una de ellas a un mismo par de puntos. En este caso la diferencia de potencial entre los extremos de cualquiera de las resistencias asociadas es la misma, pero, de acuerdo con el principio de no acumulación de cargas, la intensidad total que llega al nudo o punto de bifurcación se reparte entre ellas. Se denomina resistencia equivalente de una asociación de resistencias a aquella resistencia única por la que podría sustituirse la asociación sin alterar la intensidad que circula por el circuito. En el caso de una asociación en serie de tres resistencias, la fórmula de la resistencia equivalente Re se obtiene como sigue. De acuerdo con la ley de Ohm aplicada a cada una de ellas, se tiene: V1 = I.R1 ; V2 = I.R2 ; V3 = I.R3 16 Acreditalo ® Derechos Reservados donde V1, V2 y V3 son las tensiones entre sus extremos respectivos e I la intensidad de corriente que las atraviesa, igual para todas ellas. De acuerdo con el principio de conservación de energía referido a la unidad de carga, la cantidad total de energía que pierde la unidad de carga al atravesar las tres resistencias será igual a la suma de las cantidades que pierde en cada resistencia, es decir: V = V1 + V2 + V3 = IR1 + IR2 + IR3 = I.(R1 + R2 + R3) Si la ley de Ohm se aplica a la asociación en su conjunto, se tiene: V = I.Re Comparando ambas ecuaciones resulta: e = R1 + R2 + R3 (10.13) Ecuación que puede generalizarse a cualquier número de resistencias. Si la asociación fuera en paralelo, al llegar al nudo la corriente se reparte entre las diferentes resistencias y, de acuerdo con el principio de no acumulación de cargas, se cumplirá, en este caso, la relación I = I1 + I2 + I3 con V1 = V2 = V3 = V Aplicando la ley de Ohm a cada resistencia, resulta ahora: V = I1.R1 ; V = I2.R2 ; V = I3.R3 Para la asociación en su conjunto se tendrá: V = I.Re Si se sustituyen los valores de I,I1, I2 e I3 en la ecuación de las intensidades se obtiene: V/Re = V/R1 + V/R2 + V/R3 es decir: 1/Re = 1/R1 + 1/R2 + 1/R3 (10.14) En este caso es la suma de los inversos la que da lugar,no a la resistencia equivalente, sino a su inverso. Por tal motivo en este tipo de asociación el valor de la Re,resulta ser inferior al de la más pequeña de las resistencias asociadas. Análisis de circuitos En el estudio del comportamiento de cualquiera de las partes o de los elementos de un circuito, se precisa conocer cuál es la intensidad de corriente que circula por él. La determinación de la intensidad o intensidades de corriente que circulan por todos y cada uno de los elementos de un circuito dado recibe el nombre de análisis de circuito. En el caso de circuitos simples con un solo generador, o con 1arios asociados en serie, es posible llevar a término el análisis de circuitos aplicando de forma general los principios anteriormente considerados, así como las fórmulas de asociación de resistencias. Sin embargo, cuando existen 1arios generadores distribuidos por diferentes bifurcaciones o ramas el problema del análisis se complica y es preciso recurrir a procedimientos más potentes y también más laboriosos. Ejemplo del análisis de un circuito eléctrico: Con cuatro bombillas de 2, 3, 4 y 6 Ω de resistencia eléctrica y una pila de 4,5 1 se monta un circuito como el de la figura. Se trata de: a) Analizar el circuito. b) Determinar la diferencia de potencial entre los puntos A y B. c) Calcular la energía que cede la pila al circuito en un minuto. a) Analizar un circuito eléctrico significa determinar la intensidad, o intensidades, de corriente que circulan por él. En circuitos con un solo generador (o con 1arios asociados en serie) el procedimiento consta de las siguientes etapas: 1. Determinar la resistencia equivalente de todo el circuito. Ello equivale a convertirlo en otro equivalente simplificado del tipo representado en la figura adjunta. En el presente caso se trata de una asociación mixta serie-paralelo: Re (serie) = R3 + R4 = 2 Ω + 4 Ω = 6 Ω Re (paralelo) = R1.R2/(R1 + R2) = 6 Ω.3 Ω/(6 Ω + 3 Ω) = 2 Ω pues 1/Re = 1/R1 + 1/R2 Re (total) = Re (serie) + Re(paralelo) = 6 Ω + 2 Ω 2. Aplicar la ley de Ohm al circuito equivalente simplificado: ε = i.Re (total) i = 4,5 V/8 Ω i = ε /Re(total) 0,6 A 3. Si, como en el caso presente, el circuito presenta derivaciones, calcular las intensidades que circulan por cada una de las ramas. De acuerdo con el principio de no acumulación de las cargas: I = I1 + I2 es decir I1 + I2 = 0,6 A 17 Acreditalo ® Derechos Reservados Dado que en toda asociación en paralelo los puntos de confluencia o nodos son los mismos, la tensión entre ellos es la misma y, por tanto, aplicando la ley de Ohm, resulta: 1 = R1.I1 = R2.I2 es decir 3 Ω.I1 = 6 Ω.I2 Resolviendo el sistema de ecuaciones: I1 + I2 = 0,6 A 3Ω.I1 = 6Ω.I2 resulta: I1 = 0,4 A e I2 = 0,2 A b) Una 1ez el circuito ha sido analizado es posible responder a cualquier otra pregunta sobre el mismo. La diferencia de potencial entre A y B se calcula efectuando un balance de energía por unidad de carga. Cuando una carga unidad procedente de B pasa por la pila recibe ε joules de energía y al pasar por la resistencia R3 pierde I.R3, luego el balance total será: VB - VA = ε - l.R3 es decir: V BA = 4,5 V - 2 Ω.0,6 A = 3,3 V c) La energía que cede el generador al circuito en un tiempo t viene dada, de acuerdo con el concepto de potencia, por el producto de la potencia del generador por el tiempo: Ee = P.t = ε .I.t = 4,5 V.0,6 A.60 s = 162 J ELECTRODINAMICA Resolver: 1) Se requiere una fuerza de 0,01 N para sostener una carga de 12 μ C,calcule la intensidad del campo eléctrico. Resolución: -2 datos: F = 0,01 N = 10 N q = 12 μ C = 1,2.10-5 C E = F/q E = 10-2 N/1,2.10-5 C E = 833,33 N/C 2) ¿Cuánto trabajo se requiere para transportar una carga de 12 C de un punto a otro cuando la diferencia de potencial entre ellos es de 500 V?. Resolución: datos: q = 12 C V = 500 V V = L/q L = V.q L = 500 V.12 C L = 6000 J 3) Se requiere un trabajo de 600 J para transportar una carga de 60 C desde una terminal a otra de una batería. ¿Cuál es la diferencia de potencial entre los terminales?. Resolución: datos: q = 60 C L = 600 J V = L/q V = 600 J/60 C V = 10 V 4) En una batería la diferencia de potencial entre bornes es de 6,3 V. ¿Cuánto trabajo se requiere para transportar 12 C entre terminales?. Resolución: datos: q = 12 C V = 6,3 V V = L/q L = V.q L = 6,3 V.12 C L = 75,6 J 5) a) ¿Cuál es la intensidad del campo eléctrico en un punto colocado a la mitad entre una carga positiva de 100 μ C y una negativa de 50 μ C separadas 20 cm?. b) ¿Y si ambas fueran negativas de 50 μ C?. Resolución: datos: q1 = 100 μ C = 10-4 C q2 = -50 μ C = -5.10-5 C -1 r = 20 cm = 2.10 m 18 Acreditalo ® Derechos Reservados rm = 2.10-1 m/2 rm = r/2 rm = 10-1 m a) F1 = k0.q1.q/rm ² y F2 = k0.q2.q/rm ² E = F/q E = (F1 + F2)/q 9 E = (k0.q1.q/rm ² + k0.q2.q/rm ²)/q E = q.k0.(q1 + q2)/q.rm ² -4 -5 -1 E = 9.10 (Nm ²/C ²).(10 C - 5.10 C)/(10 m) ² N/C 9 -5 E = k0.(q1 + q2)/rm ² -2 E = 9.10 (Nm ²/C ²).5.10 C/10 m ² E = 4,5.107 b) si q1 = q2 = -5.10-5 C E = k0.(q1 + q2)/rm ² 9 E = k0.2.q1/rm ² -4 -2 E = -9.10 (Nm ²/C ²).10 C/10 m ² E = 9.109 (Nm ²/C ²).2.(- 5.10-5 C)/(10-1 m) ² E = -9.107 N/C 6) Tres capacitores de 2, 3 y 6 μ F se conectan en serie a una fuente de 10 V. a) Encuentre el número de μ C de carga de cada uno. b) Calcule la caída de tensión en cada capacitor. Resolución: datos: C1 = 2 μ F C2 = 3 μ F C3 = 6 μ F V = 10 V a) C = q/V q = C.V q1 = C1.V q1 = 2 μ F.10 V q1 = 20 μ C q2 = C2.V q2 = 3 μ F.10 V q2 = 30 μ C q3 = C3.V q3 = 6 μ F.10 V q3 = 60 μ C b) 1/C = 1/C1 + 1/ C2 + 1/C3 1/C = 6 μ F/6 μ F ² q = C.V 1/C = 1/2 μ F + 1/3 μ F + 1/6 μ F 1/C =1/ μ F q = 1 μ F.10 V 1/C = (3 μ F + 2 μ F + 1 μ F)/6 μ F ² C=1μF q = 10 μ C V = q/C V1 = q/C1 V1 = 10 μ C/2 μ F V1 = 5 V V2 = q/C2 V2 = 10 μ C/3 μ F V2 = 3,33 V V3 = q/C3 V3 = 10 μ C/6 μ F V3 = 1,66 V 7) Encuentre la capacitancia, expresada en μ F de un capacitor que tiene 240 μ C con una batería de 120 V. Resolución: datos: q = 240 μ C V = 120 V C = q/V C = 240 μ C/120 V C=2μF 8) Encuentre la capacitancia, expresada en Faradios, de un capacitor que fue construido pegando una hoja de papel de estaño en ambos lados de una de papel de parafina de área 625 cm ² y de espesor s = 0,0025 cm. Resolución: -2 datos: A = 625 cm ² = 6,25.10 m ² s = 0,0025 cm = 2,5.10-5 m C = Κ.ε0.A/s C = 2,1.8,85415.10-12 (C ²/Nm ²). 6,25.10-2 m ²/2,5.10-5 m C = 4,65.10-8 C ²/Nm -8 C = 4,65.10 F 9) Un capacitor de placas paralelas separadas una distancia s = 0,02 m está sometido a una tensión de 200 V. a) Encuentre la intensidad del campo eléctrico entre placas, expresada en V/cm y en N/C. b) Encuentre la aceleración de un protón (H+) en ese campo, sabiendo que mH+ =3,32.10-27 kg y qH+ = 1,06.10-13 C. 19 Acreditalo ® Derechos Reservados Resolución: datos: s = 0,02 m V = 200 V + -27 mH = 3,32.10 kg qH+ = 1,06.10-13 C a) E = -V/s E = 200 V/0,02 m E = 10000 (V/m).1 m/100 cm E = 10000 V/m E = 10000 V/m E = 100 V/cm E = 10000 (N.m/C)/m b) E = F/q F = q.E y F = m.a q.E = m.a a = q.E/m a = 1,06.10 -13 E = 10000 N/C C.10000 (N/C)/3,32.10-27 kg a = 3,193.1017 m/s ² Resolver: 1) Por un conductor pasa una corriente de 120 C en 3 minutos. ¿Cuál es la intensidad de la corriente en A y mA?. Respuesta: 0,66 A y 660 mA 2) Por un conductor circula una corriente eléctrica de 10 A durante 10 minutos. ¿Cuál es la carga eléctrica correspondiente?. Respuesta: 6000 C 3) En el caso del problema anterior, ¿cuantas ues(q) y cuantos electrones circularon por el conductor?. 12 Respuesta: 18.10 22 ues(q) y 36.10 electrones 4) ¿Cuál es la caída de tensión que se produce en un conductor cuando circula por él una corriente de 25 A y su resistencia es de 12 Ω?. Respuesta: 300 V 5) Una corriente de 20 A circula por un conductor de 50 m de longitud y 0,1 mm ² de sección, ¿cuál es la tensión si el conductor es de aluminio?. Respuesta: 256 V 6) Calcular la intensidad de una corriente sabiendo que la carga eléctrica es de 3000 C y el tiempo que dura el pasaje es de 5 minutos. Respuesta: 10 A 7) Por un conductor circulan durante ¼ de hora 54.1022 electrones,calcular la intensidad de esa corriente. Respuesta: 10 A 8) Por un conductor circula una corriente eléctrica de 10 A durante 10 minutos. ¿Cuál es la carga eléctrica correspondiente?. Respuesta: 6000 C 9) En el caso del problema anterior ¿cuántas ues(q) y cuántos electrones circularon por el conductor?. Respuesta: 18.1012 ues(q) y 36.1022 e 10) Por un conductor de 8 Ωde resistencia circula una corriente de 6 A, ¿cuál es la tensión de esa corriente?. Respuesta: 480 V 11) La intensidad de una corriente es de 25 A, si la tensión es de 220 V, ¿cuál es la resistencia del conductor?. Respuesta: 8,8 Ω 12) ¿Cuál es la diferencia de potencial que debe aplicarse a un conductor de 110 Ωde resistencia para que la intensidad sea de 4 A?. Respuesta: 440 V 13) ¿Cuál es la caída de tensión que se produce en un conductor cuando circula por él una corriente de 25 A y su resistencia es de 12 Ω?. Respuesta: 300 V 14) ¿Qué cantidad de electricidad en Coulomb habrá pasado por un conductor en ½ hora, si la intensidad de la corriente es de 15 A?. Respuesta: 27000 C 15) En el caso del problema anterior ¿cuántas ues(q) y cuántos electrones circularon por el conductor?. Respuesta: 81.1012 ues(q) y 164.1022 20 Acreditalo ® Derechos Reservados FISICA – HIDRODINAMICA DINAMICA DE FLUIDOS O HIDRODINAMICA Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en movimiento; estas leyes son enormemente complejas, y aunque la hidrodinámica tiene una importancia práctica mayor que la hidrostática,sólo podemos tratar aquí algunos conceptos básicos. Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo pueden expresarse de forma relativamente sencilla si se supone que el fluido es incompresible e ideal, es decir, si se pueden despreciar los efectos del rozamiento y la viscosidad. Sin embargo, como esto nunca es así en el caso de los fluidos reales en movimiento, los resultados de dicho análisis sólo pueden servir como estimación para flujos en los que los efectos de la viscosidad son pequeños. a) Flujos incompresibles y sin rozamiento Estos flujos cumplen el llamado teorema de Bernoulli, que afirma que la energía mecánica total de un flujo incompresible y no viscoso (sin rozamiento) es constante a lo largo de una línea de corriente. Las líneas de corriente son líneas de flujo imaginarias que siempre son paralelas a la dirección del flujo en cada punto, y en el caso de flujo uniforme coinciden con la trayectoria de las partículas individuales de fluido. El teorema de Bernoulli implica una relación entre los efectos de la presión, la velocidad y la gravedad, e indica que la velocidad aumenta cuando la presión disminuye. Este principio es importante para predecir la fuerza de sustentación de un ala en vuelo. Ecuación de continuidad: (para flujo estacionario e incompresible, sin fuentes ni sumideros, por evaluarse a lo largo de una línea de corriente). 1) Ley de conservación de la masa en la dinámica de los fluidos: A1.v1 = A2.v2 = constante. Recordar que p = F/A F = p.A Flujo de volúmen: (caudal). Φ = A .v [m ³/s] Ecuación de Bernoulli: (principio de conservación de la energía) para flujo ideal (sin fricción). p1 + δ.v1 ²/2 + δ.g.h1 = p2 + δ.v2 ²/2 + δ.g.h2 = constante p1/δ + v1 ²/2 + g.h1 = p2/δ + v2 ²/2 + g.h2 p/ δ = energía de presión por unidad de masa. g.h = energía potencial por unidad de masa. v ²/2 = energía cinética por unidad de masa. Ecuación de Bernoulli para flujo en reposo: v1 = v2 = 0 p1 + δ.g.h1 = p2 + δ.g.h2 b) Flujos viscosos: movimiento laminar y turbulento Los primeros experimentos cuidadosamente documentados del rozamiento en flujos de baja velocidad a través de tuberías fueron realizados independientemente por Poiseuille y por Gotthilf Heinrich Ludwig Hagen. El primer intento de incluir los efectos de la viscosidad en las ecuaciones matemáticas se debió a Navier e, independientemente, a Sir George Gabriel Stokes, quien perfeccionó las ecuaciones básicas para los fluidos viscosos incompresibles. Actualmente se las conoce como ecuaciones de Navier- 21 Acreditalo ® Derechos Reservados Stokes, y son tan complejas que sólo se pueden aplicar a flujos sencillos. Uno de ellos es el de un fluido real que circula a través de una tubería recta. El teorema de Bernoulli no se puede aplicar aquí,porque parte de la energía mecánica total se disipa como consecuencia del rozamiento viscoso, lo que provoca una caída de presión a lo largo de la tubería. Las ecuaciones sugieren que, dados una tubería y un fluido determinados, esta caída de presión debería ser proporcional a la velocidad de flujo. Los experimentos demostraron que esto sólo era cierto para velocidades bajas; para velocidades mayores, la caída de presión era más bien proporcional al cuadrado de la velocidad. Este problema se resolvió cuando Reynolds demostró la existencia de dos tipos de flujo viscoso en tuberías. A velocidades bajas, las partículas del fluido siguen las líneas de corriente (flujo laminar), y los resultados experimentales coinciden con las predicciones analíticas. A velocidades más elevadas, surgen fluctuaciones en la velocidad del flujo, o remolinos (flujo turbulento), en una forma que ni siquiera en la actualidad se puede predecir completamente. Reynolds también determinó que la transición del flujo laminar al turbulento era función de un único parámetro, que desde entonces se conoce como número de Reynolds. Si el número de Reynolds (que carece de dimensiones y es el producto de la velocidad, la densidad del fluido y el diámetro de la tubería dividido entre la viscosidad del fluido) es menor de 2.000, el flujo a través de la tubería es siempre laminar; cuando los valores son mayores a 3000 el flujo es turbulento. El concepto de número de Reynolds es esencial para gran parte de la moderna mecánica de fluidos. Los flujos turbulentos no se pueden evaluar exclusivamente a partir de las predicciones calculadas, y su análisis depende de una combinación de datos experimentales y modelos matemáticos; gran parte de la investigación moderna en mecánica de fluidos está dedicada a una mejor formulación de la turbulencia. Puede observarse la transición del flujo laminar al turbulento y la complejidad del flujo turbulento cuando el humo de un cigarrillo asciende en aire muy tranquilo. Al principio, sube con un movimiento laminar a lo largo de líneas de corriente, pero al cabo de cierta distancia se hace inestable y se forma un sistema de remolinos entrelazados. Ecuación de Bernoulli para flujo real (con fricción) p1/δ + v1 ²/2 + g.h1 = p2/δ + v2 ²/2 + g.h2 + H0 H0 = perdida de energía por rozamiento desde 1 hasta 2. c) Flujos de la capa límite Los flujos pueden separarse en dos regiones principales. La región próxima a la superficie está formada por una delgada capa límite donde se concentran los efectos viscosos y en la que puede simplificarse mucho el modelo matemático. Fuera de esta capa límite, se pueden despreciar los efectos de la viscosidad, y pueden emplearse las ecuaciones matemáticas más sencillas para flujos no viscosos. La teoría de la capa límite ha hecho posible gran parte del desarrollo de las alas de los aviones modernos y del diseño de turbinas de gas y compresores. d) Flujos compresibles El interés por los flujos compresibles comenzó con el desarrollo de turbinas de vapor por el británico Parsons y el sueco Laval. En esos mecanismos se descubrió por primera vez el flujo rápido de vapor a través de tubos, y la necesidad de un diseño eficiente de turbinas llevó a una mejora del análisis de los flujos compresibles. El interés por los flujos de alta velocidad sobre superficies surgió de forma temprana en los estudios de balística,donde se necesitaba comprender el movimiento de los proyectiles. Uno de los principios básicos del flujo compresible es que la densidad de un gas cambia cuando el gas se ve sometido a grandes cambios de velocidad y presión. Al mismo tiempo, su temperatura también cambia, lo que lleva a problemas de análisis más complejos. El comportamiento de flujo de un gas compresible depende de si la velocidad de flujo es mayor o menor que la velocidad del sonido. El sonido es la propagación de una pequeña perturbación, u onda de presión, dentro de un fluido. Para un gas, la velocidad del sonido es proporcional a la raíz cuadrada de su temperatura absoluta. La velocidad del sonido en el aire a 20 °C (293 Kelvin en la escala absoluta), es de unos 344 metros por segundo. Si la velocidad de flujo es menor que la velocidad del sonido (flujo subsónico),las ondas de presión pueden transmitirse a través de todo el fluido y así adaptar el flujo que se dirige hacia un objeto. Por tanto, el flujo subsónico que se dirige hacia el ala de un avión se ajustará con cierta distancia de antelación para fluir suavemente sobre la superficie. En el flujo supersónico, las ondas de presión no pueden viajar corriente arriba para adaptar el flujo. Por ello, el aire que se dirige hacia el ala de un avión en vuelo supersónico no está preparado para la perturbación que va a causar el ala y tiene que cambiar de dirección repentinamente en la proximidad del ala, lo que conlleva una compresión intensa u onda de choque. El ruido asociado con el paso de esta onda de choque sobre los observadores situados en tierra constituye el estampido sónico de los aviones supersónicos. Frecuentemente se identifican los flujos supersónicos por su número de Mach, que es el cociente entre la velocidad de flujo y la velocidad del sonido. Por tanto, los flujos supersónicos tienen un número de Mach superior a 1. Viscosidad Propiedad de un fluido que tiende a oponerse a su flujo cuando se le aplica una fuerza. Los fluidos de alta viscosidad presentan una cierta resistencia a fluir; los fluidos de baja viscosidad fluyen con facilidad. 22 Acreditalo ® Derechos Reservados La fuerza con la que una capa de fluido en movimiento arrastra consigo a las capas adyacentes de fluido determina su viscosidad, que se mide con un recipiente (viscosímetro) que tiene un orificio de tamaño conocido en el fondo. La velocidad con la que el fluido sale por el orificio es una medida de su viscosidad. La viscosidad de un fluido disminuye con la reducción de densidad que tiene lugar al aumentar la temperatura. En un fluido menos denso hay menos moléculas por unidad de volumen que puedan transferir impulso desde la capa en movimiento hasta la capa estacionaria. Esto, a su vez, afecta a la velocidad de las distintas capas. El momento se transfiere con más dificultad entre las capas, y la viscosidad disminuye. En algunos líquidos, el aumento de la velocidad molecular compensa la reducción de la densidad. Los aceites de silicona, por ejemplo, cambian muy poco su tendencia a fluir cuando cambia la temperatura, por lo que son muy útiles como lubricantes cuando una máquina está sometida a grandes cambios de temperatura. TENSION SUPERFICIAL El efecto de las fuerzas intermoleculares es de tirar las moléculas hacia el interior de la superficie de un liquido, manteniéndolas unidas y formando una superficie lisa. La tensión superficial mide las fuerzas internas que hay que vencer para poder expandir el área superficial de un liquido. La energía necesaria para crear una mueva área superficial, trasladando las moléculas de la masa liquida a la superficie de la misma, es lo que se llama tensión superficial. A mayor tensión superficial, mayor es la energía necesaria para transformar las moléculas interiores del liquido a moléculas superficiales. El agua tiene una alta tensión superficial, por los puentes de hidrogeno. 1.- Para hacer el primer experimento necesitas una aguja de coser bien seca, un Tenedor y un Vaso lleno con agua de la canilla hasta un centímetro de su borde superior. Coloca la Aguja sobre los dientes del Tenedor y, con estos en posición horizontal, sumergirlos con cuidado y lentamente en el Vaso con agua. Cuando la Aguja toque el agua retira con cuidado tenedor del vaso sin tocar la aguja. La Aguja flotará aún después de retirado el Tenedor. Si observas de cerca la superficie del agua verás como esta parece hundirse por el peso de la Aguja. 2.- Para realizar el segundo experimento necesitas un Vaso, un Plato hondo, Agua y algunas Monedas. Apoya el Vaso en el Plato hondo. Seca con un repasador los bordes del mismo. Llena el Vaso con Agua hasta el ras sin que se derrame en el Plato ni una gota. Luego, con cuidado y por el borde del Vaso, introducir en el Vaso las monedas de a una hasta que el Agua del Vaso desborde. Observarás, que antes de que desborde el Agua, esta puede llenar el Vaso algunos milímetros más debido al fenómeno de la Tensión Superficial. 3.- Para realizar el tercer Experimento necesitas una Brocha de Pintor y un Recipiente con Agua. Si observas primero la Brocha cuando las cerdas están secas apreciarás que las mismas aparecen más bien separadas. Al sumergir la Brocha en el Recipiente con Agua observarás que las cerdas tienden a juntarse debido a la Tensión Superficial. BALANCES MACROSCOPICOS BALANCE DE MASA ∂/∂t ∫v ρ.dv = ρ2.<v2>.A2 - ρ1.<v1>.A1 BALANCE DE CANTIDAD DE MOVIMIENTO ∂/∂t ∫v ρ.v.dv = -Δ.(ρ.<v ²>.A + p.A) + F + p Estado estacionario: F = Δ(ρ .<v ²>.A + p.A) Si Perfiles planos turbulentos: ∂/∂t ∫v ρ.v.dv = -Δ.(<v>.G + p.A) + F + p BALANCE DE ENERGIA TOTAL Estado estacionario: 23 Acreditalo ® Derechos Reservados Perfiles planos turbulentos: <v³>/<v> = <v ²> = <v> ² BALANCE DE ENERGIA MECANICA Wf: pérdidas por fricción. Estado estacionario: W/G.g: Energía/masa Expresado en metros: Altura desarrollada: Δ(< v ² >/2.g) = Hb Altura geométrica: Δz = Hg Altura de presión: Δ(p/ ρ .g) = Hp Potencia de la bomba: Pb = HT.Q. ρ .g/ η FISICA – INERCIA Resolver: 1) ¿Cuál será la aceleración de la gravedad en un lugar donde el péndulo cumple una oscilación en 1,2 s, si su longitud es de 0,357 m?. Respuesta: 9,8024 m/s ². 2) En un mismo lugar, dos péndulos oscilan empleando 2 y 4 s, respectivamente, ¿cuántas veces es más largo el segundo que el primero?. Respuesta: 4 veces. 3) Un reloj de péndulo que está en La Plata es llevado hasta Tierra del Fuego, si la aceleración de la gravedad en La Plata es de 9,79 m/s ² y en Tierra del Fuego es de 9,82 m/s ², ¿atrasa o adelanta?, ¿cuánto?. Respuesta: atrasa 0,081 s. 4) Calcular la aceleración de la gravedad en un lugar donde un péndulo de 2 m posee un período de 2,84 s. Respuesta: 9,77 m/s ². Responder: 1) ¿Qué entiende por volante?. 2) En las rotaciones, ¿se cumple el principio de inercia?, ¿cómo lo enuncia?. 3) ¿Qué es la cupla de arranque y frenado?. 4) ¿Qué es período, frecuencia y amplitud en el movimiento pendular?. 5) ¿Cuáles son las leyes del péndulo?, exprese su enunciado. 6) ¿Qué es péndulo de torsión?. 7) ¿Cuál es el tiempo de oscilación del péndulo? FISICA - ELECTROMAGNETISMO 24 Acreditalo ® Derechos Reservados OPTICA Rama de la física que se ocupa de la propagación y el comportamiento de la luz. En un sentido amplio, la luz es la zona del espectro de radiación electromagnética que se extiende desde los rayos X hasta las microondas, e incluye la energía radiante que produce la sensación de visión. El estudio de la óptica se divide en dos ramas, la óptica geométrica y la óptica física. Naturaleza de la luz La energía radiante tiene una naturaleza dual, y obedece a leyes que pueden explicarse a partir de una corriente de partículas o paquetes de energía, los llamados fotones, o a partir de un tren de ondas transversales (Movimiento ondulatorio). El concepto de fotón se emplea para explicar las interacciones de la luz con la materia que producen un cambio en la forma de energía, como ocurre con el efecto fotoeléctrico o la luminiscencia. El concepto de onda suele emplearse para explicar la propagación de la luz y algunos de los fenómenos de formación de imágenes. En las ondas de luz, como en todas las ondas electromagnéticas, existen campos eléctricos y magnéticos en cada punto del espacio, que fluctúan con rapidez. Como estos campos tienen, además de una magnitud,una dirección determinada, son cantidades vectoriales. Los campos eléctrico y magnético son perpendiculares entre sí y también perpendiculares a la dirección de propagación de la onda. La onda luminosa más sencilla es una onda senoidal pura, llamada así porque una gráfica de la intensidad del campo eléctrico o magnético trazada en cualquier momento a lo largo de la dirección de propagación sería la gráfica de un seno. La luz visible es sólo una pequeña parte del espectro electromagnético. En el espectro visible, las diferencias en longitud de onda se manifiestan como diferencias de color. El rango visible va desde, aproximadamente, 350 nanómetros (violeta) hasta unos 750 nanómetros (rojo), un nanómetro, nm, es una milmillonésima de metro. La luz blanca es una mezcla de todas las longitudes de onda visibles. La velocidad de la luz en las sustancias materiales es menor que en el vacío, y varía para las distintas longitudes de onda; este efecto se denomina dispersión. La relación entre la velocidad de la luz en el vacío y la velocidad de una longitud de onda determinada en una sustancia se conoce como índice de refracción de la sustancia para dicha longitud de onda. El índice de refracción del aire es 1,00029 y apenas varía con la longitud de onda. En la mayoría de las aplicaciones resulta suficientemente preciso considerar que es igual a 1. Las leyes de reflexión y refracción de la luz suelen deducirse empleando la teoría ondulatoria de la luz introducida. El principio de Huygens afirma que todo punto en un frente de ondas inicial puede considerarse como una fuente de ondas esféricas secundarias que se extienden en todas las direcciones con la misma velocidad, frecuencia y longitud de onda que el frente de ondas del que proceden. Con ello puede definirse un nuevo frente de onda que envuelve las ondas secundarias. Como la luz avanza en ángulo recto a este frente de ondas, el principio de Huygens puede emplearse para deducir los cambios de dirección de la luz. Cuando las ondas secundarias llegan a otro medio u objeto, cada punto del límite entre los medios se convierte en una fuente de dos conjuntos de ondas. El conjunto reflejado vuelve al primer medio, y el conjunto refractado entra en el segundo medio. El comportamiento de los rayos reflejados y refractados puede explicarse por el principio de Huygens. Es más sencillo, y a veces suficiente, representar la propagación de la luz mediante rayos en vez de ondas. El rayo es la línea de avance, o dirección de propagación, de la energía radiante. En la óptica geométrica se prescinde de la teoría ondulatoria de la luz y se supone que la luz no se difracta. La trayectoria de los rayos a través de un sistema óptico se determina aplicando las leyes de reflexión y refracción. Optica física Esta rama de la óptica se ocupa de aspectos del comportamiento de la luz tales como su emisión, composición o absorción, así como de la polarización, la interferencia y la difracción. Polarización de la luz Los átomos de una fuente de luz ordinaria emiten pulsos de radiación de duración muy corta. Cada pulso procedente de un único átomo es un tren de ondas prácticamente monocromático (con una única longitud de onda). El vector eléctrico correspondiente a esa onda no gira en torno a la dirección de propagación de la onda, sino que mantiene el mismo ángulo, o acimut, respecto a dicha dirección. El ángulo inicial puede tener cualquier valor. Cuando hay un número elevado de átomos emitiendo luz, los ángulos están distribuidos de forma aleatoria, las propiedades del haz de luz son las mismas en todas direcciones, y se dice que la luz no está polarizada. Si los vectores eléctricos de todas las ondas tienen el mismo ángulo acimutal (lo que significa que todas las ondas transversales están en el mismo plano), se dice que la luz está polarizada en un plano, o polarizada linealmente. Cualquier onda electromagnética puede considerarse como la suma de dos conjuntos de ondas: uno en el que el vector eléctrico vibra formando ángulo recto con el plano de incidencia y otro en el que vibra de forma paralela a dicho plano. Entre las vibraciones de ambas componentes puede existir una diferencia de fase, que puede permanecer constante o variar de forma constante. Cuando la luz está linealmente polarizada, por ejemplo, esta diferencia de fase se hace 0 o 180°. Si la relación de fase es aleatoria, pero una de las componentes es más intensa que la otra, la luz está en parte polarizada. Cuando la luz 25 Acreditalo ® Derechos Reservados es dispersada por partículas de polvo, por ejemplo, la luz que se dispersa en un ángulo de 90° con la trayectoria original del haz está polarizada en un plano, lo que explica por qué la luz procedente del cenit está marcadamente polarizada. Para ángulos de incidencia distintos de 0 o 90°, la proporción de luz reflejada en el límite entre dos medios no es igual para ambas componentes de la luz. La componente que vibra de forma paralela al plano de incidencia resulta menos reflejada. Cuando la luz incide sobre un medio no absorbente con el denominado ángulo de Brewster, la parte reflejada de la componente que vibra de forma paralela al plano de incidencia se hace nula. Con ese ángulo de incidencia, el rayo reflejado es perpendicular al rayo refractado; la tangente de dicho ángulo de incidencia es igual al cociente entre los índices de refracción del segundo medio y el primero. Algunas sustancias son anisotrópicas, es decir, muestran propiedades distintas según la dirección del eje a lo largo del cual se midan. En esos materiales, la velocidad de la luz depende de la dirección en que ésta se propaga a través de ellos. Algunos cristales son birrefringentes, es decir, presentan doble refracción. A no ser que la luz se propague de forma paralela a uno de los ejes de simetría del cristal (un eje óptico del cristal), la luz se separa en dos partes que avanzan con velocidades diferentes. Un cristal uniáxico tiene uno de estos ejes. La componente cuyo vector eléctrico vibra en un plano que contiene el eje óptico es el llamado rayo ordinario; su velocidad es la misma en todas las direcciones del cristal, y cumple la ley de refracción de Snell. La componente que vibra formando un ángulo recto con el plano que contiene el eje óptico constituye el rayo extraordinario, y la velocidad de este rayo depende de su dirección en el cristal. Si el rayo ordinario se propaga a mayor velocidad que el rayo extraordinario, la birrefringencia es positiva; en caso contrario la birrefringencia es negativa. Cuando un cristal es biáxico, la velocidad depende de la dirección de propagación para todas las componentes. Se pueden cortar y tallar los materiales birrefringentes para introducir diferencias de fase específicas entre dos grupos de ondas polarizadas, para separarlos o para analizar el estado de polarización de cualquier luz incidente. Un polarizador sólo transmite una componente de la vibración, ya sea reflejando la otra mediante combinaciones de prismas adecuadamente tallados o absorbiéndola. El fenómeno por el que un material absorbe preferentemente una componente de la vibración se denomina dicroísmo. El material conocido como Polaroid presenta dicroísmo; está formado por numerosos cristales dicroicos de pequeño tamaño incrustados en plástico, con todos sus ejes orientados de forma paralela. Si la luz incidente es no polarizada, el Polaroid absorbe aproximadamente la mitad de la luz. Los reflejos de grandes superficies planas, como un lago o una carretera mojada, están compuestos por luz parcialmente polarizada, y un Polaroid con la orientación adecuada puede absorberlos en más de la mitad. Este es el principio de las gafas o anteojos de sol Polaroid. Los llamados analizadores pueden ser físicamente idénticos a los polarizadores. Si se cruzan un polarizador y un analizador situados consecutivamente, de forma que el analizador esté orientado para permitir la transmisión de las vibraciones situadas en un plano perpendicular a las que transmite el polarizador, se bloqueará toda la luz procedente del polarizador. Las sustancias ópticamente activas giran el plano de polarización de la luz linealmente polarizada. Un cristal de azúcar o una solución de azúcar, pueden ser ópticamente activos. Si se coloca una solución de azúcar entre un polarizador y un analizador cruzados tal como se ha descrito antes, parte de la luz puede atravesar el sistema. El ángulo que debe girarse el analizador para que no pase nada de luz permite conocer la concentración de la solución. El polarímetro se basa en este principio. Algunas sustancias (como el vidrio y el plástico) que no presentan doble refracción en condiciones normales pueden hacerlo al ser sometidas a una tensión. Si estos materiales bajo tensión se sitúan entre un polarizador y un analizador, las zonas coloreadas claras y oscuras que aparecen proporcionan información sobre las tensiones. La tecnología de la fotoelasticidad se basa en la doble refracción producida por tensiones. También puede introducirse birrefrigencia en materiales normalmente homogéneos mediante campos magnéticos y eléctricos. Cuando se somete un líquido a un campo magnético fuerte, puede presentar doble refracción. Este fenómeno se conoce como efecto Kerr. Si se coloca un material apropiado entre un polarizador y un analizador cruzados, puede transmitirse o no la luz según si el campo eléctrico en el material está conectado o desconectado. Este sistema puede actuar como un conmutador o modulador de luz extremadamente rápido. Interferencia y difracción Cuando dos haces de luz se cruzan pueden interferir, lo que afecta a la distribución de intensidades resultante. La coherencia de dos haces expresa hasta qué punto están en fase sus ondas. Si la relación de fase cambia de forma rápida y aleatoria, los haces son incoherentes. Si dos trenes de ondas son coherentes y el máximo de una onda coincide con el máximo de otra, ambas ondas se combinan produciendo en ese punto una intensidad mayor que si los dos haces no fueran coherentes. Si son coherentes y el máximo de una onda coincide con el mínimo de la otra, ambas ondas se anularán entre sí parcial o totalmente, con lo que la intensidad disminuirá. Cuando las ondas son coherentes, puede formarse un diagrama de interferencia formado por franjas oscuras y claras. Para producir un diagrama de interferencia constante,ambos trenes de onda deben estar polarizados en el mismo plano. Los átomos de una fuente de luz ordinaria irradian luz de forma independiente, por lo que una fuente extensa de luz suele emitir radiación incoherente. Para obtener luz coherente de una fuente así, se 26 Acreditalo ® Derechos Reservados selecciona una parte reducida de la luz mediante un pequeño orificio o rendija. Si esta parte vuelve a separarse mediante una doble rendija, un doble espejo o un doble prisma y se hace que ambas partes recorran trayectorias de longitud ligeramente diferente antes de combinarlas de nuevo, se produce un diagrama de interferencias. Los dispositivos empleados para ello se denominan interferómetros; se emplean para medir ángulos pequeños,como los diámetros aparentes de las estrellas, o distancias pequeñas, como las desviaciones de una superficie óptica respecto a la forma deseada. Las distancias se miden en relación a la longitud de onda de la luz empleada. El primero en mostrar un diagrama de interferencias fue Thomas Young, en el experimento ilustrado en la figura 8. Un haz de luz que había pasado previamente por un orificio, iluminaba una superficie opaca con dos orificios. La luz que pasaba por ambos orificios formaba un diagrama de franjas circulares sucesivamente claras y oscuras en una pantalla. En la ilustración están dibujadas las ondulaciones para mostrar que en puntos como A, C o E (intersección de dos líneas continuas), las ondas de ambos orificios llegan en fase y se combinan aumentando la intensidad. En otros puntos, como B o D (intersección de una línea continua con una línea de puntos), las ondas están desfasadas 180° y se anulan mutuamente. Las ondas de luz reflejadas por las dos superficies de una capa transparente extremadamente fina situada sobre una superficie lisa pueden interferir entre sí. Las irisaciones de una fina capa de aceite sobre el agua se deben a la interferencia, y demuestran la importancia del cociente entre el espesor de la capa y la longitud de onda de la luz. Puede emplearse una capa o varias capas de materiales diferentes para aumentar o disminuir la reflectividad de una superficie. Los separadores de haz dicroicos son conjuntos de capas de distintos materiales, cuyo espesor se fija de forma que una banda de longitudes de onda sea reflejada y otra sea transmitida. Un filtro interferencial construido con estas capas transmite una banda de longitudes de onda extremadamente estrecha y refleja el resto de las longitudes. La forma de la superficie de un elemento óptico puede comprobarse presionándolo contra un patrón y observando el diagrama de franjas que se forma debido a la capa delgada de aire que queda entre ambas superficies. La luz que incide sobre el borde de un obstáculo es desviada, o difractada, y el obstáculo no genera una sombra geométrica nítida. Los puntos situados en el borde del obstáculo actúan como fuente de ondas coherentes, y se forma un diagrama de interferencias denominado diagrama de difracción. La forma del borde del obstáculo no se reproduce con exactitud, porque parte del frente de ondas queda cortado. Como la luz pasa por una abertura finita al atravesar una lente, siempre se forma un diagrama de difracción alrededor de la imagen de un objeto. Si el objeto es extremadamente pequeño, el diagrama de difracción aparece como una serie de círculos concéntricos claros y oscuros alrededor de un disco central, llamado disco de Airy. Esto ocurre incluso con una lente libre de aberraciones. Si dos partículas están tan próximas que los dos diagramas se solapan y los anillos brillantes de una de ellas coinciden con los anillos oscuros de la segunda, no es posible resolver (distinguir) ambas partículas. En óptica, el análisis de Fourier permite representar un objeto como una suma de ondas senoidales sencillas,llamadas componentes. A veces se analizan los sistemas ópticos escogiendo un objeto cuyas componentes de Fourier se conocen y analizando las componentes de Fourier de la imagen. Estos procedimientos determinan la llamada función de transferencia óptica. En ocasiones, el empleo de este tipo de técnicas permite extraer información de imágenes de baja calidad. También se han aplicado teorías estadísticas al análisis de las imágenes formadas. Una red de difracción está formada por varios miles de rendijas de igual anchura y separadas por espacios iguales (se consiguen rayando el vidrio o el metal con una punta de diamante finísima). Cada rendija produce un diagrama de difracción, y todos estos diagramas interfieren entre sí. Para cada longitud de onda se forma una franja brillante en un lugar distinto. Si se hace incidir luz blanca sobre la red, se forma un espectro continuo. En instrumentos como monocromadores, espectrógrafos o espectrofotómetros se emplean prismas y redes de difracción para proporcionar luz prácticamente monocromática o para analizar las longitudes de onda presentes en la luz incidente. Emisión estimulada Los átomos de una fuente de luz corriente (como una bombilla incandescente, una lámpara fluorescente o una lámpara de neón) producen luz por emisión espontánea, y la radiación que emiten es incoherente. Si un número suficiente de átomos absorben energía de manera que resultan excitados y acceden a estados de mayor energía en la forma adecuada,puede producirse la emisión estimulada. La luz de una determinada longitud de onda puede provocar la producción de más luz con la misma fase y dirección que la onda original, por lo que la radiación será coherente. La emisión estimulada amplifica la radiación con una longitud de onda determinada, y la luz generada presenta una desviación del haz muy baja. El material excitado puede ser un gas, un sólido o un líquido, pero su forma (o la forma de su recipiente) debe ser tal que forme un interferómetro en el que la longitud de onda que se amplifica se refleje numerosas veces en un sentido y otro. Una pequeña parte de la radiación excitada se transmite a través de uno de los espejos del interferómetro. Este dispositivo se denomina láser, que en inglés corresponde al acrónimo de "amplificación de luz por emisión estimulada de radiación". El proceso de suministrar energía a un número elevado de átomos para llevarlos a un estado adecuado de energía superior se denomina bombeo. El bombeo puede ser óptico o eléctrico. Como un láser puede emitir pulsos de energía extremadamente alta con una desviación de haz muy pequeña, es posible detectar, por ejemplo, luz láser enviada a la Luna y reflejada de vuelta a la Tierra, lo que permite medir con precisión 27 Acreditalo ® Derechos Reservados la distancia Tierra-Luna. El haz intenso y estrecho del láser ha encontrado aplicaciones prácticas en cirugía y en el corte de metales. Gabor fue el primero en observar que si se pudiera registrar el diagrama de difracción de un objeto y conservar también la información sobre la fase, la imagen del objeto podría reconstruirse iluminando con luz coherente el diagrama de difracción registrado. Si se iluminara el diagrama de interferencia con una longitud de onda mayor que la empleada para producirlo, aparecería un aumento de tamaño. Como la fase absoluta de una onda luminosa no puede detectarse directamente, era necesario proporcionar un haz de referencia coherente con el haz que iluminaba el objeto,para que interfiriera con el diagrama de difracción y proporcionara información sobre la fase. Antes del desarrollo del láser, el proyecto de Gabor estaba limitado por la falta de fuentes de luz coherente lo bastante intensas. Un holograma es un registro fotográfico de la interferencia entre un haz de referencia y el diagrama de difracción del objeto. Para generar un holograma, la luz procedente de un único láser se divide en dos haces. El haz de referencia ilumina la placa fotográfica (por ejemplo, a través de una lente y un espejo) y el segundo haz ilumina el objeto. El haz de referencia y la luz reflejada por el objeto forman un diagrama de difracción sobre la placa fotográfica. Si una vez revelado el holograma se ilumina con luz coherente, no necesariamente de la misma longitud de onda que la empleada para crearlo, puede obtenerse una imagen tridimensional del objeto. Es posible producir hologramas de un objeto teórico mediante ordenadores o computadoras, y después pueden reconstruirse las imágenes de esos objetos. Los haces láser intensos y coherentes permiten estudiar nuevos efectos ópticos producidos por la interacción de determinadas sustancias con campos eléctricos, y que dependen del cuadrado o de la tercera potencia de la intensidad de campo. Esta rama de la óptica se denomina óptica no lineal, y las interacciones que estudia afectan al índice de refracción de las sustancias. El efecto Kerr antes mencionado pertenece a este grupo de fenómenos. Se ha observado la generación armónica de luz. Por ejemplo, la luz láser infrarroja con longitud de onda de 1,06 micrómetros puede convertirse en luz verde con longitud de onda de 0,53 micrómetros (es decir, justo la mitad) mediante un cristal de niobato de sodio y bario. Es posible producir fuentes de luz coherente ampliamente sintonizables en la zona de la luz visible y el infrarrojo cercano bombeando medios adecuados con luz o con radiación de menor longitud de onda. Se puede lograr que un cristal de niobato de litio presente fluorescencia roja, amarilla y verde bombeándolo con luz láser azul verdosa con una longitud de onda de 488 nanómetros. Algunos fenómenos de difusión pueden ser estimulados con un único láser para producir pulsos de luz intensos en una amplia gama de longitudes de onda monocromáticas. Los efectos ópticos no lineales se aplican en el desarrollo de moduladores eficaces de banda ancha para sistemas de comunicación. Espectro Serie de colores semejante a un arco iris (por este orden: violeta, azul, verde, amarillo, anaranjado y rojo) que se produce al dividir una luz compuesta como la luz blanca en sus colores constituyentes. El arco iris es un espectro natural producido por fenómenos meteorológicos. Puede lograrse un efecto similar haciendo pasar luz solar a través de un prisma de vidrio. Cuando un rayo de luz pasa de un medio transparente como el aire a otro medio transparente, por ejemplo vidrio o agua, el rayo se desvía; al volver a salir al aire vuelve a desviarse. Esta desviación se denomina refracción; la magnitud de la refracción depende de la longitud de onda de la luz. La luz violeta, por ejemplo, se desvía más que la luz roja al pasar del aire al vidrio o del vidrio al aire. Así, una mezcla de luces roja y violeta se dispersa al pasar por un prisma en forma de cuña y se divide en dos colores. Los aparatos para observar visualmente un espectro se denominan espectroscopios; los que sirven para observar y registrar un espectro fotográficamente se llaman espectrógrafos; los empleados para medir la intensidad de las diferentes partes del espectro se denominan espectrofotómetros. La ciencia que utiliza los espectroscopios, espectrógrafos y espectrofotómetros para estudiar los espectros se conoce como espectroscopia. Para medidas espectroscópicas extremadamente precisas se emplean interferómetros. En el siglo XIX, los científicos descubrieron que más allá del extremo violeta del espectro podía detectarse una radiación invisible para el ojo humano pero con una marcada acción fotoquímica; se la denominó radiación ultravioleta. Igualmente, más allá del extremo rojo del espectro se detectó radiación infrarroja que aunque era invisible transmitía energía, como demostraba su capacidad para hacer subir un termómetro. Como consecuencia, se redefinió el término espectro para que abarcara esas radiaciones invisibles, y desde entonces se ha ampliado para incluir las ondas de radio más allá del infrarrojo y los rayos X y rayos gamma más allá del ultravioleta. En la actualidad, el término espectro se aplica frecuentemente en un sentido más amplio a cualquier distribución ordenada producida por el análisis de un fenómeno complejo. Un sonido complejo, como por ejemplo un ruido, puede analizarse como un espectro acústico formado por tonos puros de diferentes frecuencias. Igualmente, una mezcla compleja de elementos o isótopos con distinta masa atómica puede ser separada en una secuencia ordenada según su masa atómica y denominada espectro de masas. La espectroscopia no sólo ha proporcionado un método importante y sensible para el análisis químico, sino que ha sido el principal instrumento para descubrimientos en campos aparentemente no 28 Acreditalo ® Derechos Reservados relacionados, como la astrofísica o la teoría atómica. En general, los cambios en el movimiento de los electrones exteriores de los átomos dan lugar a espectros en la región visible, infrarroja y ultravioleta. Los cambios en el movimiento de los electrones interiores de los átomos pesados producen espectros de rayos X. Los cambios en la configuración del núcleo de un átomo producen espectros de rayos gamma. Los cambios en la configuración de las moléculas producen espectros visibles e infrarrojos. Los distintos colores de luz tienen en común el ser radiaciones electromagnéticas que se desplazan con la misma velocidad, aproximadamente 300.000 kilómetros por segundo. Se diferencian en su frecuencia y longitud de onda (la frecuencia es igual a la velocidad de la luz dividida entre la longitud de onda). Dos rayos de luz con la misma longitud de onda tienen la misma frecuencia y el mismo color. La longitud de onda de la luz es tan corta que suele expresarse en nanómetros (nm), que equivalen a una milmillonésima de metro, o una millonésima de milímetro. La longitud de onda de la luz violeta varía entre unos 400 y 450 nm, y la de la luz roja entre unos 620 y 760 nm. Oscilación En física, química e ingeniería, movimiento repetido de un lado a otro en torno a una posición central, o posición de equilibrio. El recorrido que consiste en ir desde una posición extrema a la otra y volver a la primera,pasando dos veces por la posición central, se denomina ciclo. El número de ciclos por segundo, o hercios (Hz), se conoce como frecuencia de la oscilación. Cuando se pone en movimiento un péndulo o se puntea la cuerda de una guitarra, el péndulo y la cuerda acaban deteniéndose si no actúan sobre ellos otras fuerzas. La fuerza que hace que dejen de oscilar se denomina amortiguadora. Con frecuencia, estas fuerzas son fuerzas de rozamiento, pero en un sistema oscilante pueden existir otras fuerzas amortiguadoras, por ejemplo eléctricas o magnéticas. Frecuencia natural Cualquier objeto oscilante tiene una ´frecuencia natural´, que es la frecuencia con la que tiende a vibrar si no se le perturba. Por ejemplo, la frecuencia natural de un péndulo de 1 m de longitud es de 0,5 Hz, lo que significa que el péndulo va y vuelve una vez cada 2 segundos. Si se le da un ligero impulso al péndulo cada 2 segundos, la amplitud de la oscilación aumenta gradualmente hasta hacerse muy grande. El fenómeno por el que una fuerza relativamente pequeña aplicada de forma repetida hace que la amplitud de un sistema oscilante se haga muy grande se denomina resonancia. Muchos problemas graves de vibración en ingeniería son debidos a la resonancia. Por ejemplo, si la frecuencia natural de la carrocería de un automóvil es la misma que el ritmo del motor cuando gira a una velocidad determinada, la carrocería puede empezar a vibrar o a dar fuertes sacudidas. Esta vibración puede evitarse al montar el motor sobre un material amortiguador, por ejemplo hule o goma, para aislarlo de la carrocería. Flameo Un tipo peligroso de vibración es la oscilación repentina y violenta conocida como flameo. Este fenómeno se produce sobre todo en las superficies de control de los aviones, pero también ocurre en los cables eléctricos cubiertos de escarcha cuando la velocidad del viento es elevada. Uno de los casos de flameo más espectaculares provocó en 1940 el hundimiento de un puente en Tacoma, Estados Unidos. La causa fue un viento huracanado cuya velocidad potenció la vibración del puente. En el flameo, la amplitud de vibración de una estructura puede aumentar tan rápidamente como para que ésta se desintegre casi de forma instantánea. Por eso, impedir el flameo es muy importante a la hora de diseñar puentes y aviones. En el caso de los aviones, el análisis de flameo suele complementarse con pruebas realizadas con una maqueta del avión en un túnel aerodinámico. Frecuencia Término empleado en física para indicar el número de veces que se repite en un segundo cualquier fenómeno periódico. La frecuencia es muy importante en muchas áreas de la física, como la mecánica o el estudio de las ondas de sonido. Las frecuencias de los objetos oscilantes abarcan una amplísima gama de valores. Los temblores de los terremotos pueden tener una frecuencia inferior a 1, mientras que las veloces oscilaciones electromagnéticas de los rayos gamma pueden tener frecuencias de 1020 o más. En casi todas las formas de vibración mecánica existe una relación entre la frecuencia y las dimensiones físicas del objeto que vibra. Por ejemplo, el tiempo que necesita un péndulo para realizar una oscilación completa depende en parte de la longitud del péndulo; la frecuencia de vibración de la cuerda de un instrumento musical está determinada en parte por la longitud de la cuerda. En general, cuanto más corto es el objeto, mayor es la frecuencia de vibración. En todas las clases de movimiento ondulatorio, la frecuencia de la onda suele darse indicando el número de crestas de onda que pasan por un punto determinado cada segundo. La velocidad de la onda y su frecuencia y longitud de onda están relacionadas entre sí. La longitud de onda (la distancia entre dos crestas consecutivas) es inversamente proporcional a la frecuencia y directamente proporcional a la velocidad. En términos matemáticos, esta relación se expresa por la ecuación v = l f, donde v es la velocidad, f es la frecuencia y l (la letra griega lambda) es la longitud de onda. A partir de esta ecuación puede hallarse cualquiera de las tres cantidades si se conocen las otras dos. La frecuencia se expresa en hercios (Hz); una frecuencia de 1 Hz significa que existe 1 ciclo u oscilación por segundo. Heinrich Rudolf Hertz fue el primero en demostrar la naturaleza de la propagación de las 29 Acreditalo ® Derechos Reservados ondas electromagnéticas. Las unidades como kilohercios (kHz) (miles de ciclos por segundo), megahercios (MHz) (millones de ciclos por segundo) y gigahercios (GHz) (miles de millones de ciclos por segundo) se usan para describir fenómenos de alta frecuencia como las ondas de radio. Estas ondas y otros tipos de radiación electromagnética pueden caracterizarse por sus longitudes de onda o por sus frecuencias. Las ondas electromagnéticas de frecuencias extremadamente elevadas, como la luz o los rayos X, suelen describirse mediante sus longitudes de onda, que frecuentemente se expresan en nanómetros (un nanómetro,abreviado nm, es una milmillonésima de metro). Una onda electromagnética con una longitud de onda de 1 nm tiene una frecuencia de aproximadamente 300 millones de GHz. Resolver: 1) Frente a una lente convergente de 20 cm de distancia focal y sobre su eje se coloca un objeto, calcular la distancia objeto-lente para que la distancia imagen-lente sea el doble. Respuesta: 30 cm 2) Repetir el ejercicio anterior para el caso que la imagen sea virtual. Respuesta: 10 cm 3) Construir la de un objeto OH que está frente a una lente convergente, entre el foco y la lente. Analizar sus características. 4) Un objeto OH está frente a una lente divergente, entre el foco y el infinito, encontrar la imagen y analizar sus características. 5) Un objeto está situado a 0,6 m de una lente convergente cuya distancia focal es de 0,3 m. ¿A qué distancia se forma la imagen?. Respuesta: 0,6 m 6) Delante de una lente divergente cuya distancia focal es 0,8 m, hay un objeto a 0,6 m. ¿A qué distancia está la imagen?. Respuesta: -12/35 m 7) Exprese en dioptrías la potencia de una lente divergente de distancia focal -80 cm. Respuesta: -5/4 8) Dibujar la imagen de un objeto cuya distancia a una lente convergente es mayor que F. Trace la figura que indique las propiedades de la imagen. 9) Un objeto está a 20 cm de una lente convergente cuya distancia focal es de 30 cm. ¿A qué distancia se forma la imagen?. Trace previamente la figura que corresponda. Respuesta: -60 cm OPTICA LA REVOLUCION DE LA ILUMINACION El mundo se iluminará de forma diferente dentro de algunos años. Los ingenieros de los Sandia National Laboratories y de otros organismos de investigación están trabajando en un proyecto que establecerá las bases científicas y tecnológicas para la sustitución de las actuales bombillas incandescentes y tubos fluorescentes por diodos semiconductores emisores de luz. 30 Acreditalo ® Derechos Reservados Los LEDs serán los protagonistas de la denominada "iluminación de estado sólido", una revolución comparable a la que experimentó la electrónica hace 50 años,cuando las lámparas y los tubos de vacío fueron reemplazados por semiconductores. Y tal como ocurrió en la revolución microelectrónica, la iluminación de estado sólido podría proporcionar nuevas aplicaciones que aún desconocemos. Como explica James Gee, uno de los líderes del proyecto, los LEDs ya se encuentran en juguetes, electrónica de consumo,luces de tráfico, grandes pantallas exteriores, etc. Se trata de dispositivos que deben ser duraderos, compactos y operar a baja temperatura. En algunas aplicaciones los LEDs también ahorran dinero, ya que consumen menos energía. Así,en las señales de tráfico, consumen sólo una décima parte de lo que gastan las bombillas tradicionales, lo que permite que se paguen por sí mismos en el plazo aproximado de un año. A medida que la tecnología avance, se espera que la iluminación de estado sólido supere de forma amplia a otras fuentes de luz, tanto en coste como en rendimiento. Los LEDs, que ahora pueden servir también como fuente de luz blanca, son 10 veces más eficientes que las bombillas incandescentes y dos veces más que los fluorescentes. Así, el reemplazo de estos sistemas tradicionales por LEDs de nuevo diseño colaborará en la reducción del consumo mundial de energía. La iluminación es en la actualidad responsable del 20 por ciento del consumo eléctrico. En una nación industrializada,el uso de la tecnología de estado sólido para esta tarea reduciría el consumo en un 10 por ciento. Los LEDs fueron desarrollados en 1962 por la compañía General Electric. En 1968 empezaron a ser incorporados en diversos productos. Sin embargo, hasta 1985 sólo eran utilizados en aplicaciones de escasa señal. A partir de esta fecha, su potencia se vio aumentada y se abrieron nuevas vías de utilización. En 1993 se desarrolló un LED de luz azul, después paulatinamente mejorado. Hoy en día, existen LEDs eficientes para luz de colores diversos, del rojo al azul, pasando por el verde, lo que permite generar luz blanca para iluminación. El principal problema es que las fuentes de luz basadas en LEDs son caras (en dos órdenes de magnitud respecto a las bombillas comerciales), y no serán prácticas hasta que su coste se reduzca o aumente su eficiencia. Este es precisamente el objetivo del LEDsproject. LA BOMBILLA FRIA Las bombillas de filamentos de tungsteno, las más utilizadas en todo el mundo como fuente de luz, queman nuestras manos si las tocamos. Son famosas por generar más calor que luz, un despilfarro de energía que científicos de los Sandia National Laboratories pretenden evitar con un nuevo diseño que convierte la mayor parte de la radiación infrarroja desperdiciada en frecuencias de luz visible. Para conseguirlo, han preparado un filamento de tungsteno fabricado con un patrón cristalino interno. Con él, la eficiencia de la bombilla eléctrica incandescente pasa de un 5 por ciento a más de un 60 por ciento. 31 Acreditalo ® Derechos Reservados Este invento podría reducir en gran medida el consumo energético en todo el mundo, y paliar las deficiencias de iluminación de muchos hogares. Pero la tecnología también promete mayores eficiencias en aplicaciones térmico-fotovoltaicas. Los sistemas fotovoltaicos funcionan mejor cuando se les suministra energía procedente de generadores de calor que emiten en longitudes de onda óptimas. Shawn Lin y Jim Fleming son los responsables de este avance. Se han basado en los trabajos sobre cristales fotónicos de silicio realizados por Eli Yablonovitch, de la UCLA, hace más de una década. Su capacidad de transmitir rayos de luz a frecuencias elegidas y desviar sus trayectorias sin pérdida de energía los hace muy interesantes. Pero también lo es su habilidad de detener otras frecuencias, evitando su paso a través de ellos. La fabricación de los cristales tridimensionales con tungsteno permite soportar altas temperaturas y aprovechar las emisiones de luz en el rango visible. En cuanto a las radiaciones infrarrojas, éstas se ven suprimidas y la energía térmica de excitación es redirigida hacia el espectro visible, aumentando su rendimiento. Lo más curioso es que la lógica del proceso aún no ha sido explicada. Podría ocurrir que la luz variara su velocidad al propagarse a través de tales estructuras, pero aún deben efectuarse nuevos estudios teóricos que lo confirmen. EL RAYO MANIPULADOR Varios científicos han creado un rayo de luz ultravioleta, parecido a un láser y altamente enfocado, mediante un dispositivo que cabe sobre una mesa. Creen que esta fuente de luz podrá utilizarse para medir y manipular objetos a una escala de pocos nanómetros. El rayo promete romper algunas de las barreras del progreso tecnológico. El tamaño ha sido uno de los principales obstáculos que los investigadores han encontrado a la hora de desarrollar, o incluso ver, los diminutos componentes de la próxima generación de ordenadores o máquinas nanoscópicas. Son más pequeños que la longitud de onda de la luz utilizada para iluminarlos. Es cierto que los microscopios electrónicos y otros sistemas similares pueden ver estructuras muy pequeñas, pero muchas mediciones esenciales requieren microscopios ópticos, que están limitados por la longitud de onda de sus fuentes de luz. Para solucionar esto, Margaret Murnane y Henry Kapteyn, de la University of Colorado, han desarrollado una nueva fuente de luz de longitud de onda muy corta. La luz ultravioleta, cuya longitud de onda es de sólo unas decenas de nanómetros, puede pulsar más lentamente que cualquier otro sistema y tiene un foco muy ajustado, difícil de conseguir por otros medios. La ciencia de la nanotecnología podrá ahora seguir avanzando a mayor velocidad, gracias a la disponibilidad de una herramienta que permite hace mediciones e interacciones a nivel de una sola molécula. La luz ultravioleta del dispositivo se produce mediante un proceso llamado HHG (high harmonic generation). Se dispara un láser de luz visible sobre un gas, creando un fuerte campo magnético. El campo ioniza el gas, separando los electrones de sus átomos. Los electrones recolisionarán entonces con los átomos ionizados, y oscilarán dentro del campo magnético. Como resultado de ello, saldrá del sistema un chorro de fotones bien sincronizados, en la longitud de onda de la luz ultravioleta. El rayo está tan enfocado que su diámetro es el más pequeño del mundo, de 20 a 30 veces más pequeño que el más común de los láseres de helio-neón, y cientos de veces más intenso. Un rayo producido de esta forma que empezara con un diámetro de un centímetro en la superficie de la Tierra, sólo se habrá 32 Acreditalo ® Derechos Reservados expandido hasta los 30 metros cuando llegue a la distancia de la Luna. Un láser convencional habría alcanzado un diámetro de al menos un kilómetro. La luz obtenida mediante el nuevo método servirá para observar el comportamiento de las moléculas, y ayudará pronto a los ingenieros a alinear y probar algunos sistemas de fabricación. Asimismo, permitirá crear hologramas biológicos de alta resolución. LUZ DE BURBUJAS DE GAS Una burbuja de gas excitada por ultrasonidos convierte una pequeña fracción de la energía sónica en luz. Este fenómeno, denominado sonoluminiscencia, ha venido observándose desde hace décadas. Ahora, químicos de la University of Illinois han conseguido por primera vez medir las reacciones químicas y la emisión de luz de una única burbuja de agua excitada por ondas de sonido. Ken Suslick y Yuri Didenko, autores del trabajo, conocen bien el fenómeno. Cuando se aplican ultrasonidos a un líquido, se produce un proceso llamado cavitación, que implica la formación, crecimiento, compresión y colapso de burbujas microscópicas. Estas pequeñas oscilaciones pueden causar un intenso calor y presión, similares a las condiciones producidas a gran escala por las explosiones u ondas de choque. Esta excitación puede ocasionar también la emisión de cortos destellos de luz. El uso de ultrasonidos para inducir reacciones químicas de alta energía podría tener interesantes aplicaciones industriales y médicas. Pero, antes, los científicos necesitar cuantificar la energía y las partículas moleculares liberadas dentro de una única burbuja aislada. El experimento de Illinois mostró que a medida que las burbujas pulsantes de agua colapsan, crean temperaturas lo bastante altas como para romper las moléculas. En este proceso, menos de una millonésima de energía sónica es convertida en luz. Mil veces más energía se va en la formación de átomos, fragmentos moleculares e iones. La mayor parte de la energía sónica es convertida en energía mecánica, causando ondas de choque y movimiento en el líquido que rodea a la burbuja de gas. La cavitación, que dirige el colapso implosivo de estas burbujas, crea temperaturas parecidas a las que se encuentran en la superficie del Sol y presiones como las del fondo del océano. Este fenómeno ofrece un medio de concentrar la energía difusa del sonido en una forma químicamente útil. Se estiman diversas aplicaciones, como la eliminación del azufre de la gasolina, la mejora de las reacciones químicas utilizadas para fabricar fármacos, etc. LA FUENTE ELECTROLUMINISCENTE MAS PEQUEÑA 33 Acreditalo ® Derechos Reservados Utilizando emisiones de fotones procedentes de moléculas individuales de plata, investigadores del Georgia Institute of Technology han creado la que se supone es la fuente de luz electroluminiscente más diminuta del mundo. El trabajo es también la primera demostración de la existencia de electroluminiscencia de moléculas individuales, una investigación que podría llevarnos a nuevos tipos de interconexiones ópticas a escala nanométrica, microscopia óptica de alta resolución, litografía nanométrica y otras aplicaciones donde se requieren fuentes de luz muy pequeñas. Dado que se sabe que las moléculas individuales emiten un único fotón a un tiempo, la técnica podría usarse como base para un sistema de procesamiento de información cuántica de alta eficiencia, y para criptografía. Aunque el efecto fue detectado por primera vez en moléculas de plata compuestas por 2-8 átomos, los investigadores ya han demostrado la existencia de electroluminiscencia en grupos de cobre, lo que sugiere que el efecto podría aplicarse a otros metales. Robert Dickson y sus colegas explican que empezaron con películas delgadas de óxido de plata que no son electroluminiscentes. Exponiendo la película a una corriente eléctrica de aproximadamente un amperio, "activaron" algunas de las moléculas del óxido de plata, que aparecieron entonces dentro de regiones "descoloridas" en la película. Cuando se aplicaron electrodos a esta última y se aplicó una corriente alterna, una fina línea de grupos de plata empezó a emitir en colores que variaban dependiendo de su tamaño. El sistema operó a temperatura ambiente. Observando de cerca el proceso, se puede ver claramente que las emisiones proceden de moléculas individuales. Parpadean y presentan patrones de emisión dipolares. La electroluminiscencia aparece cuando un electrón se recombina con una molécula cargada positivamente, de la cual se ha extraído un único electrón. En primer lugar se retira el electrón, para crear la carga positiva. Después, se inyecta otro rápidamente en un estado diferente de la misma molécula. La diferencia de cargas provocará una recombinación y la emisión de un fotón. Aunque la aplicación de corriente continua produce electroluminiscencia en los grupos activados de plata, un voltaje de corriente alterna de alta frecuencia (sobre los 150 MHz) produce una respuesta hasta 10.000 veces mayor. Esto prolonga la vida útil de los grupos emisores y reduce la cantidad de corriente necesaria para producir luz. La electroluminiscencia tiene muchas aplicaciones, pero los investigadores prefieren primero entender bien el proceso básico: cuál es la naturaleza de la emisión, cómo ocurre ésta, etc. ESPEJOS COMBINADOS 34 Acreditalo ® Derechos Reservados Cuatro ojos, mejor que uno. El interferómetro VLT, situado en el observatorio Paranal del European Southern Observatory, ha superado las pruebas preliminares durante las cuales se combinaron por parejas los rayos de luz procedentes de sus cuatro grandes telescopios, cada uno de ellos de 8,2 metros de diámetro (UT). Los ensayos se efectuaron durante las noches del 15 al 16 de septiembre y del 16 al 17 del mismo mes. Los ingenieros creen que todo salió conforme a lo previsto, y que estamos ante un paso adelante hacia la pronta disponibilidad de un instrumento sin parangón para la observación astronómica. No es nada fácil asegurar que el cuarteto de telescopios, llamados ANTU, KUEYEN, MELIPAL y YEPUN, cada uno de ellos un gigante masivo equipado con espejos activos controlados por ordenador, pueda trabajar conjuntamente, enviando sus rayos de luz hacia un punto focal común. Pero esto es precisamente lo que se ha conseguido: emparejar los cuatro telescopios, coordinando sus rayos de luz, lo que permitirá futuras observaciones de alta precisión y sensibilidad. Cada uno de los telescopios es por sí solo una formidable herramienta de observación. Pero es difícil construir espejos o grupos de espejos de diámetros totales mucho mayores que los del VLTI. Por eso, se prefiere utilizar la técnica interferométrica, que permite la combinación de la luz recogida por varios instrumentos, como si ésta procediera de uno solo de mucho mayor diámetro (y por tanto, con mayor capacidad de captación). Aún estamos lejos de utilizar el VLTI de forma rutinaria y obtener imágenes interferométricas muy claras, pero las pruebas, que trataban de ensayar los sistemas, confirman que ello será pronto posible. De momento, sirvieron para demostrar directamente la capacidad de resolución en 2D del VLTI, lo cual se consiguió después de múltiples mediciones de una estrella distante. Durante los próximos seis meses están previstas pruebas técnicas semejantes, algunas de los cuales se efectuarán junto al instrumento interferométrico MIDI, que se instalará pronto en Paranal. Las tareas de combinación de la luz procedente de los cuatro telescopios son complicadas por cuanto es necesario apuntar a cada uno de ellos hacia el mismo objetivo con una precisión absoluta, garantizando un seguimiento exacto a pesar del movimiento de rotación de la Tierra. Los cuatro rayos de luz son dirigidos hacia un punto focal, donde ahora mismo se halla el instrumento VINCI. 35 Acreditalo ® Derechos Reservados FISICA – RESISTENCIA DE LOS MATERIALES FUERZA ELASTICA Resortes: Los resortes reales se comportan según la siguiente ecuación, conocida como la Ley de Hooke: las tensiones son proporcionales a las elongaciones. Los materiales que responden a esta ley son perfectamente elásticos. F = k.Δx k: magnitud de la fuerza por unidad de elongación, que depende de cada resorte [N/m]. Δx = xf - xo [m] Tensión o esfuerzo: es la relación entre una carga y la superficie sobre la que actúa. Se considera como tal a la reacción que opone el material de un cuerpo frente a una solicitación externa (de tensión, compresión, cortante) que tiende a producir un cambio en su tamaño o forma. σ = F/A σ = ε .E E: módulo de elasticidad del material. [N/m ²; kg/cm ²] A: sección del material [m ²; cm ²] Elongaciones: un cuerpo sometido a la acción de fuerzas externas sufre alargamientos o acortamientos en una dirección dada que reciben el nombre de deformaciones. Deformación específica: ε = Δl/l Δl: elongación l: longitud origina acortamiento ε < 0 alargamiento ε > 0 Dentro del límite de proporcionalidad (σ p), el módulo de elasticidad de un material dado es constante, dependiendo solo de la naturaleza del material. 36 Acreditalo ® Derechos Reservados De 0 hasta a,se llama recta de Hooke. Sin embargo hasta b inclusive, cuando descargamos la pieza recupera su longitud original (entre 0 y b, el material es elástico). Modulo de Young: es la constancia de la relación entre tensiones y deformación específica. E = σ / ε = constante Esta relación es la expresión analítica de la ley de Hooke. Elasticidad: una deformación se llama elástica cuando desaparece completamente (recuperable) una vez que cesa la causa que la produjo. Plasticidad: una deformación plástica es aquella que no desaparece (irreversible) con la anulación de la causa. La plasticidad de los materiales esta dada por su capacidad de poder deformarse sin por ello sufrir fractura. Un material es tanto más dúctil cuanto más extendido es su diagrama σ - ε en el sentido del eje ε . A medida que aumenta la resistencia de los materiales disminuye la deformación específica y por lo tanto su ductilidad. Se dice entonces que el material va ganando en fragilidad. La maleabilidad como propiedad de los materiales, específicamente metálicos, constituye en realidad una fase de la ductilidad. Tenacidad: es la capacidad de un material para absorber simultáneamente esfuerzos y deformaciones de consideración sin llegar a la fractura. Rigidez: es la capacidad de resistir una deformación elástica por efecto de una tensión. Fluencia: en los materiales tenaces el período plástico comienza teóricamente a partir del punto a (límite de proporcionalidad), que constituye el final del período de proporcionalidad (recta de Hooke). En realidad,el material suele ser elástico, un poco más allá de dicho punto, hasta el punto b (límite de elasticidad). MOVIMIENTO ARMONICO La ecuación general del movimiento armónico simple es: X = A.cos (ω .t + θ 0) puede escribirse en la forma equivalente: X = B.sin ω .t + C.cos ω .t a) Determínense las expresiones de las amplitudes de B y C en función de la amplitud A y del ángulo de fase inicial θ 0. b) X = A.cos (ω .t + θ 0) X = B.sin ω .t + C.cos ω .t X = A.(cos ω .t . cos θ 0- sin ω .t . sin θ 0) X = -A.sin ω .t . sin θ 0 + A.cos ω .t . cos θ 0 B = -A.sin θ 0 C = A.cos θ 0 a) 2. Un cuerpo de 0,25 kg. De masa está sometido a una fuerza elástica restauradora, con constante de recuperación k =25N/m. b) Dibújense la gráfica de la energía potencial elástica U en función del desplazamiento x en un intervalo de x comprendido entre -0,3m y + 0,3 m. Tómense 1 cm = 1J en el eje vertical y 1 cm = 0,05m en el eje horizontal. El cuerpo inicia su oscilación con energía potencial inicial de 0,6J y energía cinética inicial de 0,2 J. A partir de la gráfica, respóndanse las cuestiones siguientes: U = k.x ²/2 x U 0 0 ±0,05 0,031 ± 0,10 0,125 ±0,15 0,281 ± 0,20 0,500 ± 0,25 0,781 ± 0,30 1,125 37 Acreditalo ® Derechos Reservados c) ¿Cuál es la amplitud de la oscilación?. A=? ET = ω ².A ²/2 ω ² = k/m ω ² = 25/0,25 = 100 A = √2.(0,8)/100 = 0,12 m d) ¿Cuál es la energía potencial cuando el valor de desplazamiento es la mitad que el de la amplitud?. Ep = k.x ²/2 x = 0,6 m Ep = 25.0,6/2 = 4 J e) ¿Para que valor del desplazamiento son iguales la energía cinética y potencial? Ep = k.x ²/2 0,6 = 25.x ²/2 x =± 0,219 m f) ¿Cuál es la rapidez del cuerpo en el punto medio de su trayectoria?. Calcúlense: Ec = m.v ²/2 v = ±√2.0,2/0,25 = ±1,26 m/s g) El período T1. T = 1/f = 0 2.π.f = √k/m ƒ = √k/m/2.π = √25/0,25/2.π f = 1,59 Hz T = 0,628 s h) La frecuencia f1 y f = 1,59 Hz i) La frecuencia angular ω . ω=? k = m. ω ² ω = √k/m = √25/0,25 ω = 10 rad/s 38 Acreditalo ® Derechos Reservados j) ¿Cuál es el ángulo de fase inicial θ 0si la amplitud A = 15 cm, el desplazamiento inicial x0 = 7,5 cm y la velocidad inicial Vo es negativa?. La posición del móvil que describe un M.A.S. en función del tiempo viene dada por la ecuación: X = A.cos.(ω .t + θ o) entonces no da que: X = A.cos. θ o por lo que para este caso como son las condiciones iniciales (t = 0) se deduce que: ω .t 0 nos da pro consiguiente: 7,5 = 15.cos θ 0 θ0 = arc cos (7,5/15) = 1,047 rad 2) Un cuerpo está vibrando con movimiento armónico simple de 15 cm de amplitud y 4Hz de frecuencia, calcúlense: a) Los valores máximos de la aceleración y de la velocidad. A = 15 cm F = 4 Hz a máximo = ? V máximo = ? a = -A. ω ².cos ω .t a máximo = A. ω ² a máximo = 15.25 ² a máximo = 9375 cm/s ² = 93,75 m/s ² ω = 2.π.f ω = 2.π.4 ω = 25 V máximo = ω .A 25.0,15 = 3,76 m/s b) La aceleración y la velocidad cuando el desplazamiento es 9 cm, y. a = ? y la V = ? cuando x = 9 cm a = - ω ².x a = -25 ².9 a = -56,84 m/s ² V = ± 3,02 m/s c) El tiempo necesario para desplazarse desde la posición de equilibrio a un punto situado a 12 cm de la misma. x = A.cos ω .t 12/15 = cos 25.t cos 25.t =0,8 25.t = cos-1 0,8 39 Acreditalo ® Derechos Reservados 25.t = 0,64 t = 0,025 s 3) Un cuerpo de 10gr. De masa se mueve con movimiento armónico simple de 24 cm. De amplitud y 4s. de período: El desplazamiento es + 24 cm. Para t = 0. Calcúlense: a) La posición del cuerpo cuando t = 0,5 s. m = 10 g A = 24 cm T=4s x = 24 cm para t = 0 t = 0,5 s x=? x = A.cos 2.π.f.t x = 24.cos (2.π.0,5/4) x = 16,97 cm b) La magnitud y dirección de la fuerza que actúa sobre el cuerpo cuando t = 0,5s. F = -k.x F = -m. ω ².x ω = 2.π.f F = -10.(2.π./4) ².19,97 -1 F = 418,71 g. cm la dirección está hacia abajo, porque al no completarse todavía el período (X = 16,97), la fuerza lleva a la masa hacia abajo hasta su máxima amplitud. c) El tiempo mínimo necesario para que el cuerpo se mueva desde la posición inicial al punto en que x = -12 cm, y Δt = ? x = A.cos ω .t x/A = cos ω .t arc cos (x/A) = ω .t Δt = [arccos (-12/24)]/(2.π /4) Δt = 1,33 s d) La velocidad de dicho cuerpo cuando x = -12 cm. V x = 12 cm V = -A. ω .cos ω .t V = -24.(2 π /4).cos (1,33.π /2) -1 V = -18,67 cm.s 4) El movimiento del pistón del motor de un automóvil es aproximadamente armónico simple. a) Si la carrera de un pistón (dos veces la amplitud) es 10 cm y el motor gira a 3600 rev/mm., calcúlese la aceleración del pistón al final de la carrera. 2.A = 10 cm A = 5 cm = 0,05 m f = 3600 (rev/min).(1 min/60 s) = 60 Hz 40 Acreditalo ® Derechos Reservados a máximo = k.x/m a máximo = (2.π.f) ².A a máximo = (2.π.60) ².0,05 a máximo = 7106 m.s ² b) Si el pistón tiene una masa de 0,5 kg, ¿qué fuerza resultante ha de ejercerse sobre él en ese punto?. m = 0,5 kg F = m.a F = 0,5.7106 F = 3553 N c) ¿Cuál es la velocidad del pistón, en kilómetros por hora, en el punto medio de su carrera?. V = ? en el punto medio, la velocidad es máxima. V máximo = ω .A ω = 2 π.f V máximo = (2 π.f).A V máximo = (2 π.60).0,05 V máximo = 18,85 m/s = 67,9 km/h 5) Un cuerpo de 2 kg. De masa está suspendido de un resorte de masa despreciable, y se produce un alargamiento de 20 cm. m = 2 kg x = 20 cm a) ¿Cuál es la constante de recuperación del resorte?. F = -k.x m.g/x = k k = 2.9,8/0,2 = 98 N/m b) ¿Cuál es el período de oscilación del cuerpo si se tira hacia abajo y se abandona así mismo?. k = m. ω ² ω = √k/m = 7 rad/s ω = 2.π.f f = ω /2.π = 1,11 Hz T = 1/f = 0,89 s c) ¿Cuál sería el período de un cuerpo de 4 kg de masa pendiente del mismo resorte?. m = 4 kg -1 ω = 4,94 rad.s T = 1,26 s 6) La escala de una balanza de resorte que registra de 0 a 180N tiene 9 cm de longitud. Se observa que un cuerpo suspendido de la balanza oscila verticalmente a 1,5 Hz. ¿Cuál es la masa del cuerpo?. Despréciese la masa del resorte. 41 Acreditalo ® Derechos Reservados F = 180 N f = 1,5 Hz F = -k.x k = -F/x Por lo que si sustituímos en la ecuación se tiene que: k = |-2000 N/m| k = m.ω ² ω = 2.π.ƒ ω = 2.π.1,5 ω = 9,42 rad/s Sustituyendo: m = k/ω ² m = (2000 N/m)/(9,42 rad/s) ² m = 22,53 kg FISICA – TERMODINAMICA EL CALOR Cantidades de calor Aun cuando no sea posible determinar el contenido total de energía calorífica de un cuerpo, puede medirse la cantidad que se toma o se cede al ponerlo en contacto con otro a diferente temperatura. Esta cantidad de energía en tránsito de los cuerpos de mayor temperatura a los de menor temperatura es precisamente lo que se entiende en física por calor. La ecuación calorimétrica La experiencia pone de manifiesto que la cantidad de calor tomada (o cedida) por un cuerpo es directamente proporcional a su masa y al aumento (o disminución) de temperatura que experimenta. La expresión matemática de esta relación es la ecuación calorimétrica. (8.6) Q = ce.m.(Tf - Ti) donde Q representa el calor cedido o absorbido, la masa del cuerpo y Tf y Ti las temperaturas final e inicial respectivamente. Q será positivo si la temperatura final es mayor que la inicial (Tf> Ti) y negativo en el caso contrario (Tf< Ti). La letra c representa la constante de proporcionalidad correspondiente y su valor es característico del tipo de sustancia que constituye el cuerpo en cuestión. Dicha constante se denomina calor específico. Su significado puede deducirse de la ecuación (8.6). Si se despeja c,de ella resulta: 42 Acreditalo ® Derechos Reservados ce = Q/ m.(Tf - Ti) El calor específico de una sustancia equivale, por tanto, a una cantidad de calor por unidad de masa y de temperatura; o en otros términos, es el calor que debe suministrarse a la unidad de masa de una sustancia dada para elevar su temperatura un grado. Unidades de calor La ecuación calorimétrica (8.6) sirve para determinar cantidades de calor si se conoce la masa del cuerpo, su calor específico y la diferencia de temperatura, pero además permite definir la caloría como unidad de calor. Si por convenio se toma el agua líquida como sustancia de referencia asignando a su calor específico un valor unidad, la caloría resulta de hacer uno el resto de las variables que intervienen en dicha ecuación. Una caloría es la cantidad de calor necesaria para elevar en un grado centígrado (1 °C) la temperatura de un gramo de agua. Esta definición, que tiene su origen en la época en la que la teoría del calórico estaba en plena vigencia, se puede hacer más precisa si se considera el hecho de que el calor específico del agua varía con la temperatura. En tal caso la elevación de un grado centígrado a la que hace referencia la anterior definición ha de producirse entre 14,5 y 15,5 °C a la presión atmosférica. Una vez identificado el calor como una forma de energía y no como un fluido singular, la distinción entre unidades de calor y unidades de energía perdió significado. Así, la unidad de calor en el SI coincide con la de energía y es el joule (J), habiendo quedado la caloría reducida a una unidad práctica que se ha mantenido por razones históricas,pero que va siendo progresivamente desplazada por el joule. Calor específico y capacidad calorífica La ecuación calorimétrica puede escribirse también en la forma: (8.7) Q = C.(Tf - Ti) expresando así que en un cuerpo dado la cantidad de calor cedido o absorbido es directamente proporcional a la variación de temperatura. La nueva constante de proporcionalidad C recibe el nombre de capacidad calorífica C = Q/(T Tf - Ti) y representa la cantidad de calor que cede o toma el cuerpo al variar su temperatura en un grado. A diferencia del calor específico, la capacidad calorífica es una característica de cada cuerpo y se expresa en el SI en J/K. Su relación con el calor específico resulta de comparar las ecuaciones (8.6) y (8.7) en las que ambas magnitudes están presentes: (8.8) C = m.ce De acuerdo con esta relación, la capacidad calorífica de un cuerpo depende de su masa y de la naturaleza de la sustancia que lo compone. Ejemplo de la determinación del calor específico: El calor específico de un cuerpo puede determinarse mediante el calorímetro. Dado que éste es un atributo físico característico de cada sustancia, la comparación del valor obtenido con los de una tabla estándar de calores específicos puede ayudar a la identificación de la sustancia que compone el cuerpo en cuestión. Se pretende identificar el metal del que está formada una medalla. Para ello se determina su masa mediante una balanza que arroja el valor de 25 g. A continuación se calienta al « baño María »,hasta alcanzar una temperatura de 85 °C y se introduce en el interior de un calorímetro que contiene 50 g de agua a 16,5 °C de temperatura. Al cabo de un cierto tiempo y tras utilizar varias veces el agitador, la columna del termómetro del calorímetro deja de subir señalando una temperatura de equilibrio de 19,5 °C. ¿De qué metal puede tratarse? Si se aplica la ecuación de conservación de la energía expresada en la forma, calor tomado = - calor cedido, resulta: Q1 = - Q2 m1.ce1.(T - T1) = - m2.ce2.(T - T2) considerando en este caso el subíndice 1 referido al agua y el 2 referido a la moneda. Sustituyendo valores en la ecuación anterior, se,tiene: 50 g.1 (cal/g.°C).(19,5 °C - 16,5 °C) = - 25 g. ce2.(19,5 °C - 85 °C) Operando y despejando ce2 resulta: 150 (cal/g.°C) = 1 637,5. ce2 ce2 = 0,09 cal/g.°C Si se compara el resultado con una tabla de calores específicos de metales, se concluye que puede tratarse de cobre. Otras propiedades físicas como el color, por ejemplo, confirmarán el resultado. Medida del calor De acuerdo con el principio de conservación de la energía, suponiendo que no existen pérdidas, cuando dos cuerpos a diferentes temperaturas se ponen en contacto, el calor tomado por uno de ellos ha de ser 43 Acreditalo ® Derechos Reservados igual en cantidad al calor cedido por el otro. Para todo proceso de transferencia calorífica que se realice entre dos cuerpos puede escribirse entonces la ecuación: Q1 = - Q2 en donde el signo - indica que en un cuerpo el calor se cede, mientras que en el otro se toma. Recurriendo a la ecuación calorimétrica, la igualdad anterior puede escribirse en la forma: m1.ce1.(Te - T1) = - m2.ce2.(Te- T2) (8.9) donde el subíndice 1 hace referencia al cuerpo frío y el subíndice 2 al caliente. La temperatura Teen el equilibrio será superior a T1 e inferior a T2. La anterior ecuación indica que si se conocen los valores del calor específico, midiendo temperaturas y masas, es posible determinar cantidades de calor. El aparato que se utiliza para ello se denomina calorímetro. Un calorímetro ordinario consta de un recipiente de vidrio aislado térmicamente del exterior por un material apropiado. Una tapa cierra el conjunto y dos pequeños orificios realizados sobre ella dan paso al termómetro y al agitador, los cuales se sumergen en un líquido llamado calorimétrico, que es generalmente agua. Cuando un cuerpo a diferente temperatura que la del agua se sumerge en ella y se cierra el calorímetro, se produce una cesión de calor entre ambos hasta que se alcanza el equilibrio térmico. El termómetro permite leer las temperaturas inicial y final del agua y con un ligero movimiento del agitador se consigue una temperatura uniforme. Conociendo el calor específico y la masa del agua utilizada, mediante la ecuación calorimétrica se puede determinar la cantidad de calor cedida o absorbida por el agua. En este tipo de medidas han de tomarse las debidas precauciones para que el intercambio de calor en el calorímetro se realice en condiciones de suficiente aislamiento térmico. Si las pérdidas son considerables no será posible aplicar la ecuación de conservación Q1 = - Q2 y si ésta se utiliza los resultados estarán afectados de un importante error. La ecuación (8.9) puede aplicarse únicamente a aquellos casos en los cuales el calentamiento o el enfriamiento del cuerpo problema no lleva consigo cambios de estado físico (de sólido a líquido o viceversa, por ejemplo). A partir de ella y con la ayuda del calorímetro es posible determinar también el calor específico del cuerpo si se conocen las temperaturas T1, T2 y Te, las masas m1y m2 y el calor específico del agua. CALOR Y TRABAJO Relación entre calor y trabajo Si calor y trabajo son ambos formas de energía en tránsito de unos cuerpos o sistemas a otros, deben estar relacionadas entre sí. La comprobación de este tipo de relación fue uno de los objetivos experimentales perseguidos con insistencia por el físico inglés James Prescott Joule (1818-1889). Aun cuando efectuó diferentes experimentos en busca de dicha relación, el más conocido consistió en determinar el calor producido dentro de un calorímetro a consecuencia del rozamiento con el agua del calorímetro de un sistema de paletas giratorias y compararlo posteriormente con el trabajo necesario para moverlas. La energía mecánica puesta en juego era controlada en el experimento de Joule haciendo caer unas pesas cuya energía potencial inicial podía calcularse fácilmente de modo que el trabajo W, como variación de la energía mecánica, vendría dado por: W = Δ Ep = m.g.h siendo m la masa de las pesas, h la altura desde la que caen y g la aceleración de la gravedad. Por su parte, el calor liberado por la agitación del agua que producían las aspas en movimiento daba lugar a un aumento de la temperatura del calorímetro y la aplicación de la ecuación calorimétrica: Q = m c (Tf- Ti) permitía determinar el valor de Q y compararlo con el de W. Tras una serie de experiencias en las que mejoró progresivamente sus resultados, llegó a encontrar que el trabajo realizado sobre el sistema y el calor liberado en el calorímetro guardaban siempre una relación constante y aproximadamente igual a 4,2. Es decir, por cada 4,2 joules de trabajo realizado se le comunicaba al calorímetro una cantidad de calor igual a una caloría. Ese valor denominado equivalente mecánico del calor se conoce hoy con más precisión y es considerado como 4,184 joules/calorías. La relación numérica entre calor Q y trabajo W puede,entonces, escribirse en la forma: W (joules) = 4,18.Q (calorías) La consolidación de la noción de calor como una forma más de energía, hizo del equivalente mecánico un simple factor de conversión entre unidades diferentes de una misma magnitud física, la energía; algo parecido al número que permite convertir una longitud expresada en pulgadas en la misma longitud expresada en centímetros. Máquinas térmicas Junto a la conversión de trabajo en calor puesta de manifiesto en las experiencias de Joule, la transformación efectuada en sentido inverso es físicamente realizable. Los motores de explosión que mueven, en general, los vehículos automóviles y la máquina de vapor de las antiguas locomotoras 44 Acreditalo ® Derechos Reservados de carbón, son dispositivos capaces de llevar a cabo la transformación del calor en trabajo mecánico. Este tipo de dispositivos reciben el nombre genérico de máquinas térmicas. En todas las máquinas térmicas el sistema absorbe calor de un foco caliente; parte de él lo transforma en trabajo y el resto lo cede al medio exterior que se encuentra a menor temperatura. Este hecho constituye una regla general de toda máquina térmica y da lugar a la definición de un parámetro característico de cada máquina que se denomina rendimiento y se define como el cociente entre el trabajo efectuado y el calor empleado para conseguirlo. Expresado en tantos por ciento toma la forma: η (%) = W.100/Q Ninguna máquina térmica alcanza un rendimiento del cien por cien. Esta limitación no es de tipo técnico, de modo que no podrá ser eliminada cuando el desarrollo tecnológico alcance un nivel superior al actual; se trata, sin embargo, de una ley general de la naturaleza que imposibilita la transformación íntegra de calor en trabajo. Por tal motivo las transformaciones energéticas que terminan en calor suponen una degradación de la energía, toda vez que la total reconversión del calor en trabajo útil no está permitida por las leyes naturales. Ejemplo de la relación calor-trabajo: En una experiencia como la de Joule se ha utilizado un peso de 10 kg que se ha elevado a una altura de 2 m. Si el calorímetro completo incluyendo las aspas equivale a una masa de agua de 1,5 kg y la temperatura inicial es de 15 °C, determínese la temperatura final que alcanzará el agua, admitiendo que todo el trabajo mecánico se convierte en calor dentro del calorímetro. (Considérese el calor específico del agua c = 4,18.10³ J/kg.K). De acuerdo con el principio de conservación de la energía, el trabajo mecánico se convierte íntegramente en calor: W=Q Siendo en este caso W = m g h y Q = m´ ce.(Tf - Ti). Igualando ambas expresiones y despejando Tf se tiene: m g h = m´ ce.(Tf - Ti) Tf = (m.g.h + m´.ce.Ti)/m´.ce y sustituyendo resulta finalmente: Tf (K) = [10 g.9,8 m/s ².2 m + 1,5 g.4,18.10³ (cal/g.°C).(15 K + 273 K)]/1,5 g.4,18.10³ (cal/g.°C) Tf (K) = es decir: tf (°C) = 288 - 273 = 15 °C EL CALOR El calor es una manifestación de la energía provocada por el movimiento molecular. Al calentarse un cuerpo, aumenta la energía cinética de las moléculas, produciéndose choques más o menos violentos, según la cantidad de calor entregada. El calor es susceptible de medir; lo que se efectúa teniendo en cuenta dos magnitudes fundamentales: intensidad de calor y cantidad de calor. 1- La intensidad de calor está relacionada con la velocidad del movimiento molecular estableciéndose para medirla una práctica que da una idea del grado o nivel del calor que tiene un cuerpo determinado. Arbitrariamente se fijan parámetros comparativos que permiten determinar dicho nivel de calor, al que se denomina temperatura. Se dice que un cuerpo con gran velocidad molecular tiene más temperatura o más nivel de calor que otro. 2- La cantidad de calor de un cuerpo representa la suma de las energías térmicas de todas las moléculas que lo componen. Es decir que mientras la intensidad de calor o temperatura indica el grado de movimiento molecular o el nivel de calor de un cuerpo, esta magnitud señala su contenido total de calor. Se demuestra que la cantidad de calor de un cuerpo es función de la masa del cuerpo y de su temperatura, o lo que es lo mismo, del número de moléculas que lo componen y de su nivel de intensidad térmica o velocidad molecular. Para determinar la cantidad de calor se ha establecido un valor característico, que depende de las particularidades de cada cuerpo, que se denomina calor específico. Se define como calor específico a la cantidad de calor necesario para elevar en 1 °C la temperatura de la unidad de masa de una sustancia. El calor específico,si bien depende de la temperatura en forma muy leve, puede suponerse constante para cada sustancia en particular, a los fines de su aplicación práctica. Como unidad se usa el agua a presión atmosférica normal, considerándose una temperatura normal de 15 °C que está dentro del entorno de las aplicaciones prácticas. De esa manera, el calor específico igual a 1, sería la cantidad de calor necesaria para elevar la temperatura de 1 kg de agua en 1 °C (14,5 a 15,5) a presión atmosférica normal. A esta cantidad de calor se la denomina (kcal) kilocaloría,y sería entonces la unidad de cantidad de calor. 45 Acreditalo ® Derechos Reservados Para ello, la unidad de calor específico valdrá: Ce = kcal/Kg.°C El SIMELA o Sistema Métrico Legal Argentino, ha establecido como unidad de calor el Joule . La equivalencia es la siguiente: 1 Kcal = 4185,5 joule Calor sensible y calor latente Cuando definimos la unidad de calor, mencionamos que el agregado de dicha energía provocaba un aumento de la temperatura, a ese estado calórico cuya variación de nivel puede determinarse mediante un termómetro, que es sensible a ella, se denomina calor sensible. Se representa por la fórmula: Q = m.ce.(t°f - t°i) Q es la cantidad de calor entregada o recibida por un cuerpo (Kcal) m es la masa del cuerpo (Kg) Ce es el calor específico de la sustancia (Kcal/Kg.°C) T ° i es la temperatura inicial del cuerpo (°C) T ° f es la temperatura final del cuerpo (°C) Ejemplo 1: Calentar 1 kg de agua de 10 a 100 °C. ¿Qué cantidad de calor sensible se le ha agregado? Si Q = m.ce.(t°f - t°i) Q = 1 kg.(1 kcal/kg.°C).(100 °C - 10 °C) Q = 90 kcal Sin embargo, sucede que cuando se esta materializando un cambio de estado físico, se verifica que el agregado o sustracción de calor no origina variación de temperatura. En efecto, por ejemplo, si se tiene agua en ebullición, durante todo el proceso que esta dura, la temperatura se mantiene constante en los 100 °C, aunque se le agregue calor continuamente. A ese calor que agregado a una sustancia no origina cambio de nivel térmico o temperatura, se lo denomina calor latente, o sea, como su nombre lo indica, ese calor se encuentra latente, y se consume en la acción de transformación física. Q = m.c vl Donde: C vl es el calor latente de vaporización (kcal/kg) El calor latente de vaporización del agua (100 °C) es 539 kcal/kg El calor latente de fusión del agua (0 °C) es 80 kcal/kg Ver Gráfico Propagación del calor Todo cuerpo con una determinada cantidad de calor, tiene la propiedad de cederlo a otro cuerpo, siempre que éste se encuentre a menor temperatura. Es decir, existe un flujo térmico que consiste en la cesión del calor de los puntos de mayor temperatura. De esa manera, entonces, la energía térmica se transfiere del nivel térmico o temperatura más alto al más bajo, hasta alcanzar un estado de equilibrio o igual temperatura. Los fenómenos que intervienen en la transmisión del calor son tres: 1. Convección 2. Radiación 3. Conducción 1 - Conducción La transmisión del calor por conducción es típica de los sólidos. Se origina por la agitación molecular provocada por el calor que se transmite progresivamente, sin modificar la distancia relativa de las moléculas. La velocidad con que el material deja pasar el calor por conducción,depende de su conductividad que es una propiedad que tiene cada material. Hay materiales que conducen más que otros. Los metales son mucho más conductores del calor que, por ejemplo, los materiales de cerramiento de una construcción. La conducción del calor se establece por un coeficiente λ de la conductividad térmica, que es un valor determinado para cada elemento en particular. Ejemplo 2: Hallar la cantidad de canto rodado necesario para un acumulador solar que recibe 10000 Kcal/día si se quiere alcanzar una T ° f = 75 °C y partiendo de una T ° i = 20 °C (Ce = 0.29 Cal/g.°C). 46 Acreditalo ® Derechos Reservados Q = 10000 Kcal = 10000000 Cal T ° f = 75 °C T ° i = 20 °C Ce = 0.29 Cal/g.°C m= ? Si: Q = m.ce.(tf - ti) m = Q/[ce.(tf - ti)] m = 10000000 cal/[(0,29 cal/g.°C).(75 °C - 20 °C)] m = 10000000 cal/[(0,29 cal/g.°C).55 °C] m = 626959,24 g m = 626,96 kg Ejemplo 3: a - Qué cantidad de calor será necesaria para calentar el agua de una pileta que contiene 25000 litros de agua, si se desea aumentar su temperatura de 20 °C a 30 °C? m = 25000 l = 25000 Kg T ° i = 20 °C T ° f = 35 °C Ce = 1 Kcal/kg.°C Q = m.Ce.Δ T ° Q = 25000 Kg.(1 Kcal/Kg.°C). (30 °C - 20 °C) Q = 25000 Kg.1 (Kcal/Kg.°C). 10 °C Q = 250000 Kcal b - Qué tiempo se necesitará para entregar estas calorias al agua si se emplea gas natural? Poder calorífico del gas = 8000 Kcal/h. 8000 Kcal 1h 250000 Kcal t = 250000 Kcal.1 h/8000 Kcal t = 31.25 h Ejemplo 4: Si mezclamos 1 l de agua a 92 °C con 0.5 l de agua 20 °C, qué temperatura alcanzará la mezcla? m1.ce.(-tf + ti1) = m2.ce.(tf - ti2) -m1.ce.tf + m1.ce.ti1 = m2.ce.tf - m2.ce.ti2 m2.ce.ti2 + m1.ce.ti1 = m2.ce.tf + m1.ce.tf ce.(m2.ti2 + m1.ti1) = (m2 + m1).ce.tf (m2.ti2 + m1.ti1)/(m2 + m1) = tf (1 l.92 °C + 0,5 l.20 °C)/(1 l + 0,5 l) = tf tf = 102 l.°C/1,5 l tf = 68 °C Unidades de Energía Unidades de Potencia 1 kgm = 9,8 J 1 cal = 4,18 J 1 Kcal = 427 kgm 1 C.V. = 735 W 1kgm/s = 9,8 W - 47 Acreditalo ® Derechos Reservados Convección La forma de transmisión de calor por convección es propia de los fluidos, por ejemplo, en nuestro caso el aire o el agua. Por efecto de la variación de su peso debido a un aumento o disminución de temperatura, se establece en ellos una circulación permanente y continua. Ese movimiento del fluido produce, entonces, la transferencia del calor por convección,que se orienta desde los puntos calientes a los fríos. Se utiliza para su determinación un coeficiente Hc que tiene en cuenta la convección y cierta radiación, y se denomina coeficiente de transmitancia. Q = Hc.A.Δ T ° Radiación La forma de transmisión del calor por radiación se produce en el vacío igual que la radiación de la luz en forma de ondas electromagnéticas. De esa manera el proceso de transferencia de calor por radiación no esta vinculado a soporte o vehículo material alguno, no pudiendo ser explicado como en los casos anteriores en términos de moléculas que chocan o se desplazan. Se define entonces la radiación térmica como la transmisión de calor de un cuerpo a otro sin contacto directo, en forma de energía radiante. Entonces un cuerpo caliente transforma una parte de su contenido de calor en energía radiante sobre su superficie, la cual se emite en forma de ondas, que al ser absorbidas por otro cuerpo, se manifiesta en forma de calor. Se desprende de ello que para que la energía radiante pueda ser convertida en calor es necesario que sea absorbida por una sustancia. Todos los cuerpos absorben y además emiten energía radiante, dependiendo de la temperatura a que se encuentren y de sus características físicas. El cuerpo negro es un cuerpo ideal que emite y absorbe el máximo el calor por radiación. Por ello cuando un cuerpo esta constituido por superficies oscuras, emite y absorbe el calor por radiación en gran proporción, ocurriendo todo lo contrario cuando se trata de cuerpos de superficies blancas o brillantes. Los cuerpos calientes emiten mayor cantidad de calor que los fríos, habiendo un continuo intercambio de energía radiante entre las sustancias que se encuentran a distintas temperaturas. La fórmula para su cálculo es: R = r.A.(T °/100)4.T ° r : constante de radiación T ° : temperatura en grados kelvin T °1 > T °2 En el siguiente ejemplo se indican las tres formas de trasmisión de calor. Supóngase que en un local se ubica un recipiente que contiene agua caliente. Se origina una trasferencia de calor del agua caliente al aire del local, debido a la diferencia de temperatura. Si se analiza el proceso de trasferencia a través de la pared del recipiente se observa que en una primera etapa el calor fluye del agua caliente a la cara interior de la pared por convección, originándose el movimiento de la misma debido que al enfriarse aumenta su densidad y desciende. Luego el calor se trasmite por conducción a través de la pared, y por último se entrega al local por convección al aire produciendose la circulación del mismo debido a que al calentarse disminuye su densidad y asciende, y 48 Acreditalo ® Derechos Reservados por radiación a los distintos elementos del entorno que rodean al recipiente. El aire es prácticamente diatérmico,o sea no absorbe en forma directa el calor por radiación. Coeficiente de transmitancia total K Para los cálculos de la transferencia de calor de una pared o elemento de la construcción se utiliza un coeficiente de transferencia de calor total, que tiene en cuenta los fenómenos indicados precedentemente y permite simplificar dichos cálculos. Se define al coeficiente de transmitancia total K como la cantidad de calor en kcal, que se transmite totalmente en una hora a través de un m ² de superficie, existiendo una diferencia de temperatura de 1° C entre el ambiente interno y externo. Q = K.A.(T °1 - T °2) Siendo: Q : Cantidad de calor que se transmite (kcal/h) K : Coeficiente de transmitancia térmica (kcal/h.m ².°C). Según tablas. A : Area (m ²). T °1 : Temperatura del aire en la cara más caliente (°C). T °2 : Temperatura del aire en la cara más fria (°C). Los coeficientes K para las construcciones normales están tabulados por la Norma IRAM 11.601, pero para muros especiales o de características especiales deben calcularse. Determinación del coeficiente de transmitancia total K Para el cálculo de transmitancia total K, se emplea la siguiente fórmula: Se denomina resistencia total Rt a la inversa de K, es decir: Rt = 1/K 49 Acreditalo ® Derechos Reservados A su vez, las inversas de α, se denominan resistencias superficiales. R si = 1/ α i y R se = 1/ α e λ: coeficiente de conductibilidad térmica(kcal/m.h.°C). α i: coeficiente superficial interior (kcal/h.m ².°C). α e: coeficiente superficial exterior (kcal/h.m ².°C). K: coeficiente de transmitancia térmica total(kcal/h.m ².°C). R t: resistencia a la transmitancia térmica total (m ³.h.°C/kcal). R si: resistencia superficial interior (m ³.h.°C/kcal). R se: resistencia superficial exterior (m ³.h.°C/kcal). e: espesor de los materiales (m). De esa manera, la ecuación será: Rt = 1/λ = Rsi + e1/λ1 + e2/λ2 + ... + Rc + Rse Donde Rc es la resistencia que opone al pasaje de calor en caso de cámaras de aire. Ejemplo 5 : Calcular la resistencia térmica total de un muro, formado por mampostería de 12 cm de espesor, una cámara de aire de 2 cm y un panderete de mampostería de 5 cm interior. Rt = 1/λ = Rsi + e1/λ1 + e2/λ2 + Rc + Rse Rt = 0,61 m ².h.°C/kcal O sea: k = 1/Rt k = 1/(0,61 m ².h.°C/kcal) k = 1,64 kcal/m ².h.°C En este mismo ejemplo ¿qué pasaría si en lugar de la cámara de aire se utilizara lana de vidrio de 2 cm de espesor? 50 Acreditalo ® Derechos Reservados Rt = 1/λ = Rsi + e1/λ1 + e2/λ2 + e3/λ3 + Rse Se aprecia, entonces, que mejora notablemente la resistencia térmica del muro aplicándole aislante térmico. Ejemplo 6 : Calcular la cantidad de calor que fluye a través de una lámina de aluminio de 2 mm de espesor, si la diferencia de temperatura es de 20 °C. H = (K/e).A.Δ T ° H = ((0,49 cal/s.cm.°C)/0,2 cm).20 °C H = 49 cal/s Ejemplo 7 : Se tiene un recipiente cúbico de vidrio de 1 m ² de superficie en sus 6 caras, calcular la temperatura final si entrega 80 Kcal/h y su temperatura inicial es de 20 °C. Q = m.ce.(tf - ti) tf = Q/m.ce + ti Lado = √A/6 Volumen = Lado³ = 0,068 m ³ tf = (80 kcal/h)/[(68 kg).(1 kcal/kg.°C.h)] + 20 °C tf = 21,18 °C Ejemplo 8 : Según Normas IRAM el K de un ladrillo en una pared de 30 cm de espesor es de 1,62 kcal/m ². h.°C, entonses hallar λ para una mampostería de 1 m ² y luego el flujo de calor para una variación térmica de 1 °C. k = λ/e λ = e.k k = (1,64 kcal/m ².h.°C).(1000 cal/1 kcal).(1 m ²/10000 cm ²).(1 h/3600 s) k = 0,000045 cal/cm ².s.°C λ = 30 cm.0,000045 cal/cm ².s.°C λ = 0,00135 cal/cm.s.°C A = 1 m ² = 10000 cm ² H = A.λ.Δt/e H = 10000 cm ².(0,00135 cal/cm.s.°C).(1 °C/30 cm H = 0,45 cal/s Ejemplo 9 : Se tiene un termotanque de 0,5 m de diámetro, 1,2 m de altura y una aislación térmica de espuma de poliestireno de 2 cm de espesor; calcular: a) La cantidad de calor necesaria para elevar su temperatura en 20 °C. b) Si se desea mantener una temperatura interior de 60 °C y la temperatura media exterior es de 20 °C, calcular las pérdidas de calor hacia el exterior. c) Calcular el rendimiento del equipo. d) Calcular el gas consumido anualmente para cubrir las pérdidas. 51 Acreditalo ® Derechos Reservados S = π.d.h + π.d ²/4 S = 3,14.50 cm.120 cm + 3,14.(50 cm) ²/4 S = 20802,5 cm ² V = π.h.d ²/4 V = 3,14.120 cm.(50 cm) ²/4 V = 235500 cm ³ m = 235,5 kg a) Q = m.ce.(tf - ti) Q = 235,5 kg.(1 kcal/kg.°C).20 °C Q = 4710 kcal b) H = A.λ.Δt/e H = (20802,5 cm ²/2 cm).(0,00002 cal/cm ².s.°C).40 °C H = 8,321 cal/s H = 29,96 kcal/h c) Rendimiento R = Q agua/Q gas R = 4710 kcal.100%/9300 kcal R = 50,65 % d) H año = (29,96 kcal/h).(8760 h/año) H año = 262449,6 kcal/año Calorías perdidas = H año/R H año/R = (262449,6 kcal/año)/50,65 % H año/R = 129518,9 kcal/año Gas perdido = Calorías perdidas/calorias del gas/m ³ Gp = (129518,9 kcal/año)/(9300 kcal/m ³) Gp = 13,93 m ³/año Ejemplo 10: ¿Qué cantidad de calor se perderá de un recipiente que contiene 500 cm ³ de agua a 70 °C durante 45´?. Si la temperatura ambiente es de 18 °C y el recipiente esta recubierto de poliestireno expandido de 9,52 mm de espesor. λ = 0,03 kcal/h.m.°C A = π.d.h + π.d ²/4 A = 3,14.7,6 cm.19,5 cm + 3,14.(7,6 cm) ²/4 A = 556,03 cm ² A = 0,055603 m ² Δt = tf - ti Δt = 70 °C - 18 °C Δt = 52 °C H = A.λ.Δt/e H = (0,055603 m ²/0,00952 m).(0,03 cal/m ².h.°C).52 °C H = 9,11 kcal/h H* = (9,11 kcal/h).0,75 h H* = 6,83 kcal Hallar la temperatura final a los 45 minutos. Δ T ° = -Q/m.Ce (es negativa debido a que pierde T °) Δt = ti - te = -Q/m.ce 52 Acreditalo ® Derechos Reservados ti = te - Q/m.ce ti = 70 °C - 6,83 kcal/[(0,5 kg).(1 kcal/kg.°C)] ti = 56,33 °C Ejemplo 11: Se tiene una resistencia eléctrica a la cual se le han medido las siguientes características: U = 220 v I = 1,75 A cos φ = 0,95 Se sabe que P = U.I. cos φ, que Δ T ° producira esta resistencia eléctrica cuando calienta 500 cm ³ de agua durante 120 segundos. P = 220 v . 1,75 A.. 0,95 P = 365,75 w E = P/t E = 365,75 W.120 s.1 h/3600 s E = 12,192 W.h Sabiendo que 860 kcal = 1 kw E = 12,192 W.h.(860 kcal/1 kW).(1 kW/1000 W) E = 10,485 kcal Δt = Q/m.ce Δt = 10,485 kcal/[(0,5 kg).(1 kcal/kg.°C)] Δt = 20,97 °C Hallar el costo: Costo = Valor (kW.h).E Costo = (0,15 $/kW.h)/0,012192 kW.h Costo = $ 0,0018 Hallar la temperatura final para a) 45 min y b) 20 min. H = A.λ.Δt/e H = (0,055603 m ²/0,00952 m).(0,03 cal/m ².h.°C).52 °C H = 7,97 kcal/h a) H1 = (7,97 kcal/h).0,75 h H1 = 5,98 kcal Δt1 = H1/m.ce Δt1 = (5,98 kcal)/[(0,5 kg).(1 kcal/kg.°C)] Δt1 = 11,96 °C t1 = 60,04 °C b) H2 = (7,97 kcal/h).0,33 h H2 = 2,63 kcal Δt2 = H2/m.ce Δt2 = (2,63 kcal)/[(0,5 kg).(1 kcal/kg.°C)] Δt2 = 5,26 °C t2 = 66,74 °C Hallar la temperatura final para: c) 10 min; d) 30 min; e) 40 min; f) 50 min y g) 60min, y luego graficar la temperatura en función del tiempo. c) H3 = (7,97 kcal/h).0,17 h H3 = 1,35 kcal Δt3 = H3/m.ce Δt3 = (1,35 kcal)/[(0,5 kg).(1 kcal/kg.°C)] Δt3 = 2,71 °C t3 = 67,29 °C d) H4 = (7,97 kcal/h).0,50 h H4 = 3,99 kcal 53 Acreditalo ® Derechos Reservados Δt4 = H4/m.ce Δt4 = (3,99 kcal)/[(0,5 kg).(1 kcal/kg.°C)] Δt4 = 7,98 °C t4 = 62,02 °C e) H5 = (7,97 kcal/h).0,66 h H5 = 5,31 kcal Δt5 = H5/m.ce Δt5 = (5,31 kcal)/[(0,5 kg).(1 kcal/kg.°C)] Δt5 = 10,62 °C t5 = 59,38 °C f) H6 = (7,97 kcal/h).0,83 h H6 = 6,64 kcal Δt6 = H6/m.ce Δt6 = (6,64 kcal)/[(0,5 kg).(1 kcal/kg.°C)] Δt6 = 13,28 °C t6 = 56,72 °C g) H7 = (7,97 kcal/h).1 h H7 = 7,97 kcal Δt7 = H7/m.ce Δt7 = (7,97 kcal)/[(0,5 kg).(1 kcal/kg.°C)] Δt7 = 15,94 °C t7 = 54,06 °C Ver Gráfico Ejemplo 12: Hallar la pérdida por convección en el siguiente caso: T ° i = 70 °C T °e = 10 °C T °s = 25 °C S=1m² t=1h Q = 45,05 kcal CICLOS TERMODINAMICOS Resulta útil tratar los procesos termodinámicos basándose en ciclos: procesos que devuelven un sistema a su estado original después de una serie de fases, de manera que todas las variables termodinámicas relevantes vuelven a tomar sus valores originales. En un ciclo completo, la energía interna de un sistema no puede cambiar, puesto que sólo depende de dichas variables. Por tanto, el calor total neto transferido al sistema debe ser igual al trabajo total neto realizado por el sistema. Un motor térmico de eficiencia perfecta realizaría un ciclo ideal en el que todo el calor se convertiría en trabajo mecánico. El ciclo de Carnot, es un ciclo termodinámico que constituye el ciclo básico de todos los motores térmicos,y demuestra que no puede existir ese motor perfecto. Cualquier motor térmico pierde parte del calor suministrado. El segundo principio de la termodinámica impone un límite superior a la eficiencia de un motor, límite que siempre es menor del 100%. La eficiencia límite se alcanza en lo que se conoce como ciclo de Carnot. Ciclo Otto 54 Acreditalo ® Derechos Reservados En el punto a la mezcla de nafta y aire ya está en el cilindro. ab: contracción adiabática. cd: expansión adiabática. bc: calentamiento isocórico. ad: enfriamiento isocórico. R: relación de compresión. Cp: calor específico a presión constante Cv: calor específico a volumen constante γ = Cp/Cv (Sears 419 - Tabla 18.1) η = 1 - 1/R(γ - 1) Para un R = 8, y un γ = 1,4 (aire), η = 0,56 Ciclo diesel El gasoil se inyecta durante la carrera ab. ab: contracción adiabática. cd: expansión adiabáticas. ad: enfriamiento isocórico. bc: expansión y calentamiento isobárica. R: relación de compresión. Cp: calor específico a presión constante Cv: calor específico a volumen constante γ = Cp/Cv (Sears 419 - Tabla 18.1) ( γ - 1) η = 1 - 1/R Para un R = 15-20, y un γ = 1,4 (aire), η = 0,65-0,70 Ciclo de Carnot 55 Acreditalo ® Derechos Reservados Una máquina de Carnot es perfecta, es decir, convierte la máxima energía térmica posible en trabajo mecánico. Carnot demostró que la eficiencia máxima de cualquier máquina depende de la diferencia entre las temperaturas máxima y mínima alcanzadas durante un ciclo. Cuanto mayor es esa diferencia, más eficiente es la máquina. Por ejemplo, un motor de automóvil sería más eficiente si el combustible se quemara a mayor temperatura o los gases de escape salieran a menor temperatura. ab y cd: contracciones y expansiones isotérmicas. bc y ad: contracciones y expansiones adiabáticas. η = W/QH η= (QH - QC)/QH η = 1 - QC/ QH QH = W ab = n.R.TH.ln Vb/Va QC = W cd = n.R.TC.ln Vc/Vd QC/QH = TC/TH η = 1 - TC/TH Ciclo de refrigeración Los sistemas de compresión emplean cuatro elementos en el ciclo de refrigeración: compresor, condensador, válvula de expansión y evaporador. En el evaporador, el refrigerante se evapora y absorbe calor del espacio que está enfriando y de su contenido. A continuación, el vapor pasa a un compresor movido por un motor que incrementa su presión, lo que aumenta su temperatura (entrega trabajo al sistema). El gas sobrecalentado a alta presión se transforma posteriormente en líquido en un condensador refrigerado por aire o agua. Después del condensador, el líquido pasa por una válvula de expansión, donde su presión y temperatura se reducen hasta alcanzar las condiciones que existen en el evaporador. QH = QC - L η = - QC /L L = QC-QH - QC/(QC-QH) Sistemas de absorción Algunos refrigeradores domésticos funcionan mediante el principio de absorción. En ellos, una llama de gas calienta una disolución concentrada de amoníaco en agua en un recipiente llamado generador, y el amoníaco se desprende en forma de vapor y pasa a un condensador. Allí se licúa y fluye hacia el 56 Acreditalo ® Derechos Reservados evaporador, igual que en el sistema de compresión. Sin embargo, en lugar de pasar a un compresor al salir del evaporador, el amoníaco gaseoso se reabsorbe en la solución diluida y parcialmente enfriada procedente del generador, para formar de nuevo una disolución concentrada de amoníaco. Este proceso de reabsorción se produce en un recipiente llamado absorbedor, desde donde el líquido concentrado fluye de vuelta al generador para completar el ciclo. FISICA – TRABAJO Y ENERGIA TRABAJO Una fuerza constante genera trabajo cuando, aplicada a un cuerpo, lo desplaza a lo largo de una determinada distancia. Mientras se realiza trabajo sobre el cuerpo, se produce una transferencia de energía al mismo, por lo que puede decirse que el trabajo es energía en movimiento. Por otra parte, si una fuerza constante no produce movimiento, no se realiza trabajo. Por ejemplo, el sostener un libro con el brazo extendido no implica trabajo alguno sobre el libro, independientemente del esfuerzo necesario. El trabajo se expresa en Joules (J). Cuando la fuerza tiene la dirección de movimiento. L = F.d L: Trabajo realizado por la fuerza. Cuando la fuerza aplicada tiene una inclinación α con respecto al movimiento. L = F.cos α .d Todas las fuerzas perpendiculares al movimiento no realizan trabajo. La fuerza puede no ser mecánica,como ocurre en el levantamiento de un cuerpo o en la aceleración de un avión de reacción; también puede ser una fuerza electrostática, electrodinámica o de tensión superficial. Energía La magnitud denominada energía enlaza todas las ramas de la física. En el ámbito de la física, debe suministrarse energía para realizar trabajo. La energía se expresa en joules (J). Existen muchas formas de energía: energía potencial eléctrica y magnética, energía cinética, energía acumulada en resortes estirados, gases comprimidos o enlaces moleculares,energía térmica e incluso la propia masa. Energía cinética Cuando una fuerza aumenta la velocidad de un cuerpo también se realiza trabajo, como ocurre por ejemplo en la aceleración de un avión por el empuje de sus reactores. Cuando un cuerpo se desplaza con movimiento variado desarrolla energía cinética. Ec = ½.m.v ² L = F.d L = Ec F.d = ½.m.v ² Ec: Energía cinética. El trabajo realizado por la fuerza resultante que actúa sobre una partícula es igual a la variación de la energía cinética de dicha partícula. Δ Ec = Ec2 - Ec1 L = Ec2 - Ec1 F.d = ½.m.(v ²2 - v ²1) Δ Ec: Variación de la energía cinética. Energía potencial Cuando se levanta un objeto desde el suelo hasta la superficie de una mesa, por ejemplo, se realiza trabajo al tener que vencer la fuerza de la gravedad,dirigida hacia abajo; la energía comunicada al cuerpo por este trabajo aumenta su energía potencial. Si se realiza trabajo para elevar un objeto a una altura superior, se almacena energía en forma de energía potencial gravitatoria. Cuando un cuerpo varía su altura desarrolla energía potencial. Ep = m.g.h L = F.d L = Ep P.d = m.g.h Ep: Energía potencial. El trabajo realizado por la fuerza peso es igual a la variación de la energía potencial. Δ Ep = Ep2 - Ep1 57 Acreditalo ® Derechos Reservados L = Ep2 - Ep1 P.d = m.g.(h2 - h1) Δ Ep: Variación de la energía potencial. En todas las transformaciones entre un tipo de energía y otro se conserva la energía total, y se conoce como teorema de la energía mecánica (Δ EM). Por ejemplo, si se ejerce trabajo sobre una pelota de goma para levantarla, se aumenta su energía potencial gravitatoria. Si se deja caer la pelota, esta energía potencial gravitatoria se convierte en energía cinética. Cuando la pelota choca contra el suelo, se deforma y se produce fricción entre las moléculas de su material. Esta fricción se transforma en calor o energía térmica. Fuerzas conservativas Para un cuerpo de masa m que se mueve del punto 1 al 2 y luego del punto 2 al 1. Una fuerza es conservativa si el trabajo efectuado por ella sobre una partícula que se mueve en cualquier viaje de ida y vuelta es 0. Δ EM = 0 Δ EM : Variación de la energía mecánica. Trabajo de fuerzas conservativas: L = Δ EM Δ EM = Δ Ec + Δ Ep L = Δ Ec + Δ Ep Fuerzas no conservativas Para un cuerpo de masa m que se mueve del punto 1 al 2 y luego del punto 2 al 1. Una fuerza es no conservativa si el trabajo efectuado por ella sobre una partícula que se mueve en cualquier viaje de ida y vuelta es distinto de 0. Δ EM ≠ 0 Δ EM = HO Δ EM: Variación de la energía mecánica. HO : Trabajo de la fuerza de rozamiento. Trabajo de fuerzas no conservativas: L = Δ EM + HO L = Δ Ec + Δ Ep + HO Siendo: HO = Fr.d Potencia La potencia desarrollada por una fuerza aplicada a un cuerpo es el trabajo realizado por ésta durante el tiempo de aplicación. La potencia se expresa en watt (W). P=L/t P = F.d / t v=d/t P = F.v También: P = (Δ Ec + Δ Ep + HO)/t Si no hay fuerza de rozamiento P = (Δ Ec +Δ Ep)/t Si no cambio su altura P = (Δ Ec)/t P: potencia Caballo de vapor: Unidad tradicional para expresar la potencia mecánica, es decir, el trabajo mecánico que puede realizar un motor por unidad de tiempo; suele abreviarse por CV. En el Sistema Internacional de unidades, la unidad de potencia es el vatio; 1 caballo de vapor equivale a 736 vatios. Su valor original era, por definición, 75 kilográmetros por segundo. Resolver: 1) Transformar 250 kgf.m a Joul y kW.h. Ver solución al final de ésta página 58 Acreditalo ® Derechos Reservados 2) ¿Cuántos kgf.m y Joul representan 25 kW.h?. Ver solución al final de ésta página 3) Indicar cuántos Joul y kW.h son 125478 kgm. Ver solución al final de ésta página 4) Indicar el trabajo necesario para deslizar un cuerpo a 2 m de su posición inicial mediante una fuerza de 10 N. Ver solución al final de ésta página 5) ¿Qué trabajo realiza un hombre para elevar una bolsa de 70 kgf a una altura de 2,5 m?. Expresarlo en: a) kgf.m b) Joule c) kW.h Ver solución al final de ésta página 6) Un cuerpo cae libremente y tarda 3 s en tocar tierra. Si su peso es de 4 N, ¿qué trabajo deberá efectuarse para elevarlo hasta el lugar desde donde cayo?. Expresarlo en: a) Joule. b) kgm. Ver solución al final de ésta página Responder: 1) ¿Qué es el trabajo mecánico?. 2) ¿En que unidades se mide el trabajo?. 3) ¿Cuáles son sus equivalencias?. 4) Si se levanta un cuerpo desde el suelo, ¿hay trabajo?. 5) ¿Las máquinas simples, realizan trabajo?. Resultados: 1) 1 kgf.m 9,807 J 250 kgf.m x = 250 kgf.m × 9,807 J/1 kgf.m x = 2451,75 J 1 W = 1 J/s 1kW = 1.000 J/s 1kW.h = 1.000 J.3.600 s/s 1kW.h = 3.600.000 J s/s 1 J = 1kW.h/3.600.000 1 kgf.m 9,807 J/3.600.000 250 kgf.m x = 250 kgf.m × 9,807 J/3.600.000 kgf.m -4 x = 6,81.10 kW.h 2) 1 kW.h 3.600.000 J 25 kW.h x = 25 kW × 3.600.000 J/1 kW.h 7 x = 9.10 J 1 kW.h 3.600.000 kgf.m/9.807 25 kW.h x = 25 kW.h × 9,807 × 3.600.000 J/1 kW.h x = 9.177.118 kgf.m 3) 1 kgf.m 125.478 kgf.m 9,807 J x = 125.478 kgf.m × 9,807 J/1 kgf.m 59 Acreditalo ® Derechos Reservados x = 1.230.563 J 1 kgf.m 9,807 J/3.600.000 125.478 kgf.m x = 125.478 kgf.m × 9,807 J/3.600.000 kgf.m x = 0,3418 kW.h 4) L=F×d L = 10 N × 2 m L = 20 J 5) a) L = F × d L = 70 kgf × 2,5 m L = 175 kgf.m b) L = 175 kgf.m × 9,807 J/kgf.m L = 1716,225 J a) L = 175 kgf.m × 9,807 J/3.600.000 kgf.m L = 0,000477 kW.h 6) L = F.d En éste caso se trata de la fuerza peso, por lo tanto: L = P.d y al ser un movimiento vertical la distancia es la altura: L = P.h Mediante cinemática calculamos la altura para caída libre. h = ½.g.t ² h = ½ × 9,807 (m/s ²) × (3 s) ² h = ½ × 9,807 (m/s ²) × 9 s ² h = 44,1315 m Luego: a) L = P × h L = 4 N × 44,1315 m b) L = 176,526 J/(9,807 kgf.m × J) L = 176,526 J L = 18 kgf.m UNIDADES Y MEDIDAS 60 Acreditalo ® Derechos Reservados M.K.S. Técnico Técnico M.K.S. M.K.S. Otros Masa m kg = 0,06852 slug slug = 14,59 kg kg =2,205 lb Longitud e m = 3,28pie pie = 0,3048 m m = 39,3 plg Tiempo t s=s s=s s=s Velocidad v = e/t m/s = 3,28pie/s pie/s = 0,3048 m/s m/s = 2,237 mi/h Aceleración a = F/m = v/t m/s ² = 3,28pie/s ² pie/s ² = 0,3048 m/s ² m/s ² = 8503,2 mi/h ² Fuerza Peso F = m.a N = 0,102 kg kg = 9,807 N N = 0,2248 lbf Trabajo Energía L = F.e J = 0,000948BTU BTU = 1055 J J = 0,2389 cal Potencia P = L/t W = 3,413 BTU/h BTU/h = 0,293 W W =0,00134 hp Presión p = F/A Pa = 0,000145 lbf/plg ² lbf/plg ² = 6895 Pa Pa =0,0000102 kg/cm ² Densidad δ = m/V kg/m ³ = 0,00194 slug/pie³ slug/pie³ = 515,4 kg/m ³ kg/m ³ = 0,0003613 lb/plg³ Peso específico ρ = P/V = δ.m/V N/m ³ = 0,002888 kg/pie³ kg/pie³ = 346,27 N/m ³ N/m ³ =0,00000167 kg/plg³ Momento M = F.d Unidad/Sistema N.m = 0,3347 kg.pie C.G.S M.K.S kg.pie= 2,988 N.m Técnico otros 1 otros 2 Masa gr. Kg slug Lb Longitud cm. m m pulg. pie Tiempo s s s s s Velocidad cm/s m/s m/s pulg/s pie/s Aceleración cm/s ² m/s ² m/s ² pulg/s ² pie/s ² Fuerza dina N Kgf Lbf Presión N.m = 0,102 kg.m dina/cm ² Pa = N/m ² Kgf/m ² Lbf/pulg ² atmósfera o lbf/pie ² Trabajo ergio (J) Joule B.T.U Potencia ergio/s Watt (J/s) H.P C.V cal/s Momento dina.cm N.m Kgm Lbf.pulg Lbf.pie cal 61 Acreditalo ® Derechos Reservados QUIMICA – COMPUESTOS QUIMICOS LA ENERGIA EN LAS REACCIONES QUIMICAS El estudio de las reacciones químicas desde un punto de vista energético mejora la descripción de los procesos químicos. La entalpía o contenido energético cambia al pasar de los reactivos a los productos y, junto con la entropía o grado de desorden, determina el que una reacción se produzca o no espontáneamente. La variación de entalpía en una reacción química no depende del camino seguido por la reacción, sino sólo de los estados inicial y final. Las reacciones químicas son procesos de transformación o cambio de unas sustancias en otras. En ciertas ocasiones, el interés de este tipo de procesos se centra en la obtención de nuevos productos útiles para la medicina o para la industria; en otras, se persigue la obtención de energía; tal es el caso, por ejemplo, de la combustión de la gasolina o del carbón. En general, las reacciones químicas llevan consigo cambios materiales y también cambios energéticos. El estudio de los procesos químicos requiere,por tanto, algo más que cálculos sobre cuánta cantidad de productos se forma a partir de una cantidad dada de reactivos. La determinación de la cantidad de energía puesta en juego en una reacción o la explicación de su carácter espontáneo constituyen algunas de las cuestiones o aspectos energéticos de las reacciones químicas. ENERGIA Y PROCESOS QUIMICOS Conceptos fundamentales Toda reacción química lleva asociada una variación observable de energía que puede manifestarse en forma luminosa, eléctrica, mecánica o calorífica, siendo esta última, con mucho, la más frecuente. Para estudiar un proceso químico desde un punto de vista energético, se suele considerar separadamente el conjunto de sustancias en transformación, denominado genéricamente sistema , del resto, que recibe el nombre de medio o entorno . De acuerdo con lo anterior, las reacciones químicas implican una transferencia de energía que en unas ocasiones se lleva a cabo del sistema al medio y en otras en sentido inverso. Si la reacción lleva consigo un desprendimiento de calor del sistema al medio, se denomina exotérmica . Por el contrario, si el proceso químico implica la absorción de una cierta cantidad de calor del medio por parte del sistema, se denomina endotérmica . Todas las reacciones de combustión son exotérmicas; así, la reacción de combustión del hidrógeno libera gran cantidad de calor: H2 + ½O2 H2 O + calor Por el contrario, la reacción de descomposición del carbonato de calcio es endotérmica pues requiere la aportación al sistema de una cierta cantidad de energía calorífica del medio: CaCO3 + calor CO2 + CaO La cantidad de calor desprendido o absorbido en una reacción química, referida a las cantidades de sustancias, en número de moles, que figuran en la correspondiente ecuación química ajustada, se denomina calor de reacción . Se expresa en kilocalorías (kcal) o en kilojulios (kJ) y suele situarse en el segundo miembro de la ecuación; en el caso de que se trate de una reacción endotérmica irá precedido de un signo menos. Los calores de reacción dependen de las condiciones de presión, temperatura y estado físico (sólido, líquido o gaseoso) del sistema; por ello, cuando se pretendan hacer cálculos de energía deben especificarse en la ecuación química dichas condiciones. Así la reacción de formación del agua se escribirá en forma completa como: H2 (g; 1 atmósfera) + ½O2 (g; 1 atmósfera) 298 K H2 O (g; 1 atmósfera) + 241,8 kJ Dado que las diferentes sustancias son gaseosas, se ha hecho explícita la presión. En ocasiones, se sobreentiende que los calores de reacción están referidos a unas condiciones estándar de presión y temperatura, por lo general 1 atmósfera y 298 K, señalándose únicamente el estado físico. La ecuación química resultante de añadir toda esta información recibe el nombre de ecuación termoquímica . El contenido energético de las sustancias químicas Si en los procesos químicos se producen cesiones o absorciones de energía del sistema al medio, cabe pensar que tanto los reactivos como los productos almacenan una determinada cantidad de energía, siendo la diferencia entre ambas la que entra en juego en la reacción química. A tal cantidad de energía almacenada por cada una de las sustancias se le denomina contenido energético o entalpía y se representa mediante la letra H. De acuerdo con esto, en las reacciones endotérmicas el contenido energético de los productos es superior al de los reactivos; el sistema ha pasado de un estado inicial menos energético a otro final más energético, y para ello ha sido preciso la absorción de la correspondiente cantidad de energía del medio. En las reacciones exotérmicas sucede, por el contrario, que el contenido energético de los productos es inferior al de los reactivos, de modo que el estado final del sistema es menos energético que el estado 62 Acreditalo ® Derechos Reservados inicial; el sistema ha perdido energía cediéndosela al medio. En aquellas reacciones en las cuales las condiciones de presión y temperatura se mantienen constantes, la diferencia Δ H de contenido energético del sistema entre los estados final e inicial, o lo que es lo mismo, la energía puesta en juego en el proceso, coincide con el calor de reacción que aparece de forma explícita en la ecuación termoquímica. En las reacciones endotérmicas la variación de entalpía es positiva, Δ H > 0, mientras que en las exotérmicas es negativa, Δ H < 0. Cabe preguntarse cuál es, finalmente, la razón por la que en las reacciones químicas se producen estos cambios de energía. La respuesta se encuentra en la propia naturaleza de los procesos químicos. Una reacción química implica una ruptura de enlaces y una posterior recomposición de los átomos resultantes en moléculas diferentes, formadas por nuevos enlaces. No todos los enlaces son igual de fuertes, es decir, la energía necesaria para romperlos (energía de enlace) es, en general, diferente, de ahí que toda reorganización implique una variación del contenido energético del sistema. Si los enlaces de los productos son, en conjunto, más débiles que los de los reactivos, podrá haber producción de energía y la reacción será exotérmica. Si por el contrario, los enlaces de los productos son más fuertes que los de los reactivos, habrá sido necesario un aporte de energía y la reacción será entonces endotérmica. LA ESPONTANEIDAD DE LAS REACCIONES El principio de mínima energía Como en toda la naturaleza, también en las reacciones químicas opera el principio de mínima energía según el cual los sistemas materiales tienden a evolucionar en el sentido en el que disminuye su energía potencial. Una bola rueda por un plano inclinado hasta encontrar la posición más baja, que es la de menor energía; un muelle comprimido se expande para conseguir una condición de mínima deformación y, por tanto, de mínima energía acumulada, y una reacción química evoluciona hacia estados de menor contenido energético. Sucede, en ocasiones, que siendo el contenido energético de los productos inferior al de los reactivos, el sistema en cuestión no evoluciona espontáneamente como cabría esperar según el principio de mínima energía. En una parte de los casos, esto es debido a que se precisa una cierta cantidad de energía, por lo general pequeña, para poner en marcha la reacción, de la misma manera que es preciso dar un impulso inicial a un bloque de madera para que descienda por un plano inclinado. Esta dosis de energía inicial se denomina energía de activación y se emplea en la ruptura de los primeros enlaces, que suministrará energía propia suficiente como para mantener la reacción por sí misma. El principio de máximo desorden De acuerdo con el principio de mínima energía,considerado aisladamente, ninguna reacción endotérmica podría ser espontánea, pues en este tipo de reacciones la energía del sistema aumenta. Sin embargo, existen en la naturaleza reacciones y procesos que, siendo endotérmicos, se producen espontáneamente. Ello indica que, junto con la energía, otro factor debe condicionar el carácter espontáneo de una reacción química. Ese factor adicional es el grado de desorden , también denominado entropía (S) . La entropía depende de factores tales como el número de partículas en juego o el estado físico de las sustancias. Así el estado gaseoso es más desordenado que el líquido o que el sólido y corresponde, por lo tanto, a una mayor entropía. Junto con la tendencia a alcanzar el estado de mínima energía, los sistemas químicos tienden de forma natural a alcanzar el estado de máximo desorden y son ambos factores los que controlan conjuntamente el carácter espontáneo de las reacciones químicas. Un balance entre energía y desorden El hecho observado de que la espontaneidad de las reacciones químicas dependa no sólo de la energía sino también del desorden, puede explicarse a partir de la siguiente ecuación entre magnitudes físicas: Δ G = Δ H - T Δ S (23.1) donde H es el contenido energético o entalpía, T es la temperatura absoluta, S es la entropía y G la llamada energía libre de Gibbs . Esta magnitud G a la que contribuyen tanto la entalpía como la entropía, es la que determina el carácter espontáneo de una reacción química. En todos los procesos espontáneos la energía libre del sistema disminuye, es decir, el valor final de G es menor que el inicial y, por tanto, Δ G es negativa. De acuerdo con la anterior ecuación, tal disminución (Δ G < 0) podrá ser debida a una disminución del contenido energético H ( Δ H < 0), a un aumento del desorden (Δ S > 0) o a ambos. El resultado final de ese balance entre energía y desorden es entonces el responsable de la espontaneidad de la reacción. Si T.Δ Ses mayor que Δ H aunque el proceso sea endotérmico (Δ H > 0) será espontáneo (Δ G < 0). Tal es el caso de la reacción: N2O4 (g) 2.NO2 (g) que no es espontánea a 258 K y sí lo es a 358 K, porque, a esa temperatura, el término de desorden T.δ S predomina sobre el de energía Δ H, con lo que Δ G resulta negativo. Este ejemplo muestra la 63 Acreditalo ® Derechos Reservados importancia que tiene el factor temperatura a la hora de establecer si una reacción química es o no espontánea. Toda reacción exotérmica (Δ H < 0) en la que tenga lugar un aumento de entropía (Δ S > 0) es espontánea (Δ G < 0). La reacción de descomposición del agua oxigenada constituye un ejemplo: 2.H2 O2 (g; 1 atmósfera) 298 K 2.H2 O (g; 1 atmósfera) + O2 (g; 1 atmósfera) + 211 kJ En este proceso aumenta el número de partículas (a igualdad de estado gaseoso de reactivos y productos) por lo que aumenta el desorden; pero además, desprende calor (Δ H < 0). Ambas circunstancias contribuyen a que la energía libre disminuya y así, el proceso tiene lugar espontáneamente. Además de las consideradas anteriormente,existen otras posibilidades para ese balance definido por la ecuación (23.1). La tabla adjunta las resume esquemáticamente. APLICACION: EVOLUCION DE UNA REACCION QUIMICA La reacción de síntesis del amoníaco: 3.H2 (g) + N2 (g) 2.NH3 (g) viene acompañada, en las condiciones de 298 K de temperatura y una atmósfera de presión, por los siguientes cambios en las variables termodinámicas H y S: Δ H = -22,1 kcal Δ S =-47,4.10-³ kcal/k Discútase en qué condiciones la reacción se efectuará espontáneamente. Dado que Δ H es negativa hay una pérdida de contenido energético por parte del sistema, o lo que es lo mismo, la reacción es exotérmica. Por su parte la entropía disminuye como corresponde a una disminución en el número de moléculas que pasa de ser cuatro para los reactivos a dos para el producto. Para averiguar si a la temperatura considerada la reacción evoluciona espontáneamente será preciso determinar Δ G y particularmente su signo: - Δ G = Δ H - T.Δ S = -22,1 - [298 - (-47,4) .10 ³] = 8,0 kcal La Δ G resulta negativa, por tanto la reacción es espontánea. Un aumento de temperatura no favorece la reacción; en efecto, al aumentar la temperatura el segundo término se hace más positivo y por tanto Δ G resulta menos negativo. LA LEY DE HESS Calor de formación y calor de reacción El calor de formación Δ Hf de una sustancia química representa la energía liberada o consumida durante la formación de dicha sustancia, en condiciones normales, a partir de los elementos que la constituyen. Si en tales condiciones se consideran nulos los contenidos energéticos H de los elementos, el calor de formación Δ Hf de un compuesto coincide con su contenido energético o entalpía. Si se compara la definición de calor de formación con la de calor de reacción se observa que el calor de formación es un tipo particular de calor de reacción (el correspondiente a reacciones de formación o de síntesis de un compuesto). La determinación de calores de reacción puede efectuarse de un modo experimental si la reacción correspondiente se lleva a cabo de forma aislada y controlada en el interior de un calorímetro. Sin embargo, en ocasiones, esto no es posible porque tienen lugar varias reacciones simultáneamente,y no una sola. En tales casos es posible determinarlos de una forma indirecta, recurriendo a una propiedad de la entalpía; el hecho de que H sea una función de estado , esto es, que dependa exclusivamente de los estados inicial y final del sistema, permite calcular calores de reacción a partir del conocimiento de procesos intermedios. Ley de Hess El calor de formación Δ H1 del monóxido de carbono, CO: C (grafito, s) + ½.O2 (g) CO (g) ΔH1 no puede determinarse directamente porque en las condiciones en que se produce, parte del CO se transforma en CO2 . Sin embargo, sí que es posible medir directamente, con la ayuda del calorímetro, los calores de reacción de los siguientes procesos: CO (g) + ½.O2 (g) CO2 (g) ΔH2 = 282,6 kJ/mol C (grafito, s) + O2 (g) ΔH3 = -392,9 kJ/mol CO2 (g) El conjunto de estas tres reacciones puede escribirse en la forma: 64 Acreditalo ® Derechos Reservados Dado que el efecto térmico de una reacción no depende del camino, sino sólo de los estados inicial y final, se podrá escribir: Δ H3 = Δ H1 + Δ H2 y por tanto: Δ H1 = Δ H3 - Δ H2 = -392,9 + 282,6 = 110,3 kJ/mol Dicho de otro modo cuando una reacción, C + ½.O2 con signos) de otras reacciones: C + O2 CO2 C + ½.O2 CO2 CO, escribirse como la suma algebraica (suma (ΔH2 ) C + ½.O2 (-ΔH3 ) CO (ΔH1 ) su calor de reacción es la suma algebraica de los calores de tales reacciones (Δ H1 = Δ H2 - Δ H3 ). O en otros términos: el calor de la reacción de un determinado proceso químico es siempre el mismo, cualquiera que sea el camino seguido por la reacción, o sus etapas intermedias. El contenido de este enunciado recibe el nombre de Ley de Hess . De acuerdo con esa misma ley, los calores de reacción pueden calcularse a partir de los calores de formación de reactivos y productos. El siguiente diagrama representa los procesos de formación y reacción de reactivos y productos, y sus relaciones en términos energéticos: Aplicando la ley de Hess a los dos diferentes caminos que conectan reactivos y productos e igualando ambos términos resulta: Δ H = -Δ Hf (reactivos) + 0 + Δ Hf (productos) es decir: Δ H = Δ Hf (productos) - Δ Hf (reactivos) Por tanto, el calor de reacción de un proceso químico resulta ser igual a la diferencia entre los calores de formación de los productos y los calores de formación de los reactivos: Δ H =(suma calores de formación de productos) - (suma calores de formación de reactivos) CALOR DE REACCION Y ENERGIA DE ENLACE La energía de enlace es la cantidad de energía que se libera en la formación de un enlace entre átomos cuando reaccionan en estado gaseoso. Constituye una medida de la fuerza del enlace covalente; así, por ejemplo, a un enlace sencillo carbono-carbono le corresponde una energía de enlace de -83,1 kcal/mol; a uno doble -147 kcal/mol y a uno triple -194 kcal/mol. Desde el punto de vista de la termoquímica,se puede interpretar como la variación de entalpía H correspondiente a una reacción del tipo: A (g) + B (g) A - B (g) efectuada en condiciones de 1 atmósfera de presión y 298 K de temperatura, siendo A y B los átomos considerados. La energía de enlace Δ H(A - B) es siempre negativa, pues en la unión disminuye el contenido energético del sistema, haciéndose más estable. La aplicación de la ley de Hess permite determinar el calor de reacción a partir de las energías de enlace y viceversa. Como ejemplo de la primera posibilidad puede considerarse el cálculo del calor de reacción del proceso: H-C≡C-H + H2 H3 C-CH3 acetileno hidrógeno etano en el cual se rompen dos enlaces H — H y un enlace C ≡C y aparecen un enlace 65 Acreditalo ® Derechos Reservados C —C y cuatro enlaces H —C nuevos. El balance global de estas operaciones parciales en términos de variación del contenido energético será: Δ Hf = Δ H(C — C) + 4Δ H(C— H) - [Δ H(C ≡ C) + 2Δ H(H— H)] A partir de las energías de enlace correspondientes, supuestas conocidas, se calcula entonces el calor de reacción. Como ejemplo de la segunda posibilidad, se presenta el cálculo de la energía de enlace H —Cl a partir del calor de formación Δ Hf del HCI y de las energías de los enlaces H —H y Cl — Cl (supuestas conocidas). La formación del HCI puede efectuarse por los siguientes caminos: De acuerdo con la ley de Hess: Δ H1 = Δ H2 + Δ H3 en donde, Δ H1 = 2.Δ H.(H — Cl) Δ H2 = Δ H.(H — H) + Δ H.(Cl — CI) Δ H3 = 2. δ Hf por tanto: ΔH (H-Cl) = ½[ΔH (H-H) + ΔH (Cl-Cl) + 2.Δ.Hf ] LA MATERIA EN LAS REACCIONES QUIMICAS Las reacciones químicas son procesos de cambio de unas sustancias en otras. De acuerdo con la teoría atómica de la materia se explican como el resultado de un reagrupamiento de átomos para dar nuevas moléculas. Las sustancias que participan en una reacción química y las proporciones en que lo hacen, quedan expresadas en la ecuación química correspondiente, que sirve de base para la realización de diferentes tipos de cálculos químicos. La naturaleza es dinámica. Tanto la materia viva como la inerte sufren continuamente procesos de transformación, de los cuales los más importantes son los que afectan a su constitución. La formación de las rocas, la erosión química de las aguas, el nacimiento de una planta o la respiración de un mamífero son procesos observables que suponen cambios de unas sustancias en otras. Todos ellos, más allá de sus diferencias, tienen algo en común: implican transformaciones a escala molecular, que son las responsables de los cambios materiales observables a simple vista. LAS REACCIONES QUIMICAS Conceptos fundamentales Una molécula de una determinada sustancia pura constituye el representante elemental de dicha sustancia, es decir, la cantidad más pequeña de ella que posee todas sus propiedades químicas. Cuando una sustancia dada, bajo ciertas condiciones, se transforma en otra u otras con diferentes propiedades, se ha de pensar que algo ha ocurrido a nivel molecular. De forma espontánea unas veces y provocada otras, los átomos, que en número y proporciones fijas forman unas moléculas determinadas, pueden desligarse unos de otros por rotura de sus enlaces y reunirse nuevamente de diferente manera, dando lugar, por tanto, a nuevas moléculas. El efecto conjunto de estas transformaciones moleculares se traducirá en un cambio observable de sustancia o cambio químico. Dicho proceso de transformación recibe el nombre de reacción química. Con frecuencia, sustancias formadas por iones participan en las reacciones químicas. En tales casos, las moléculas de la descripción anterior deben ser consideradas realmente como agregados iónicos. En las reacciones químicas la sustancia o sustancias iniciales se denominan reactivos y las finales productos;el proceso de transformación se representa mediante las llamadas ecuaciones químicas en la forma: reactivos (reacción química) productos Tanto los reactivos como los productos se escriben mediante sus fórmulas correspondientes. La flecha indica el sentido de la transformación. Si es posible conviene indicar en la ecuación química el estado físico de reactivos y productos, el cual se suele expresar mediante las siguientes abreviaturas situadas a continuación de la fórmula química: (s)sólido, (l) líquido, (g) gas, (aq) solución acuosa Cada uno de los símbolos químicos que aparecen en la ecuación no sólo constituye la abreviatura del nombre del elemento correspondiente, sino que además representa un átomo de dicho elemento. Análogamente sucede con la fórmula de un compuesto, la cual designa a dicho compuesto y muestra 66 Acreditalo ® Derechos Reservados los átomos (o los iones) que componen su molécula (o su agregado iónico elemental) así como la relación numérica entre ellos. Esta forma simbólica de escribir las reacciones químicas constituye, por tanto, la descripción de las transformaciones a nivel molecular que aquéllas implican. La representación visual de tales procesos puede efectuarse recurriendo a modelos o construcciones mediante esferas que reproducen la estructura aproximada de la molécula o del agregado iónico en cuestión. En este tipo de modelos, cada esfera, con su correspondiente color, representa un átomo o un ion y el conjunto describe la forma exterior de la molécula o del agregado iónico. Tipos de reacciones químicas El reagrupamiento que experimentan los átomos de los reactivos en una transformación química puede ser de diferentes tipos. He aquí algunos de ellos: a) Reacciones de síntesis. Se caracterizan porque los productos son sustancias más complejas, desde un punto de vista químico, que los reactivos. La formación de un compuesto a partir de sus elementos correspondientes es el tipo de reacción de síntesis más sencilla. Así, el cobre, a suficiente temperatura, se combina con el azufre para formar sulfuro de cobre (I) según la reacción: 2.Cu (s) + S (s) calor Cu2S (s) sulfuro de cobre (I) b) Reacciones de descomposición. Al contrario que en las reacciones de síntesis, los productos son en este caso sustancias más sencillas que los reactivos. Así, cuando el carbonato de cobre se calienta fuertemente se descompone según la reacción: CuCO3 (s) calor CuO (s) + CO2 (s) c) Reacciones de desplazamiento. Tienen lugar cuando siendo uno de los reactivos una sustancia simple o elemento, actúa sobre un compuesto desplazando a uno de sus elementos y ocupando el lugar de éste en la correspondiente molécula. Así las reacciones de ataque de los metales por los ácidos llevan consigo la sustitución del hidrógeno del ácido por el metal correspondiente. Tal es el caso de la acción del ácido clorhídrico sobre limaduras de hierro que tiene lugar en la forma: Fe (s) + 2.HCl (aq) FeCl2 (s) + H2 (g) d) Reacciones de doble descomposición. Se producen entre dos compuestos y equivalen a un intercambio o sustitución mutua de elementos que da lugar a dos nuevas sustancias químicamente análogas a las primeras. Así el sodio desplaza a la plata en el nitrato de plata,pero es a su vez desplazado por aquélla en el cloruro de sodio: NaCl + AgNO3 NaNO3 + AgCl MASA Y VOLUMEN EN LAS REACCIONES La conservación de la masa Toda reacción química establece una relación cualitativa entre reactivos y productos, pues expresa la naturaleza de éstos en función de la de aquéllos. Pero, además,fija las proporciones o cantidades medibles en las que unos y otros intervienen. El fundamento de esta relación cuantitativa entre las diferentes sustancias que participan en una reacción dada fue establecido en la última mitad del siglo XVIII por el químico francés Antoine Laurent Lavoisier (1743-1794). La aplicación de la balanza y de la medida de masas al estudio de multitud de reacciones químicas le permitió descubrir que en cualquier proceso químico la suma de las masas de las sustancias que intervienen (reactivos) es idéntica a la de las sustancias que se originan como consecuencia de la reacción (productos). Es decir, en toda reacción química la masa no se crea ni se destruye, sólo cambia de unas sustancias a otras. La teoría atómica dio una sencilla interpretación a esta ley de conservación. Si los átomos no son alterados esencialmente en las reacciones químicas,sino únicamente las moléculas, el número de átomos de cada elemento que constituye los reactivos ha de coincidir exactamente con el correspondiente de los productos, por lo que la masa total en juego se mantendrá constante en la reacción. La ley de conservación de la masa de Lavoisier constituyó una pieza fundamental en el desarrollo y consolidación de la química como ciencia. Las proporciones en masa en las combinaciones químicas El estudio de las cantidades en las que diferentes sustancias participan en una reacción química fue objeto de la atención de los primeros químicos. Junto con Lavoisier, Proust (1754-1826), John Dalton (1766-1844) y Richter (1824-1898) enunciaron diferentes leyes que en conjunto se conocen como leyes ponderales o relativas al peso. La utilización del concepto de peso en química sería sustituida más adelante por el de masa, de modo que las leyes ponderales hacen referencia a las proporciones en masa características de las combinaciones químicas. Dichas leyes fueron enunciadas en su mayoría, antes de que se dispusiese de un modelo atómico sobre la constitución de la materia y contribuyeron notablemente a la formulación por John Dalton de dicho modelo. La ley de Proust o de las proporciones definidas o constantes: Cuando dos o más elementos se combinan para formar un compuesto lo hacen en una relación ponderal (o de masas) fija y definida. Esta ley indica que la composición de una combinación es siempre la misma y que, por lo tanto, el porcentaje o proporción en la que intervienen los diferentes elementos es constante y característica de 67 Acreditalo ® Derechos Reservados la sustancia compuesta considerada. Así en el amoníaco (NH3) la proporción en masa nitrógeno/hidrógeno es de 4,67:1 cualquiera que sea la muestra que se considere. La ley de Dalton o de las proporciones múltiples: Cuando dos elementos se unen para formar más de un compuesto, las cantidades de un mismo elemento que se combinan con una cantidad fija del otro,guardan entre sí una relación que corresponde a números enteros sencillos. Para ilustrar el significado de esta ley puede considerarse el caso de los óxidos de carbono; distintas experiencias de síntesis indican que es posible conseguir dos combinaciones diferentes de carbono y oxígeno. En una de ellas las masas de oxígeno y carbono que se combinan están en una relación de 4 a 3, es decir, O/C = 4/3; se trata del monóxido de carbono (CO). En la otra, dicha relación es de 8 a 3, O/C = 8/3; se trata en este caso del dióxido de carbono (CO2). Ambos cocientes representan la cantidad de oxígeno que se combina por unidad de masa de carbono para formar los óxidos. De acuerdo con la ley, tales cantidades guardan entre sí una relación entera sencilla: 8/3 ÷ 4/3 = 2. La ley de Richter o de las proporciones recíprocas: Las masas de dos elementos diferentes que se combinan con una misma cantidad de un tercer elemento, guardan la misma relación que las masas de aquellos elementos cuando se combinan entre sí. Considerando los compuestos Cl2O y H2O las cantidades de cloro e hidrógeno que se combinan con 16,0 g de oxígeno son 72,0 y 2,0 g respectivamente. Lo que indica la ley de Richter es que cuando Cl y H se combinan para formar HCI lo hacen en la proporción de 72,0/2. Las leyes ponderales pueden interpretarse de una forma sencilla recurriendo a las fórmulas químicas, al concepto de masa atómica y al modelo atómico de Dalton que se esconde detrás de estos conceptos. Así la ley de Proust es consecuencia de que la composición en cuanto al tipo de átomos y a su número en una fórmula dada sea siempre la misma. La ley de Dalton refleja la existencia de las diferentes valencias químicas de un elemento que se traducen en subíndices definidos en las fórmulas de sus combinaciones con otro elemento dado. La ley de Richter puede considerarse como una consecuencia de la de Proust y de las propiedades aritméticas de las proporciones. Las proporciones en volumen en las combinaciones químicas La importancia de la medida en el desarrollo de la química alcanzó también a los volúmenes de las sustancias gaseosas en las reacciones químicas. El químico francés Gay Lussac estudió con detalle algunas reacciones químicas entre gases tales como la síntesis del vapor de agua y del amoníaco a partir de sus elementos correspondientes. En todos los casos las proporciones de los volúmenes de las sustancias guardaban una cierta regularidad que la expresó en forma de ley. La ley de Gay Lussac de los volúmenes de combinación: En cualquier reacción química, los volúmenes de las sustancias gaseosas que intervienen en ella, medidos en las mismas condiciones de presión y temperatura, guardan entre sí una relación que corresponde a números enteros sencillos. Así, dos volúmenes de hidrógeno se combinan con uno de oxígeno para dar uno de vapor de agua. Un volumen de cloro se combina con otro de hidrógeno para dar dos de cloruro de hidrógeno. Un volumen de nitrógeno se combina con tres de hidrógeno para dar dos de amoníaco. Los experimentos de Gay Lussac indicaban que el volumen de la combinación gaseosa resultante era igual o menor que la suma de los volúmenes de las sustancias gaseosas reaccionantes; por lo tanto, los volúmenes de combinación no podían, en general, sumarse. La ley de Gay Lussac enunciada en 1808 se limitaba a describir los resultados de los experimentos de un modo resumido, pero no los explicaba. La explicación a dicha ley sería efectuada tres años más tarde por el físico italiano Amadeo Avogadro (1776-1856). La ley de Avogadro: En las mismas condiciones de presión y temperatura, volúmenes iguales de gases diferentes contienen igual número de moléculas. Avogadro era conocedor del trabajo de Gay Lussac y particularmente de su descubrimiento de que el volumen de un gas aumenta con la temperatura en una proporción que es la misma para todos los gases (1.ª ley de Gay Lussac). Este resultado le sugirió que, si la composición de la molécula de la sustancia gaseosa no influía en la relación entre volumen y temperatura, dicha relación debería depender del número de moléculas existente; es decir, a igualdad de presión y temperatura el volumen de un gas debería ser proporcional al número de moléculas contenidas en él. Además, Avogadro especificó que las moléculas de los elementos gaseosos debían ser diatómicas (H2, O2, Cl2, etc.). Esta idea entraba en conflicto con la sostenida erróneamente por Dalton, pero junto con la anterior, explicaba la ley de los volúmenes de combinación. De acuerdo con ella los resultados de las experiencias de Gay Lussac representados por medio de ecuaciones químicas toman la forma: 2.H2(g) + O2(g) 2.vol + 1.vol N2 + 3.H2 1.vol + 3.vol Cl2 + H2 1.vol + 1.vol 2.H2O(g) 2.vol 2.NH3 2.vol 2.HCI 2.vol 68 Acreditalo ® Derechos Reservados y muestran por qué las proporciones en volumen corresponden a números sencillos. Empleando algunas ecuaciones de la física puede demostrarse que un mol de cualquier gas, es decir, 6,029.1023 moléculas, medido en condiciones normales de presión y temperatura (0 °C y 1 atmósfera de presión), ocupa un volumen de 22,4 litros. Esta cantidad recibe el nombre de volumen molar y permite expresar, sólo para sustancias gaseosas,una misma cantidad de sustancia en moles, su volumen correspondiente en litros o su masa en gramos. MASA Y ENERGIA En 1789 Lavoisier escribía: «Debemos considerar como un axioma incontestable que en todas las operaciones del Arte y la Naturaleza, nada se crea; la misma cantidad de materia existe antes y después del experímento... y no ocurre otra cosa que cambios y modificaciones en la combinación de estos elementos. » El principio de la conservación de la masa en las reacciones químicas ha sido puesto en duda en diferentes ocasiones desde que fuera formulado por Lavoisier, sin embargo, hasta la llegada de la teoría de la relatividad de Albert Einstein en 1905 esa intuición vaga de algunos científicos no se vería materializada en un resultado positivo. De acuerdo con Albert Einstein «si un cuerpo cede la energía Δ E en forma de radiación,su masa disminuye en Δ E/ c ². La masa de un cuerpo es una medida de su contenido energético; si la energía cambia en Δ E,la masa del cuerpo cambia en el mismo sentido en Δ 8 E/(3.10 ) ²». Su famosa ecuación: Δ E = m.c ² 8 siendo c = 3.10 m/s la velocidad de la luz, indica que en todo cambio de materia, y también en los procesos químicos,la absorción o la liberación de energía debe ir acompañada de un aumento o una disminución de la masa del sistema. Lo que sucede, sin embargo, es que debido a la enorme magnitud de la constante c ² las variaciones de energía que se producen en las reacciones químicas se corresponden con cambios de masa ínfimos que no pueden ser detectados ni por las balanzas analíticas más precisas. Se hace así buena la afirmación de Hans Landolt, uno de los químicos que pusieron a prueba la ley de Lavoisier, quien en 1909 afirmaba: «La prueba experimental de la ley de conservación de la masa puede considerarse completa. Si existe alguna desviación será menor de la milésima de gramo.» La ley de Lavoisier sigue, por tanto, siendo válida, al menos en términos prácticos, en el dominio de la química. En las reacciones nucleares, sin embargo, las energías liberadas son mayores y la ley de conservación de la masa se funde con la de conservación de la energía en un solo principio. La ley de Lavoisier generalizada con la importante aportación de Albert Einstein, puede escribirse en la forma: Σ(masa + energía/c ²) = constante que indica que, en un sistema cerrado, la suma de las masas incrementada en el término equivalente de energía se mantiene constante. APLICACION: CALCULOS ESTEQUIOMETRICOS (II) Cuando se vierte ácido clorhídrico sobre limaduras de cinc, se produce la siguiente reacción con desprendimiento de hidrógeno gaseoso: Zn (s) + HCl (aq) ZnCl2 (s) + H2 (g) Determinar qué volumen de hidrógeno, medido en condiciones normales, se recogerá cuando son atacados 30 g de Zn. ¿Cuántas moléculas de hidrógeno estarán contenidas en dicho volumen? Para ajustar la reacción bastará en este caso multiplicar por 2 el HCI: Zn + 2.HCl ZnCl2 + H2 De ella se deduce que por cada mol de átomos de Zn se producirá un mol de moléculas de H2, pues la relación entre sus respectivos coeficientes es de 1:1. Pero un mol de átomos de Zn tiene una masa igual a un átomo-gramo de dicho metal,esto es, a 65,4 g. Asimismo, un mol de H2 ocupa 22,4 I en condiciones normales, luego estableciendo la siguiente relación de proporcionalidad: 65,4 g de Zn/22,4 l de H2 = 30 g de Zn/x resulta: x = 30.22,4/65,4 = 10,3 l de H2 23 Recordando ahora que un mol de cualquier sustancia contiene 6,02 · 10 moléculas, la segunda parte del problema se resuelve recurriendo ahora a la proporcionalidad entre volumen y número de moles: 23 22,4 l de H2/6,02.10 moléculas = 10,3 l de H2/x 23 23 x = 10,3.6,02.10 /22,4 = 2,76.10 moléculas ECUACIONES QUIMICAS El balance de materia en las reacciones químicas Partiendo de la ley de conservación de la masa y de su relación con la teoría atómica de la materia permiten enfocar el estudio de las reacciones químicas como si se tratara de un balance entre átomos de una misma especie. 69 Acreditalo ® Derechos Reservados Para que dicho balance cuadre, se han de introducir, con frecuencia, algunos coeficientes numéricos que permiten igualar el número de átomos de cada elemento a uno y otro lado de la flecha. Cuando esto se consigue se dice que la reacción química está ajustada, lo que significa que puede ser considerada, en sentido estricto, como una igualdad o ecuación química. Dado que las masas de los diferentes átomos son conocidas, las ecuaciones ajustadas se convierten, en primer término, en relaciones entre las masas de sustancias que intervienen en la reacción. Ello hace posible la realización de cálculos químicos precisos sobre la base que proporcionan las ecuaciones químicas ajustadas, sus símbolos y sus coeficientes numéricos. Así, la reacción de descomposición del óxido de cobre (II) una vez ajustada es: 2.CuO (s) calor 2.Cu (s) + O2 (g) e indica que por cada dos moléculas de óxido de cobre (II) se forman dos átomos de cobre y una molécula de oxígeno. Tratando dicha ecuación química como si de una ecuación matemática se tratara, es posible multiplicar ambos miembros por un mismo número N sin que se altere la igualdad, es decir: 2.N.CuO (s) calor 2.N.Cu (s) + N.O2 (g) Si N representa el número de Avogadro NAo número de partículas que componen un mol, entonces la ecuación anterior puede interpretarse en términos de moles; dos moles de CuO se descomponen en dos moles de Cu y un mol de O2. Por tanto los coeficientes de una ecuación química ajustada representan también la proporción en número de moles, de reactivos y productos que participan en la reacción. Cuando las sustancias son gaseosas, de acuerdo con la hipótesis de Avogadro, cada mol equivale a un volumen de sustancia de 22,4 litros medidos en condiciones normales de presión y temperatura. Ello significa que, junto con cálculos de masas, es posible efectuar cálculos de volúmenes en aquellos casos en que intervengan sustancias gaseosas. El ajuste de las ecuaciones químicas El conocimiento de cuestiones tales como qué productos cabe esperar a partir de unos reactivos determinados, qué reactivos darán lugar a ciertos productos o incluso si una reacción dada es o no posible, son cuestiones que se aprenden con la práctica. Sin embargo, conocidos los reactivos y los productos, el ajuste de la reacción correspondiente constituye una mera consecuencia de la ley de Lavoisier de conservación de la masa. Además ésta es una operación previa a la realización de muchos de los problemas de química básica. Uno de los procedimientos habituales empleados para ajustar una reacción química puede describirse en los siguientes términos: 1. Se escribe la reacción química en la forma habitual: reactivos productos 2. Se cuenta el número de átomos de cada elemento en uno y otro miembro de la ecuación. Si son iguales para cada uno de los elementos presentes, la ecuación está ajustada. 3. Si no es así, será preciso multiplicar las fórmulas de los reactivos y productos por ciertos coeficientes tales que produzcan la igualdad numérica deseada. La búsqueda de este conjunto de coeficientes puede hacerse mediante tanteos. No obstante, este procedimiento de ensayo y error no siempre es efectivo y puede ser sustituido por otro más sistemático, que equivale a plantear un sistema de ecuaciones con dichos coeficientes como incógnitas. Tornando como ejemplo de referencia la reacción de combustión del propano: C3H8 + O2 CO2 + H2O estos serían los pasos a seguir: a) Se fijan unos coeficientes genéricos a, b,c, d: a.C3H8 + b.O2 c.CO2 + d.H2O b) Se impone la ley de conservación de la masa a nivel atómico, para lo cual se iguala, para cada elemento diferente, el producto de su subíndice por su coeficiente,en ambos miembros de la ecuación química: Para el C Para el H Para el O 3a = c 8a = 2d 2b = 2c + d c) Se resuelve el sistema. Si, como en el ejemplo, el número de coeficientes es superior en una unidad al de elementos, entonces se iguala cualquiera de ellos a uno. Si una vez resuelto el sistema, los coeficientes resultantes fueran fraccionarios, se convierten en enteros multiplicando todos ellos por su mínimo común denominador: a=1 b=5 c=3 d=4 d) Se sustituyen los valores en la ecuación de partida y se comprueba que el ajuste es correcto mediante el correspondiente recuento de átomos de cada elemento en uno y otro miembro de la ecuación química: 70 Acreditalo ® Derechos Reservados C3H8 + 5.O2 3.CO2 + 4.H2O Listado de los 64 compuestos inorgánicos ácidos mas comunes Fórmula Clase Nomenclatura H2O H2O2 B2O3 Br2O Br2O3 Br2O5 Br2O7 Cl2O Cl2O3 Cl2O5 Cl2O7 CO CO2 CrO2 CrO3 I2 O I2 O3 I2 O5 I2 O7 Mn2O7 MnO2 MnO3 N2O3 N2O5 P2O3 P2O5 SO SO2 SO3 Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Oxido ácido o anhídrido Agua Peróxido de hidrógeno Bórico Hipobromoso Bromoso Brómico Perbrómico Hipocloroso Cloroso Clórico Perclórico Monóxido de carbono Dióxido de carbono Cromoso Crómico Hipoyodoso Yodoso Yódico Periódico Permangánico Manganoso Mangánico Nitroso Nítrico Fosforoso Fosfórico Monóxido de azufre Dióxido de azufre Trióxido de azufre H2CO3 H2CrO3 H2CrO4 H2MnO3 H2MnO4 H2S H2SO3 H2SO4 H3BO3 H3PO3 H3PO4 H4P2O5 H4P2O7 HBr HBrO HBrO2 HBrO3 Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u hidrácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u hidrácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Carbónico Cromoso Crómico Manganoso Mangánico Sulfhídrico Sulfuroso Sulfúrico Bórico Ortofosforoso Ortofosfórico o Fosfórico Pirofosforoso Pirofosofórico Bromhídrico Hipobromoso Bromoso Brómico 71 Acreditalo ® Derechos Reservados HBrO4 HCl HClO HClO2 HClO3 HClO4 HF HI HIO HIO2 HIO3 HIO4 HMnO4 HNO2 HNO3 HPO2 HPO3 Acido u oxoácido Acido u hidrácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u hidrácido Acido u hidrácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Acido u oxoácido Perbrómico Clorhídrico Hipocloroso Cloroso Clórico Perclórico Fluorhídrico Yodhídrico Hipoyodoso Yodoso Yódico Periódico Permangánico Nitroso Nítrico Metafosforoso Metafosfórico Listado de los 60 compuestos inorgánicos básicos mas comunes Fórmula Clase Nomenclatura Ag2O Al2O3 Au2O Au2O3 BaO BeO Bi2O3 Bi2O5 CaO Cr2O3 CrO Cu2O CuO Fe2O3 FeO Hg2O HgO K2O Li2O MaO Mn2O3 MnO Na2O Ni2O3 NiO PbO PbO2 SnO SnO2 ZnO Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico Oxido básico De plata De aluminio Auroso Aúrico De bario De berilio Bismutoso Bismútico De calcio Crómico Cromoso Cuproso Cúprico Férrico Ferroso Mercurioso Mercúrico De potasio De litio De magnesio Mangánico Manganoso De sodio Niquélico Niqueloso Plumboso Plúmbico Stanoso Stánico De cinc 72 Acreditalo ® Derechos Reservados Ag(OH) Al(OH)3 Au(OH) Au(OH)3 Ba(OH)2 Be(OH)2 Bi(OH)3 Bi(OH)5 Ca(OH)2 Cr(OH)2 Cr(OH)3 Cu(OH) Cu(OH)2 Fe(OH)2 Fe(OH)3 Hg(OH) Hg(OH)2 K(OH) Li(OH) Ma(OH)2 Mn(OH)2 Mn(OH)3 Na(OH) Ni(OH)2 Ni(OH)3 Pb(OH)2 Pb(OH)4 Sn(OH)2 Sn(OH)4 Zn(OH)2 Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido Hidróxido De plata De aluminio Auroso Aúrico De bario De berilio Bismutoso Bismútico De calcio Cromoso Crómico Cuproso Cúprico Ferroso Férrico Mercurioso Mercúrico De potasio De litio De magnesio Manganoso Mangánico De sodio Niqueloso Niquélico Plumboso Plúmbico Stanoso Stánico De cinc 73 Acreditalo ® Derechos Reservados QUIMICA - ENLACES QUIMICOS ENLACES QUIMICOS Introducción Cuándo hacemos leche en polvo, o cuando le echamos azúcar al té, ¿desaparece la leche o el azúcar? Claro que no, uno respondería que estos se están disolviendo en el agua. Pero en realidad, ¿Qué sucede? ¿Por qué sucede? Son hechos tan comunes que se nos olvida hacernos estas preguntas. En realidad lo que sucede es que la leche y el azúcar son solutos, que serán disueltos en un solvente como el agua. Pero ¿qué es lo que en realidad sucede? ¿Qué son los solutos y los solventes? Bueno estas preguntas serán respondidas en este informe. Este informe habla de enlaces y soluciones, pero, para entenderlos hay que empezar por conocer el significado de estas palabras, para luego poder pasar a un lenguaje más técnico. Enlace significa unión, un enlace químico es la unión de dos o más átomos que se han unido con un solo fin, alcanzar la estabilidad, tratar de parecerse al gas noble más cercano, para la mayoría de los elementos alcanzar ocho electrones en su último nivel. Las soluciones son mezclas homogéneas, no se distinguen sus componentes como separados, entre al menos dos reactantes un soluto, que es él que será disuelto, y un solvente, que es él que disolverá al soluto. ¿Qué mantiene unidos a los Atomos? Un concepto básico en química es el estudio de cómo los átomos forman compuestos. La mayoría de los elementos que conocemos existen en la naturaleza formando agrupaciones de átomos iguales o de distintos tipos, enlazados entre sí. Todos los compuestos están constituidos por dos o más átomos de un o más elementos diferentes, unidos entre sí por enlaces ya sean estos iónicos o covalentes. Tipos De Enlace Si los átomos enlazados son elementos metálicos, el enlace se llama metálico. Los electrones son compartidos por los átomos, pero pueden moverse a través del sólido proporcionando conductividad térmica y eléctrica, brillo, maleabilidad y ductilidad. Si los átomos enlazados son no metales e idénticos (como en N2 o en O2), los electrones son compartidos por igual por los dos átomos, y el enlace se llama covalente apolar. Si los átomos son no metales pero distintos (como en el óxido nítrico, NO), los electrones son compartidos en forma desigual y el enlace se llama covalente polar -polar porque la molécula tiene un polo eléctrico positivo y otro negativo, y covalente porque los átomos comparten los electrones, aunque sea en forma desigual. Estas sustancias no conducen la electricidad, ni tienen brillo, ductilidad o maleabilidad. Cuando una molécula de una sustancia contiene átomos de metales y no metales, los electrones son atraídos con más fuerza por los no metales, que se transforman en iones con carga negativa; los metales, a su vez, se convierten en iones con carga positiva. Entonces, los iones de diferente signo se atraen electrostáticamente, formando enlaces iónicos. Las sustancias iónicas conducen la electricidad cuando están en estado líquido o en disoluciones acuosas, pero no en estado cristalino, porque los iones individuales son demasiado grandes para moverse libremente a través del cristal. Cuando los electrones son compartidos simétricamente, el enlace puede ser metálico o covalente apolar; si son compartidos asimétricamente, el enlace es covalente polar; la transferencia de electrones proporciona enlace iónico. Generalmente, la tendencia a una distribución desigual de los electrones entre un par de átomos aumenta cuanto más separados están en la tabla periódica. 74 Acreditalo ® Derechos Reservados Para la formación de iones estables y enlace covalente, la norma más común es que cada átomo consiga tener el mismo número de electrones que el elemento de los gases nobles -grupo 18- más cercano a él en la tabla periódica. Los metales de los grupos 1 (o IA) y 11 (o IB) de la tabla periódica tienden a perder un electrón para formar iones con una carga positiva; los de los grupos 2 (o IIA) y 12 (o IIB) tienden a perder dos electrones para formar iones con dos cargas positivas, y de la misma forma los de los grupos 3 (o IIIB) y 13 (o IIIA) tienden a formar iones con tres cargas positivas. Por la misma razón, los halógenos, grupo 17 (o VIIA), tienden a ganar un electrón para formar iones con una carga negativa, y los elementos del grupo 16 (o VIA) a formar iones con dos cargas negativas. Sin embargo, conforme aumenta la carga neta de un ion, éste tiene menos estabilidad, así que las cargas aparentemente mayores serían minimizadas compartiendo los electrones covalentemente. El enlace covalente se forma cuando ambos átomos carecen del número de electrones del gas noble más cercano. El átomo de cloro, por ejemplo, tiene un electrón menos que el átomo de argón (17 frente a 18). Cuando dos átomos de cloro forman un enlace covalente compartiendo dos electrones (uno de cada átomo), ambos consiguen el número 18 del argón (Cl~~Cl). Es común representar un par de electrones compartido por medio de un guión entre los átomos individuales: Cl~~Cl se escribe Cl-Cl. Otros Elementos De Un Enlace Iones Los átomos están constituidos por el núcleo y la corteza y que el número de cargas positivas del primero es igual al número de electrones de la corteza; de ahí su electronegatividad. Si la corteza electrónica de un átomo neutro pierde o gana electrones se forman los llamados iones. Los iones son átomos o grupos atómicos que tienen un número de electrones excesivo o deficiente para compensar la carga positiva del núcleo. En el primer caso los iones tienen carga negativa y reciben el nombre de aniones, y en el segundo están cargados positivamente y se llaman cationes. Elementos electropositivos y electronegativos Se llaman elementos electropositivos aquellos que tienen tendencia a perder electrones transformándose en cationes; a ese grupo pertenecen los metales. Elementos electronegativos son los que toman con facilidad electrones transformándose en aniones; a este grupo pertenecen los metaloides. Los elementos más electropositivos están situados en la parte izquierda del sistema periódico; son los llamados elementos alcalinos. A medida que se avanza en cada período hacia la derecha va disminuyendo el carácter electropositivo, llegándose, finalmente, a los halógenos de fuerte carácter electronegativo. Electrones de valencia La unión entre los átomos se realiza mediante los electrones de la última capa exterior, que reciben el nombre de electrones de valencia. La unión consiste en que uno o más electrones de valencia de algunos de los átomos se introduce en la esfera electrónica del otro. Los gases nobles, poseen ocho electrones en su última capa, salvo el helio que tiene dos. Esta configuración electrónica les comunica inactividad química y una gran estabilidad. Todos los átomos tienen tendencia a transformar su sistema electrónico y adquirir el que poseen los gases nobles, porque ésta es la estructura más estable. Valencia electroquímica Se llama valencia electroquímica al número de electrones que ha perdido o ganado un átomo para transformarse en ion. Si dicho número de electrones perdidos o ganados es 1, 2, 3, etc. Se dice que el ion es monovalente, bivalente, trivalente, etc. Tipo de enlace Tipo de estructura Ejemplo de estructura Enlace iónico Red iónica Ejemplo: KCl Enlace covalente Moléculas simples Cloruro de potasio, KCl Propiedades características Sólidos cristalinos. Puntos de fusión elevados. Puntos de ebullición elevados. Solubles en agua. Conducen la electricidad fundidos o en disolución. No conducen la electricidad en estado sólido. Fundamentalmente líquidos y gases. Puntos de fusión bajos. Puntos de ebullición bajos. Insolubles en agua. No conducen la electricidad. 75 Acreditalo ® Derechos Reservados Metano, CH4 Ejemplo: CH4 Moléculas gigantes Ejemplo: C Diamante, C Enlace metálico Red metálica Ejemplo: Ag Plata, Ag Sólidos. Puntos de fusión elevados. Puntos de ebullición elevados. La solubilidad y conductividad varían de una sustancia a otra. Sólidos cristalinos. Puntos de fusión elevados. Puntos de ebullición elevados. Inolubles en agua. Dúctiles y maleables. Esta Tabla Ejemplifica Los Tipos De Enlace Valencia En la mayoría de los átomos, muchos de los electrones son atraídos con tal fuerza por sus propios núcleos que no pueden interaccionar de forma apreciable con otros núcleos. Sólo los electrones del ´exterior´ de un átomo pueden interaccionar con dos o más núcleos. A éstos se les llama electrones de valencia. El número de electrones de valencia de un átomo es igual al número de su familia (o grupo) en la tabla periódica, usando sólo la antigua numeración romana. Así, tenemos un electrón de valencia para los elementos de los grupos 1 (o IA) y 11 (o IB); dos electrones de valencia para los elementos de los grupos 2 (o IIA) y 12 (o IIB), y cuatro para los elementos de los grupos 4 (o IVB) y 14 (o IVA). Todos los átomos de los gases nobles excepto el helio (o sea: neón, argón, criptón, xenón y radón) tienen ocho electrones de valencia. Los elementos de las familias (grupos) cercanas a los gases nobles tienden a reaccionar para adquirir la configuración de ocho electrones de valencia de los gases nobles. Esto se conoce como la regla del octeto de Lewis, que fue enunciada por el químico estadounidense Gilbert Newton Lewis. El helio es el único que tiene una configuración de dos electrones de valencia. Los elementos cercanos al helio tienden a adquirir una configuración de valencia de dos: el hidrógeno ganando un electrón, el litio perdiéndolo, y el berilio perdiendo dos electrones. El hidrógeno suele compartir su único electrón con un electrón de otro átomo formando un enlace simple, como en el cloruro de hidrógeno, H-Cl. El cloro, que originalmente tiene siete electrones de valencia, pasa a tener ocho. Esos electrones de valencia pueden representarse como: o . Las estructuras de N2 y CO2 se pueden expresar ahora como :N:::N: o IN≡NI y . Estas estructuras de Lewis muestran la configuración de ocho electrones de valencia de los gases nobles para cada átomo. Probablemente el 80% de los compuestos covalentes pueden ser representados razonablemente por las estructuras electrónicas de Lewis. El resto, en especial aquellos que contienen elementos de la parte central de la tabla periódica, no puede ser descrito normalmente en términos de estructuras de gases nobles. Soluciones Todas las soluciones están formadas por al menos un soluto y un solvente. Las soluciones son mezclas homogéneas entre solutos y solventes. El soluto es el que se disuelve en el solvente. El solvente debe encontrarse siempre en mayor cantidad, excepto el agua. Conductibilidad Ningún solvente puro conduce la corriente eléctrica. Y ningún soluto puro conduce la corriente eléctrica, a menos que este en estado líquido. Pero una solución puede conducir la corriente. Para que esto suceda, la solución debe estar formada por un soluto electrolito (es decir, compuestos formado por enlaces iónicos no orgánicos) y por un solvente polar como el agua, lo cual forma una solución electrolítica. Las soluciones de NaCl (sal común) o CuSO4 (sulfato cúprico) en agua conducen la electricidad a toda su intensidad. Pero, el acido acetico o vinagre común (CH3-CO-OH) al disolverse en agua produce iones los cuales pueden conducir la electricidad, pero solo levemente. Resonancia Una extensión interesante de la estructura de Lewis, llamada resonancia, se encuentra por ejemplo en los iones nitrato, NO3-. Cada N tiene originalmente cinco electrones de valencia, cada O tiene seis, y 76 Acreditalo ® Derechos Reservados uno más por la carga negativa, suman un total de 24 (5 + (3 x 6) + 1) electrones para cuatro átomos. Esto proporciona un promedio de seis electrones por átomo, por tanto, si se aplica la regla del octeto de Lewis, debe producirse un enlace covalente. Se sabe que el átomo de nitrógeno ocupa una posición central rodeado por los tres átomos de oxígeno, lo que proporcionaría una estructura de Lewis aceptable, excepto porque existen tres estructuras posibles. En realidad, sólo se observa una estructura. Cada estructura de resonancia de Lewis sugiere que debe haber dos enlaces simples y uno doble. Sin embargo, los experimentos han demostrado que los enlaces son idénticos en todos los sentidos, con propiedades intermedias entre las observadas para los enlaces simples y los dobles en otros compuestos. La teoría moderna sugiere que una estructura de electrones compartidos localizados, tipo Lewis, proporcionaría la forma y simetría general de la molécula más un grupo de electrones deslocalizados (representados por puntos) que son compartidos por toda la molécula. Definiciones Enlace químico: fuerza entre los átomos que los mantiene unidos en las moléculas. Cuando dos o más átomos se acercan lo suficiente, puede producirse una fuerza de atracción entre los electrones de los átomos individuales y el núcleo de otro u otros átomos. Si esta fuerza es lo suficientemente grande para mantener unidos los átomos, se dice que se ha formado un enlace químico. Todos los enlaces químicos resultan de la atracción simultánea de uno o más electrones por más de un núcleo. Enlace iónico: concepto de enlace químico. Enlace iónico. Estructuras cristalinas de los compuestos iónicos. Límites de estabilidad. Energía de red. Ciclo de Born-Haber. Propiedades generales de los compuestos iónicos. Enlace covalente: introducción. Teoría de Lewis. Teoría del enlace de valencia. Carácter dirigido del enlace covalente. Orbitales híbridos. Resonancia. Teoría de repulsión de pares de electrones de la capa de valencia. Teoría de orbitales moleculares. Moléculas diatómicas homo y heteronucleares. Transición entre el enlace iónico y covalente: electronegatividad y polarización. Enlace metálico: propiedades generales de los metales. Estructuras de los metales. Teoría de enlace. Conductores aislantes y semiconductores. Enlaces intermoleculares: evidencias. Enlaces por fuerzas de van del waals: orientación, inducción y dispersión. Enlaces de hidrógeno. Propiedades de los compuestos covalentes. 77 Acreditalo ® Derechos Reservados Tipos de enlace En la unión o enlace de los átomos pueden presentarse los siguientes casos: 1. 2. 3. 4. Enlace iónico, si hay atracción electrostática. Enlace covalente, si comparten los electrones. Enlace covalente coordinado, cuando el par de electrones es aportado solamente por uno de ellos. Enlace metálico, so los electrones de valencia pertenece en común a todos los átomos. Conclusiones Bueno, como hemos visto al hacer jugo o endulzar al té se producen una serie de reacciones químicas que nunca hubiéramos imaginado. Los enlaces, las soluciones, la fractura de enlaces y la formación de otros, ¿quien lo hubiera imaginado? Pero ahora que sabemos todo esto, cuando nos sentemos a tomarnos un té ya no se nos olvidara pensar en esto. Metalurgia Metalurgia: obtención de metales a partir del mineral. Ganga: mineral sin valor industrial que acompaña al metal. Trituración, molienda, pulverizado Tamización Levigación (oro) Flotación (sulfuros) Métodos mecánicos (concentra el mineral) Preparación del mineral Métodos Químicos (mineral concentrado) Tostación Calcinación Reducción Electrólisis Electrometalúrgicos (mineral concentrado) Electrotérmicos de sulfuro a óxido con corriente de aire = de CO3 a óxido en ausencia de aire óxidos + C = CO2 + metal Húmeda (Na) Seca (Na, K, Mg, Al) Hornos de arco voltáico 2800 - 3000°C es una reducción Hematita Fe2O3 Limonita Fe2O3 + 3.H2O Minerales Magnetita Fe2O3.FeO Siderita FeCO3 Pirita FeS Producción de arrabio Los materiales básicos empleados para fabricar arrabio son mineral de hierro, coque y fundente (caliza). Siderurgia Se utiliza principalmente Fe2O3 (hematita) Fundente Si ganga ácida SiO2 fundente básico Al2O3, MgO, CaO Si ganga básica MgO, CaO fundente ácido SiO2 78 Acreditalo ® Derechos Reservados Si ganga neutra Coque fundente neutro CrO combustible y reductor Aire insuflado desde abajo hacia arriba El coque se quema como combustible para calentar el horno, y al arder libera monóxido de carbono, que se combina con los óxidos de hierro del mineral y los reduce a hierro metálico. La ecuación de la reacción química fundamental de un alto horno es: Parte baja Fe Reacciones: +C C + O2 CO2 Fe2O3 + C 2.Fe + 3.CO FSiO2 + CaO CaSiO3 (escoria) e3C Parte alta Fe2O3 (cementita) C + CO2 2.CO + 3.CO 2.Fe + 3.CO2 El revestimiento del alto horno puede ser ácido o básico, dependiendo de la ganga. La escoria flota sobre el metal fundido. Sentido de avance Mineral + coque + fundente Aire caliente + CO2 + CO Fundente: mineral que neutraliza la ganga, dando escoria que debe tener bajo punto de fusión y densidad menor que el metal fundido . El fundente de la carga del horno se emplea como fuente adicional de monóxido de carbono y como sustancia fundente. Este material se combina con la sílice presente en el mineral (que no se funde a las temperaturas del horno) para formar silicato cálcico (escoria), cuyo punto de fusión es menor. Sin la caliza se formaría silicato de hierro, con lo que se perdería hierro metálico. La escoria flota sobre el metal fundido en la parte inferior del horno (superior del crisol). El arrabio producido en los altos hornos tiene la siguiente composición: un 92% de hierro, un 3 o 4% de carbono, entre 0,5 y 3% de silicio, del 0,25% al 2,5% de manganeso, del 0,04 al 2% de fósforo y algunas partículas de azufre. Arrabio Fundición gris Fundición blanca enfriamiento lento, puede maquinarse, contiene carbono libre enfriamiento rápido, no puede maquinarse, contiene cementita Un alto horno típico está formado por una cápsula cilíndrica de acero forrada con un material no metálico y resistente al calor, como asbesto o ladrillos refractarios. El diámetro de la cápsula disminuye hacia arriba y hacia abajo, y es máximo en un punto situado aproximadamente a una cuarta parte de su altura total. La parte inferior del horno está dotada de varias aperturas tubulares llamadas toberas, por donde se fuerza el paso del aire. Cerca del fondo se encuentra un orificio por el que fluye el arrabio fundido cuando se sangra (o vacía) el alto horno. Encima de ese orificio, pero debajo de las toberas, hay otro agujero para retirar la escoria. La parte superior del horno, cuya altura es de unos 30 m, contiene respiraderos para los gases de escape, y un par de tolvas redondas, cerradas por válvulas en forma de campana, por las que se introduce la carga en el horno. Los materiales se llevan hasta las tolvas en pequeñas vagonetas o cucharas que se suben por un elevador inclinado situado en el exterior del horno. Ver esquema de un Alto Horno Los altos hornos funcionan de forma continua. La materia prima que se va a introducir en el horno se divide en un determinado número de pequeñas cargas que se introducen a intervalos. La escoria que flota sobre el metal fundido se retira una vez cada dos horas, y el hierro se sangra cinco veces al día. El aire insuflado en el alto horno se precalienta a una temperatura situada entre los 550 y los 900 °C. El calentamiento se realiza en las llamadas estufas, cilindros que contienen estructuras de ladrillo refractario. El ladrillo se calienta durante varias horas quemando gas de alto horno. Posteriormente los gases de escape que salen de la parte superior del horno. Después se apaga la llama y se hace pasar el aire a presión por la estufa. El peso del aire empleado en un alto horno supera el peso total de las demás materias primas. Estrangulando el flujo de gas de los respiraderos del horno es posible aumentar la presión del interior del horno hasta 1,7 atmósferas o más. La técnica de presurización permite una mejor combustión del coque y una mayor producción de hierro. En muchos altos hornos puede lograrse un aumento de la producción de un 25%. En instalaciones experimentales también se ha demostrado que la producción se incrementa enriqueciendo el aire con oxígeno. El proceso de sangrado consiste en retirar a golpes un tapón de arcilla del orificio del hierro cercano al fondo del horno y dejar que el metal fundido fluya por un canal cubierto de arcilla y caiga a un depósito metálico forrado de ladrillo, que puede ser una cuchara o una vagoneta capaz de contener hasta 100 toneladas de metal. Cualquier escoria o sobrante que salga del horno junto con el metal se elimina antes de llegar al recipiente. A continuación, el contenedor lleno de arrabio fundido se transporta a la fábrica siderúrgica. 79 Acreditalo ® Derechos Reservados Los altos hornos modernos funcionan en combinación con hornos de oxígeno básicos, y a veces con hornos de crisol abierto, más antiguos, como parte de una única planta siderúrgica. En esas plantas, los hornos siderúrgicos se cargan con arrabio fundido. El metal fundido procedente de diversos altos hornos puede mezclarse en una gran cuchara antes de convertirlo en acero con el fin de minimizar el efecto de posibles irregularidades de alguno de los hornos. Otros métodos de refinado del hierro Aunque casi todo el hierro y acero que se fabrica en el mundo se obtiene a partir de arrabio producido en altos hornos, hay otras formas de refinación del hierro que se han practicado de forma limitada. Una de ellas es el denominado método directo para fabricar hierro y acero a partir del mineral, sin producir arrabio. En este proceso se mezclan mineral de hierro y coque en un horno de calcinación rotatorio y se calientan a una temperatura de unos 950 °C. El coque caliente desprende monóxido de carbono, igual que en un alto horno, y reduce los óxidos del mineral a hierro metálico. Sin embargo, no tienen lugar las reacciones secundarias que ocurren en un alto horno, y el horno de calcinación produce la llamada esponja de hierro, de mucha mayor pureza que el arrabio. También puede producirse hierro prácticamente puro mediante electrólisis haciendo pasar una corriente eléctrica a través de una solución de cloruro ferroso. Ni el proceso directo ni el electrolítico tienen importancia comercial significativa. Horno de Reverbero Fe3C + O2 3.Fe + CO2 Aire caliente en contracorriente Aire a presión Reducción de la fundición Convertidor Bessemer Se oxidan sustancias acompañantes (Si, Mn, P, S) Fundición y chatarra Siemens Martin Arco voltáico Proceso de crisol abierto Cualquier proceso de producción de acero a partir de arrabio consiste en quemar el exceso de carbono y otras impurezas presentes en el hierro. Una dificultad para la fabricación del acero es su elevado punto de fusión, 1.400 °C, que impide utilizar combustibles y hornos convencionales. Para superar la dificultad se desarrolló el horno de crisol abierto, que funciona a altas temperaturas gracias al precalentado regenerativo del combustible gaseoso y el aire empleados para la combustión. En el precalentado regenerativo los gases que escapan del horno se hacen pasar por una serie de cámaras llenas de ladrillos, a los que ceden la mayor parte de su calor. A continuación se invierte el flujo a través del horno, y el combustible y el aire pasan a través de las cámaras y son calentados por los ladrillos. Con este método, los hornos de crisol abierto alcanzan temperaturas de hasta 1.650 °C. El horno propiamente dicho suele ser un crisol de ladrillo plano y rectangular de unos 6 x 10 m, con un techo de unos 2,5 m de altura. Una serie de puertas da a una planta de trabajo situada delante del crisol. Todo el crisol y la planta de trabajo están situados a una altura determinada por encima del suelo, y el espacio situado bajo el crisol lo ocupan las cámaras de regeneración de calor del horno. Un horno del tamaño indicado produce unas 100 toneladas de acero cada 11 horas. El horno se carga con una mezcla de arrabio (fundido o frío), chatarra de acero y mineral de hierro, que proporciona oxígeno adicional. Se añade caliza como fundente y espatoflúor para hacer que la escoria sea más fluida. Las proporciones de la carga varían mucho, pero una carga típica podría consistir en 60.000 kg. de chatarra de acero, 11.000 kg. de arrabio frío, 45.000 kg. de arrabio fundido, 12.000 kg. de caliza, 1.000 kg. de mineral de hierro y 200 kg. de espatoflúor. Una vez cargado el horno, se enciende, y las llamas oscilan de un lado a otro del crisol a medida que el operario invierte su dirección para regenerar el calor. Desde el punto de vista químico la acción del horno de crisol abierto consiste en reducir por oxidación el contenido de carbono de la carga y eliminar impurezas como silicio, fósforo,manganeso y azufre, que se combinan con la caliza y forman la escoria. Estas reacciones tienen lugar mientras el metal del horno se encuentra a la temperatura de fusión, y el horno se mantiene entre 1.550 y 1.650 °C durante varias horas hasta que el metal fundido tenga el contenido de carbono deseado. Un operario experto puede juzgar el contenido de carbono del metal a partir de su aspecto, pero por lo general se prueba la fundición extrayendo una pequeña cantidad de metal del horno, enfriándola y sometiéndola a examen físico o análisis químico. Cuando el contenido en carbono de la fundición alcanza el nivel deseado, se sangra el horno a través de un agujero situado en la parte trasera. El acero fundido fluye por un canal corto hasta una gran cuchara situada a ras de suelo, por debajo del horno. Desde la cuchara se vierte el acero en moldes de hierro colado para formar lingotes, que suelen tener una sección cuadrada de unos 50 cm y una longitud de 1,5 m. Estos lingotes (la materia prima para todas las formas de fabricación del acero) pesan algo menos de 3 toneladas. En fechas recientes se han puesto en práctica métodos para procesar el acero de forma continua sin tener que pasar por el proceso de fabricación de lingotes. Proceso básico de oxígeno El proceso más antiguo para fabricar acero en grandes cantidades, es el proceso Bessemer, que empleaba un horno de gran altura en forma de pera, denominado convertidor Bessemer, que podía 80 Acreditalo ® Derechos Reservados inclinarse en sentido lateral para la carga y el vertido. Al hacer pasar grandes cantidades de aire a través del metal fundido, el oxígeno del aire se combinaba químicamente con las impurezas y las eliminaba. En el proceso básico de oxígeno, el acero también se refina en un horno en forma de pera que se puede inclinar en sentido lateral. Sin embargo, el aire se sustituye por un chorro de alta presión de oxígeno casi puro. Cuando el horno se ha cargado y colocado en posición vertical, se hace descender en su interior una lanza de oxígeno. La punta de la lanza, refrigerada por agua, suele estar situada a unos 2 m por encima de la carga, aunque esta distancia puede variarse de acuerdo las necesidades. A continuación se inyectan en el horno miles de metros cúbicos de oxígeno a velocidades supersónicas. El oxígeno se combina con el carbono y otros elementos no deseados e inicia una reacción de agitación que quema con rapidez las impurezas del arrabio y lo transforma en acero. El proceso de refinado tarda 50 minutos o menos, y es posible fabricar unas 275 toneladas de acero en una hora. Acero de horno eléctrico En algunos hornos el calor para fundir y refinar el acero procede de la electricidad y no de la combustión de gas. Como las condiciones de refinado de estos hornos se pueden regular más estrictamente que las de los hornos de crisol abierto o los hornos básicos de oxígeno, los hornos eléctricos son sobre todo útiles para producir acero inoxidable y otros aceros de aleación que deben ser fabricados según unas especificaciones muy exigentes. El refinado se produce en una cámara hermética, donde la temperatura y otras condiciones se controlan de forma estricta mediante dispositivos automáticos. En las primeras fases de este proceso de refinado se inyecta oxígeno de alta pureza a través de una lanza, lo que aumenta la temperatura del horno y disminuye el tiempo necesario para producir el acero. La cantidad de oxígeno que entra en el horno puede regularse con precisión en todo momento, lo que evita reacciones de oxidación no deseadas. En la mayoría de los casos, la carga está formada casi exclusivamente por material de chatarra. Antes de poder utilizarla, la chatarra debe ser analizada y clasificada, porque su contenido en aleaciones afecta a la composición del metal refinado. También se añaden otros materiales, como pequeñas cantidades de mineral de hierro y cal seca, para contribuir a eliminar el carbono y otras impurezas. Los elementos adicionales para la aleación se introducen con la carga o después, cuando se vierte a la cuchara el acero refinado. Resistencia Conducción Contacto directo Fabricación de abrasivos Convección Corriente de aire Tratamientos térmicos Fusión de metales y tratamientos térmicos Radiación Hornos eléctricos Arco voltáico Indirecto Directo Solera conductora Arco Resistencia Inducción Para no férreos y aceros hasta kg Un electrodo es el metal hasta 50 Ton Un electrodo es el crisol hasta 50 Ton La corriente atraviesa el metal Baja frecuencia Alta frecuencia Frecuencia de red Rinden un 10 % más que los de arco Una vez cargado el horno se hacen descender unos electrodos hasta la superficie del metal. La corriente eléctrica fluye por uno de los electrodos, forma un arco voltaico hasta la carga metálica,recorre el metal y vuelve a formar un arco hasta el siguiente electrodo. La resistencia del metal al flujo de corriente genera calor, que (junto con el producido por el arco voltaico) funde el metal con rapidez. Hay otros tipos de horno eléctrico donde se emplea una espiral para generar calor. Procesos de acabado Colada: Pasaje del metal fundido desde el horno a las lingoteras, por medio de la cuchara. Lingotes: Para almacenar y transportar. Laminado: De lingotes a tochos y de tochos a perfiles o láminas. El acero se vende en una gran variedad de formas y tamaños, como varillas,tubos, raíles o rieles de ferrocarril, perfiles en H o en T o canales. Estas formas se obtienen en las instalaciones siderúrgicas laminando los lingotes calientes o modelándolos de algún otro modo. El acabado del acero mejora también su calidad al refinar su estructura cristalina y aumentar su resistencia. El proceso básico de elaboración del acero se conoce como laminado en caliente. En este proceso, el lingote colado se calienta al rojo vivo en un horno denominado foso de termodifusión y a continuación se hace pasar entre una serie de rodillos metálicos colocados en pares que lo aplastan hasta darle la forma 81 Acreditalo ® Derechos Reservados y tamaño deseados. La distancia entre los rodillos va disminuyendo a medida que se reduce el espesor del acero. El primer par de rodillos por el que pasa el lingote se conoce como tren de desbaste o de eliminación de asperezas, y las barras cuadradas que produce se denominan tochos. Después del tren de desbaste, el acero pasa a trenes de laminado en bruto y a los trenes de acabado que lo reducen a la sección transversal correcta. Los rodillos para producir rieles de ferrocarril o perfiles en H, en T o en L tienen estrías para proporcionar la forma adecuada. Los procesos modernos de fabricación requieren gran cantidad de chapa de acero delgada. Los trenes o rodillos de laminado continuo producen tiras y láminas con anchuras de hasta 2,5 m. Estos laminadores procesan con rapidez la chapa de acero antes de que se enfríe y no pueda ser trabajada. Las planchas de acero caliente de más de 10 cm de espesor se pasan por una serie de cilindros que reducen progresivamente su espesor hasta unos 0,1 cm y aumentan su longitud de 4 a 370 metros. Los trenes de laminado continuo están equipados con una serie de accesorios como rodillos de borde, aparatos de decapado o eliminación y dispositivos para enrollar de modo automático la chapa cuando llega al final del tren. Los rodillos de borde son grupos de rodillos verticales situados a ambos lados de la lámina para mantener su anchura. Los aparatos de decapado eliminan la costra que se forma en la superficie de la lámina apartándola mecánicamente, retirándola mediante un chorro de aire o doblando de forma abrupta la chapa en algún punto del recorrido. Las bobinas de chapa terminadas se colocan sobre una cinta transportadora y se llevan a otro lugar para ser recocidas y cortadas en chapas individuales. Una forma más eficiente para producir chapa de acero delgada es hacer pasar por los rodillos planchas de menor espesor. Con los métodos convencionales de fundición sigue siendo necesario pasar los lingotes por un tren de desbastado para producir planchas lo bastante delgadas para el tren de laminado continuo. Los sistemas de colado ininterrumpido, en cambio, producen una plancha continua de acero con un espesor inferior a 5 cm, lo que elimina la necesidad de trenes de desbaste y laminado en bruto. Tubos Los tubos más baratos se moldean doblando una tira plana de acero caliente en forma cilíndrica y soldando los bordes para cerrar el tubo. En los tubos más pequeños, los bordes de la tira suelen superponerse y se pasan entre un par de rodillos curvados según el diámetro externo del tubo. La presión de los rodillos es suficiente para soldar los bordes. Los tubos sin soldaduras se fabrican a partir de barras sólidas haciéndolas pasar entre un par de rodillos inclinados entre los que está situada una barra metálica con punta,llamada mandril, que perfora las barras y forma el interior del tubo mientras los rodillos forman el exterior. Hojalata El producto de acero recubierto más importante es la hojalata estañada que se emplea para la fabricación de latas y envases. El material de las latas contiene más de un 99% de acero. En algunas instalaciones, las láminas de acero se pasan por un baño de estaño fundido (después de laminarlas primero en caliente y luego en frío) para estañarlas. El método de recubrimiento más común es el proceso electrolítico. La chapa de acero se desenrolla poco a poco de la bobina y se le aplica una solución química. Al mismo tiempo se hace pasar una corriente eléctrica a través de un trozo de estaño puro situado en esa misma solución, lo que hace que el estaño se disuelva poco a poco y se deposite sobre el acero. Con este sistema, medio kilogramo de estaño basta para recubrir 20 metros cuadrados de acero. En la hojalata delgada, la chapa recibe un segundo laminado en frío antes de recubrirla de estaño, lo que aumenta la resistencia de la chapa además de su delgadez. Las latas hechas de hojalata delgada tienen una resistencia similar a las ordinarias, pero contienen menos acero, con lo que se reduce su peso y su coste. También pueden fabricarse envases ligeros adhiriendo una delgadísima lámina de acero estañado sobre papel o cartón. Otros procesos de fabricación de acero son la forja, la fundición y el uso de troqueles. Hierro forjado El proceso antiguo para fabricar la aleación resistente y maleable conocida como hierro forjado se diferencia con claridad de otras formas de fabricación de acero. Debido a que el proceso, conocido como pudelización, exigía un mayor trabajo manual, era imposible producir hierro forjado en grandes cantidades. El desarrollo de nuevos sistemas con convertidores Bessemer y hornos de crisol abierto permitieron producir un volumen mayor de hierro forjado. Sin embargo, el hierro forjado ya no se fabrica habitualmente con fines comerciales, ya que puede sustituirse en casi todas las aplicaciones con acero de bajo contenido en carbono, con menor costo de producción y calidad más uniforme. El horno de pudelización empleado en el proceso antiguo tiene un techo abovedado de poca altura y un crisol cóncavo en el que se coloca el metal en bruto, separado por una pared de la cámara de combustión donde se quema carbón bituminoso. La llama de la cámara de combustión asciende por encima de la pared,incide en el techo abovedado y reverbera sobre el contenido del crisol. Cuando el horno ha adquirido un calor moderado,el operario que maneja el horno recubre el crisol y las paredes con una pasta de óxido de hierro, por lo general hematitas. A continuación, el horno se carga con unos 250 kg. de arrabio y se cierra la puerta. Al cabo de unos 30 minutos, el arrabio se ha fundido, y el 82 Acreditalo ® Derechos Reservados operario añade a la carga más óxido de hierro o residuos de laminado, mezclándolos con el hierro con una barra de hierro curvada. El silicio y la mayor parte del manganeso contenidos en el hierro se oxidan, y se elimina parte del azufre y el fósforo. A continuación se eleva un poco la temperatura del horno, y el carbono empieza a quemarse formando óxidos de carbono gaseosos. A medida que se desprende gas la escoria aumenta de volumen y el nivel de la carga sube. Al quemarse el carbono, la temperatura de fusión aumenta, y la carga se vuelve cada vez más pastosa y vuelve a su nivel anterior. A medida que se incrementa la pureza del hierro, el operario remueve la carga con la barra para garantizar una composición uniforme y una cohesión adecuada de las partículas. La masa resultante, pastosa y esponjosa, se divide en pedazos o bolas de unos 80 o 90 kg. Las bolas se retiran del horno con unas tenazas y se colocan directamente en una prensa que expulsa de la bola la mayor parte de la escoria de silicio mezclada y suelda entre sí los granos de hierro puro. A continuación se corta el hierro en piezas planas que se apilan unas sobre otras, se calientan hasta la temperatura de soldadura y se laminan para formar una sola pieza. A veces se repite el proceso de laminado para mejorar la calidad del producto. La técnica moderna para fabricar hierro forjado emplea hierro fundido procedente de un convertidor Bessemer y escoria fundida, que suele prepararse fundiendo mineral de hierro, residuos de laminado y arena en un horno de crisol abierto. Cuando el hierro fundido, que lleva disuelta una gran cantidad de gas,se vierte en la cuchara que contiene la escoria fundida, el metal se solidifica de modo casi instantáneo y libera el gas disuelto. La fuerza ejercida por el gas hace estallar el metal en partículas diminutas que son más pesadas que la escoria y se acumulan en el fondo de la cuchara, donde se aglomeran formando una masa esponjosa similar a las bolas producidas en un horno de pudelización. Cuando se vierte la escoria de la parte superior de la cuchara se retira la bola de hierro y es sometida al mismo tratamiento que el producto del horno de pudelización. Clasificación del acero Aceros al carbono Más del 90% de todos los aceros son aceros al carbono. Estos aceros contienen diversas cantidades de carbono y menos del 1,65% de manganeso, el 0,60% de silicio y el 0,60% de cobre. Entre los productos fabricados con aceros al carbono figuran máquinas, carrocerías de automóvil, la mayor parte de las estructuras de construcción de acero, cascos de buques, somieres u horquillas o pasadores para el pelo. Aceros de aleación Estos aceros contienen una proporción determinada de vanadio,molibdeno y otros elementos, además de cantidades mayores de manganeso, silicio y cobre que los aceros al carbono normales. Estos aceros se emplean, por ejemplo, para fabricar engranajes y ejes de motores, patines o cuchillos de corte. Aceros de baja aleación ultrarresistentes Esta familia es la más reciente de las cinco grandes clases de acero. Los aceros de baja aleación son más baratos que los aceros de aleación convencional ya que contienen cantidades menores de los costosos elementos de aleación. Sin embargo, reciben un tratamiento especial que les da una resistencia mucho mayor que la del acero al carbono. Por ejemplo, los vagones de mercancías fabricados con aceros de baja aleación pueden transportar cargas más grandes porque sus paredes son más delgadas que lo que sería necesario en caso de emplear acero al carbono. Además, como los vagones de acero de baja aleación pesan menos, las cargas pueden ser más pesadas. En la actualidad se construyen muchos edificios con estructuras de aceros de baja aleación. Las vigas pueden ser más delgadas sin disminuir su resistencia, logrando un mayor espacio interior en los edificios. Aceros inoxidables Los aceros inoxidables contienen cromo, níquel y otros elementos de aleación, que los mantienen brillantes y resistentes a la herrumbre y oxidación a pesar de la acción de la humedad o de ácidos y gases corrosivos. Algunos aceros inoxidables son muy duros; otros son muy resistentes y mantienen esa resistencia durante largos periodos a temperaturas muy rigurosas. Debido a sus superficies brillantes los arquitectos los emplean muchas veces con fines decorativos. El acero inoxidable se emplea para las tuberías y tanques de refinerías de petróleo o plantas químicas, para los fuselajes de los aviones o para cápsulas espaciales. También se usa para fabricar instrumentos y equipos quirúrgicos, o para fijar o sustituir huesos rotos, ya que resiste a la acción de los fluidos corporales. En cocinas y zonas de preparación de alimentos los utensilios son a menudo de acero inoxidable, ya que no oscurece los alimentos y pueden limpiarse con facilidad. Aceros de herramientas Estos aceros se emplean para fabricar muchos tipos de herramientas y cabezales de corte y modelado de máquinas empleadas en diversas operaciones de fabricación. Contienen wolframio,molibdeno y otros elementos de aleación, que les proporcionan mayor resistencia, dureza y durabilidad. Aleaciones Ni > Resistencia < Oxidación Cr > Resistencia > Dureza 83 Acreditalo ® Derechos Reservados Cr-Ni >> Resistencia Si > 0,3% > Elasticidad Mg Neutraliza al azufre Al 1% < Oxidación > Dureza 18% Cr- 8% Ni - Inox 2% Cr- 5% Ni Resortes para temple p/alto desgaste para nitruración Mb > Resistencia tracción V < Fragilidad Resortes y herramientas W > Dureza Herramientas Co-W >> Dureza Herramientas Ti < Oxidación B 0,001% para temple para temple (50 más Mb) Aceros rápidos: para altas velocidades (600 °C sin perder filo) Estructura del acero Las propiedades físicas de los aceros y su comportamiento a distintas temperaturas dependen sobre todo de la cantidad de carbono y de su distribución en el hierro. Antes del tratamiento térmico,la mayor parte de los aceros son una mezcla de tres sustancias: ferrita, perlita y cementita. La ferrita, blanda y dúctil,es hierro con pequeñas cantidades de carbono y otros elementos en solución. La cementita, un compuesto de hierro con el 7% de carbono aproximadamente, es de gran dureza y muy quebradiza. La perlita es una profunda mezcla de ferrita y cementita, con una composición específica y una estructura característica, y sus propiedades físicas son intermedias entre las de sus dos componentes. La resistencia y dureza de un acero que no ha sido tratado térmicamente depende de las proporciones de estos tres ingredientes. Cuanto mayor es el contenido en carbono de un acero, menor es la cantidad de ferrita y mayor la de perlita: cuando el acero tiene un 0,8% de carbono, está por completo compuesto de perlita. El acero con cantidades de carbono aún mayores es una mezcla de perlita y cementita. Al elevarse la temperatura del acero,la ferrita y la perlita se transforman en una forma alotrópica de aleación de hierro y carbono conocida como austenita, que tiene la propiedad de disolver todo el carbono libre presente en el metal. Si el acero se enfría despacio, la austenita vuelve a convertirse en ferrita y perlita, pero si el enfriamiento es repentino la austenita se convierte en martensita, una modificación alotrópica de gran dureza similar a la ferrita pero con carbono en solución sólida. Tratamiento térmico del acero El proceso básico para endurecer el acero mediante tratamiento térmico consiste en calentar el metal hasta una temperatura a la que se forma austenita, generalmente entre los 750 y 850 °C,y después enfriarlo con rapidez sumergiéndolo en agua o aceite. Estos tratamientos de endurecimiento, que forman martensita, crean grandes tensiones internas en el metal, que se eliminan mediante el temple o el recocido, que consiste en volver a calentar el acero hasta una temperatura menor. El temple reduce la dureza y resistencia y aumenta la ductilidad y la tenacidad. El objetivo fundamental del proceso de tratamiento térmico es controlar la cantidad, tamaño, forma y distribución de las partículas de cementita contenidas en la ferrita, que a su vez determinan las propiedades físicas del acero. Hay muchas variaciones del proceso básico. Los ingenieros metalúrgicos han descubierto que el cambio de austenita a martensita se produce en la última fase del enfriamiento, y que la transformación se ve acompañada de un cambio de volumen que puede agrietar el metal si el enfriamiento es demasiado rápido. Se han desarrollado tres procesos relativamente nuevos para evitar el agrietamiento. En el templado prolongado, el acero se retira del baño de enfriamiento cuando ha alcanzado la temperatura en la que empieza a formarse la martensita, a continuación se enfría despacio en el aire. En el martemplado, el acero se retira del baño en el mismo momento que el templado prolongado y se coloca en un baño de temperatura constante hasta que alcanza una temperatura uniforme en toda su sección transversal. Después se deja enfriar el acero en aire a lo largo del rango de temperaturas de formación de la martensita, que en la mayoría de los aceros va desde unos 300 °C hasta la temperatura ambiente. En el austemplado, el acero se enfría en un baño de metal o sal mantenido de forma constante a la temperatura en que se produce el cambio estructural deseado, y se conserva en ese baño hasta que el cambio es completo, antes de pasar al enfriado final. Hay también otros métodos de tratamiento térmico para endurecer el acero. En la cementación, las superficies de las piezas de acero terminadas se endurecen al calentarlas con compuestos de carbono o nitrógeno. Estos compuestos reaccionan con el acero y aumentan su contenido de carbono o forman nitruros en su capa superficial. En la carburización la pieza se calienta cuando se mantiene rodeada de carbón vegetal, coque o de gases de carbono como metano o monóxido de carbono. La cianurización consiste en endurecer el metal en un baño de sales de cianuro fundidas para formar carburos y nitruros. La nitrurización se emplea para endurecer aceros de composición especial mediante su calentamiento en amoníaco gaseoso para formar nitruros de aleación. 84 Acreditalo ® Derechos Reservados TRABAJO DEL ENLACE QUIMICO 3. DESARROLLO Los átomos se unen entre sí para formar moléculas mediante fuerzas de enlace. Los tipos fundamentales de enlace son el iónico, el covalente y el metálico. 3.1 ENLACE IONICO El enlace iónico consiste en la atracción electrostática entre átomos con cargas eléctricas de signo contrario. Este tipo de enlace se establece entre átomos de elementos poco electronegativos con los de elementos muy electronegativos. Es necesario que uno de los elementos pueda ganar electrones y el otro perderlo,y como se ha dicho anteriormente este tipo de enlace se suele producir entre un no metal (electronegativo) y un metal (electropositivo). Un ejemplo de sustancia con enlace iónico es el cloruro sódico. En su formación tiene lugar la transferencia de un electrón del átomo de sodio al átomo de cloro. Las configuraciones electrónicas de estos elementos después del proceso de ionización son muy importantes, ya que lo dos han conseguido la configuración externa correspondiente a los gases nobles, ganando los átomos en estabilidad. Se produce una transferencia electrónica,cuyo déficit se cubre sobradamente con la energía que se libera al agruparse los iones formados en una red cristalina que, en el caso del cloruro sódico, es una red cúbica en la que en los vértices del paralelepípedo fundamental alternan iones Cl- y Na+. De esta forma cada ion Cl- queda rodeado de seis iones Na+ y recíprocamente. Se llama índice de coordinación al número de iones de signo contrario que rodean a uno determinado en un red cristalina. En el caso del NaCl, el índice de coordinación es 6 para ambos Propiedades de los compuestos iónicos Las sustancias iónicas están constituidas por iones ordenados en el retículo cristalino; las fuerzas que mantienen esta ordenación son fuerzas de Coulomb, muy intensas. Esto hace que las sustancias iónicas sean sólidos cristalinos con puntos de fusión elevados. En efecto, para fundir un cristal iónico hay que deshacer la red cristalina, separar los iones. El aporte de energía necesario para la fusión, en forma de energía térmica, ha de igualar al de energía reticular, que es la energía desprendida en la formación de un mol de compuesto iónico sólido a partir de los correspondientes iones en estado gaseoso. Esto hace que haya una relación entre energía reticular y punto de fusión, siendo éste tanto más elevado cuanto mayor es el valor de aquella. Por otra parte, la aparición de fuerzas repulsivas muy intensas cuando dos iones se aproximan a distancias inferiores a la distancia reticular (distancia en la que quedan en la red dos iones de signo contrario), hace que los cristales iónicos sean muy poco compresibles. Hay sustancias cuyas moléculas, si bien son eléctricamente neutras, mantienen una separación de cargas. Esto se debe a que no hay coincidencia entre el centro de gravedad de las cargas positivas y el de las negativas: la molécula es un dipolo, es decir, un conjunto de dos cargas iguales en valor absoluto pero de distinto signo, separadas a una cierta distancia. Los dipolos se caracterizan por su momento; producto del valor absoluto de una de las cargas por la distancia que las separa. Un de estas sustancias polares es, por ejemplo el agua. Cuando un compuesto iónico se introduce en un disolvente polar, los iones de la superficie de cristal provocan a su alrededor una orientación de las moléculas dipolares, que enfrentan hacia cada ion sus extremos con carga opuesta a la del mismo. En este proceso de orientación se libera una energía que, si supera a la energía reticular, arranca al ion de la red. Una vez arrancado, el ion se rodea de moléculas de disolvente: queda solvatado. Las moléculas de disolvente alrededor de los iones se comportan como capas protectoras que impiden la reagrupación de los mismos. Todo esto hace que, en general, los compuestos iónicos sean solubles en disolventes polares, aunque dependiendo siempre la solubilidad del valor de la energía reticular y del momento dipolar del disolvente. Así, un compuesto como el NaCl, es muy soluble en disolventes como el agua, y un compuesto como el sulfato de bario, con alta energía reticular, no es soluble en los disolventes de momento dipolar muy elevado. 3.2 ENLACE COVALENTE Gilbert Newton Lewis expuso la teoría de que todos los elementos tienen tendencia a conseguir configuración electrónica de gas noble (8 electrones en la última capa). Elementos situados a la derecha de la tabla periódica (no metales) consiguen dicha configuración por captura de electrones; elementos situados a la izquierda y en el centro de la tabla (metales), la consiguen por pérdida de electrones. De esta forma la combinación de un metal con un no metal se hace por enlace iónico; pero la combinación de no metales entre sí no puede tener lugar mediante este proceso de transferencia de electrones; por lo que Lewis supuso que debían compartirlos. Es posible también la formación de enlaces múltiples, o sea, la compartición de más de un par de electrones por una pareja de átomos. En otros casos, el par compartido es aportado por sólo uno de los átomos, formándose entonces un enlace que se llama coordinado o dativo. Se han encontrado compuestos covalentes en donde no se cumple la regla. Por ejemplo, en BCl3, el átomo de boro tiene seis electrones en la última capa, y en SF6,el átomo de azufre consigue hasta doce electrones. Esto hace que actualmente se piense que lo característico del enlace covalente es la formación de pares electrónicos compartidos, independientemente de su número. 85 Acreditalo ® Derechos Reservados Fuerzas intermoleculares A diferencia que sucede con los compuestos iónicos, en las sustancias covalentes existen moléculas individualizadas. Entre estas moléculas se dan fuerzas de cohesión o de Van der Waals, que debido a su debilidad, no pueden considerarse ya como fuerzas de enlace. Hay varios tipos de interacciones: Fuerzas de orientación (aparecen entre moléculas con momento dipolar diferente), fuerzas de inducción (ion o dipolo permanente producen en una molécula apolar una separación de cargas por el fenómeno de inducción electrostática) y fuerzas de dispersión (aparecen en tres moléculas apolares). Propiedades de los compuestos covalentes Las fuerzas de Van der Waals pueden llegar a mantener ordenaciones cristalinas, pero los puntos de fusión de las sustancias covalentes son siempre bajos, ya que la agitación térmica domina, ya a temperaturas bajas, sobre las débiles fuerzas de cohesión. La mayor parte de las sustancias covalentes, a temperatura ambiente, son gases o líquidos de punto de ebullición bajo (ejem.: agua). En cuanto a la solubilidad, puede decirse que, en general, las sustancias covalentes son solubles en disolventes apolares y no lo son en disolventes polares. Se conocen algunos sólidos covalentes prácticamente infusibles e insolubles, que son excepción al comportamiento general descrito. Un ejemplo de ellos es el diamante. La gran estabilidad de estas redes cristalinas se debe a que los átomos que las forman están unidos entre sí mediante enlaces covalentes. Para deshacer la red es necesario romper estos enlaces, los cual consume enormes cantidades de energía 3.3 ELECTROVALENCIA Y COVALENCIA Teniendo presenta las teorías de los enlaces iónicos y covalentes, es posible deducir la valencia de un elemento cualquiera a partir de su configuración electrónica. · La electrovalencia, valencia en la formación de compuestos iónicos, es el número de electrones que el átomo tiene que ganar o perder para conseguir la configuración de los gases nobles. · La covalencia, número de enlaces covalentes que puede formar un átomo, es el número de electrones desapareados que tiene dicho átomo. Hay que tener presente que un átomo puede desaparecer sus electrones al máximo siempre que para ello no haya de pasar ningún electrón a un nivel energético superior. 3.4 ENLACE METALICO Los elementos metálicos sin combinar forman redes cristalinas con elevado índice de coordinación. Hay tres tipos de red cristalina metálica: cúbica centrada en las caras, con coordinación doce; cúbica centrada en el cuerpo, con coordinación ocho, y hexagonal compacta, con coordinación doce. Sin embargo, el número de electrones de valencia de cualquier átomo metálico es pequeño, en todo caso inferior al número de átomos que rodean a un dado, por lo cual no es posible suponer el establecimiento de tantos enlaces covalentes. En el enlace metálico, los átomos se transforman en iones y electrones, en lugar de pasar a un átomo adyacente, se desplazan alrededor de muchos átomos. Intuitivamente, la red cristalina metálica puede considerarse formada por una serie de átomos alrededor de los cuales los electrones sueltos forman una nube que mantiene unido al conjunto. 3.5 POLARIDAD DE LOS ENLACES En el caso de moléculas heteronucleares, uno de los átomos tendrá mayor electronegatividad que el otro y, en consecuencia, atraerá mas fuertemente hacia sí al par electrónico compartido. El resultado es un desplazamiento de la carga negativa hacia el átomo más electronegativo, quedando entonces el otro con un ligero exceso de carga positiva. Por ejemplo, en la molécula de HCl la mayor electronegatividad del cloro hace que sobre éste aparezca una fracción de carga negativa, mientras que sobre el hidrógeno aparece una positiva de igual valor absoluto. Resulta así una molécula polar, con un enlace intermedio entre el covalente y el iónico. 1. EXPOSICION DE OBJETIVOS Los objetivos de éste trabajo son exponer de una forma clara y concisa los diferentes tipos de enlaces químicos tradicionales, ya que no se ha tomado en cuanto teorías más modernas ni otros enlaces como el de hidrógeno, etc. Se tratará escuetamente de explicar los conceptos y propiedades de los distintos enlaces, así como de algunos postulados en relación con éste tema. 2. INTRODUCCION Un enlace es la unión entre los átomos de un compuesto. La unión o enlace entre los átomos tiene su origen en la estructura electrónica de los mismos. La actividad química de los elementos radica en su tendencia a adquirir, mediante su unión con otros átomos, la configuración de gas noble (ocho electrones en la capa más externa, salvo el helio que sólo tiene dos), que es muy estable. Es corriente distinguir tres tipos principales de enlaces químicos: iónico, covalente y metálico; de los cuales se hablará más extensamente después. Aunque dichos enlaces tienen propiedades bien definidas, la clasificación no es rigurosa, existiendo una transición gradual de uno a otro, lo que permite considerar tipos de enlace intermedios. Gracias a estos enlaces se forman los compuestos químicos, por ejemplo la sal. 86 Acreditalo ® Derechos Reservados La sal común es un sustancia bien conocida. Es utilizada para conservar y aderezar alimentos. Nuestra sangre posee casi la misma proporción de sal que el agua del mar, y es fundamental para mantener muchas de nuestras funciones vitales. Está formada por un no metal, el cloro y un metal alcalino, el sodio. Ambos en estado puro son extremadamente peligrosos para el hombre, sin embargo, forman juntas una sustancia, la sal común, que es inocua en pequeñas cantidades. Se dice por tanto que han formado un compuesto químico, una sustancia muy diferente de los elementos que la componen. Muchas de las sustancias que conocemos están formadas por uniones de distintos elementos. El azúcar, por ejemplo, está formado por oxígeno, hidrógeno y carbono. Estos átomos que pierden o ganan electrones para unirse se transforman en iones, átomos con carga eléctrica. Estos iones se unen para formar compuestos químicos, y la forma de unirse entre ellos se denomina enlace químico, del cual se va a hablar en este trabajo. 87