Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 1 Mecánica cuántica En unos pocos años, aproximadamente entre 1924 y 1930, se desarrolló un nuevo enfoque teórico de la dinámica para explicar el comportamiento subatómico. El nuevo planteamiento, llamado mecánica cuántica o mecánica ondulatoria, comenzó cuando el físico francés Louis de Broglie sugirió en 1924 que no sólo la radiación electromagnética, sino también la materia podía presentar una dualidad onda-corpúsculo. La longitud de onda de las llamadas ondas de materia asociadas con una partícula viene dada por la ecuación = h/mv, donde m es la masa de la partícula y v su velocidad. Las ondas de materia se concebían como ondas piloto que guiaban el movimiento de las partículas, una propiedad que debería llevar a que en condiciones adecuadas se produjera difracción. Ésta se confirmó en 1927 con los experimentos sobre interacciones entre electrones y cristales realizados por los físicos estadounidenses Clinton Joseph Davisson y Lester Halbert Germer y por el físico británico George Paget Thomson. Posteriormente, los alemanes Werner Heisenberg, Max Born y Ernst Pascual Jordan, y el austriaco Erwin Schrödinger dieron a la idea planteada por de Broglie una forma matemática que podía aplicarse a numerosos fenómenos físicos y a problemas que no podían tratarse con la física clásica. Además de confirmar el postulado de Bohr sobre la cuantización de los niveles de energía de los átomos, la mecánica cuántica hace que en la actualidad podamos comprender los átomos más complejos, y también ha supuesto una importante guía en la física nuclear. Aunque por lo general la mecánica cuántica sólo se necesita en fenómenos microscópicos (la mecánica newtoniana sigue siendo válida para sistemas macroscópicos), ciertos efectos macroscópicos como las propiedades de los sólidos cristalinos sólo pueden explicarse de forma satisfactoria a partir de los principios de la mecánica cuántica. Desde entonces se han incorporado nuevos conceptos importantes al panorama de la mecánica cuántica, más allá de la idea de Broglie sobre la dualidad onda-corpúsculo de la materia. Uno de estos conceptos es que los electrones deben tener un cierto magnetismo permanente y por tanto un momento angular intrínseco, o espín. Después se comprobó que el espín es una propiedad fundamental de casi todas las partículas elementales. En 1925, el físico austriaco Wolfgang Pauli expuso el principio de exclusión, que afirma que en un átomo no puede haber dos electrones con el mismo conjunto de números cuánticos (hacen falta cuatro números cuánticos para especificar completamente el estado de un electrón dentro de un átomo). El principio de exclusión es vital para comprender la estructura de los elementos y de la tabla periódica. En 1927, Heisenberg postuló el principio de incertidumbre, que afirma la existencia de un límite natural a la precisión con la que pueden conocerse simultáneamente determinados pares de magnitudes físicas asociadas a una partícula (por ejemplo, la cantidad de movimiento y la posición). En 1928 el físico matemático británico Paul Dirac realizó una síntesis de la mecánica cuántica y la relatividad, que le llevó a predecir la existencia del positrón y culminó el desarrollo de la mecánica cuántica. Las ideas de Bohr desempeñaron un papel muy importante para el desarrollo de un enfoque estadístico en la física moderna. Las relaciones de Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 2 causa y efecto de la mecánica newtoniana, totalmente deterministas, fueron sustituidas por predicciones de sucesos futuros basadas sólo en probabilidades estadísticas. Las propiedades ondulatorias de la materia implican que, de acuerdo con el principio de incertidumbre, el movimiento de las partículas nunca puede predecirse con una certeza absoluta, incluso aunque se conozcan por completo las fuerzas. Aunque este aspecto estadístico no es detectable en los movimientos macroscópicos, es dominante a escala molecular, atómica y subatómica. Física nuclear El descubrimiento de la radiactividad del mineral de uranio, llevado a cabo en 1896 por Becquerel, también facilitó la comprensión de la estructura atómica. En los años siguientes se comprobó que la radiación de los materiales radiactivos estaba formada por tres tipos de emisiones: los llamados rayos alfa, beta y gamma. Rutherford estableció que los primeros eran núcleos de átomos de helio, y Becquerel demostró que los segundos eran electrones muy rápidos. Los rayos gamma resultaron ser radiación electromagnética de muy alta frecuencia. En 1898, los físicos franceses Marie y Pierre Curie aislaron dos elementos muy radiactivos, el radio y el polonio, a partir del mineral de uranio, con lo que demostraron que las radiaciones pueden identificarse con determinados elementos. En 1903, Rutherford y el químico y físico británico Frederick Soddy demostraron que la emisión de rayos alfa o beta provoca la transmutación del núcleo del elemento emisor en un núcleo de un elemento diferente. Poco después se comprobó que los procesos radiactivos son aleatorios y sólo pueden estudiarse desde un punto de vista estadístico: no existe ningún método para indicar qué núcleo de un átomo de un material radiactivo se desintegrará en un momento dado. Estos avances, además de llevar al modelo atómico de Rutherford y Bohr, también sugerían que los rayos alfa, beta y gamma sólo podían proceder de núcleos de átomos muy pesados. En 1919, Rutherford bombardeó núcleos de nitrógeno con partículas alfa y los convirtió en núcleos de hidrógeno y oxígeno, con lo que logró la primera transmutación artificial de elementos. Entretanto el conocimiento de la naturaleza y abundancia de los isótopos iba creciendo, debido en gran medida al desarrollo del espectrómetro de masas. Surgió un modelo atómico en el que el núcleo contenía toda la carga positiva y casi toda la masa del átomo. Los portadores de la carga nuclear fueron identificados como protones, pero sólo podía explicarse la masa del núcleo si existían otras partículas adicionales sin carga (salvo en el caso del hidrógeno, cuyo núcleo está formado sólo por un protón). En 1932, el físico británico James Chadwick descubrió el neutrón, una partícula eléctricamente neutra cuya masa es igual a 1,675 × 10-27 kg, algo mayor que la del protón. Los núcleos atómicos resultaron pues estar formados por protones y neutrones —llamados colectivamente nucleones— y el número atómico del elemento corresponde al número de protones del núcleo. Por otra parte, el número másico, también denominado número isotópico, corresponde a la suma del número de protones y neutrones. Por ejemplo, todos los átomos de oxígeno (cuyo número atómico es 8) tienen ocho protones, pero los tres Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 3 isótopos de oxígeno 16O, 17O y 18O contienen respectivamente ocho, nueve y diez neutrones en su núcleo. Las cargas eléctricas positivas se repelen, y puesto que los núcleos atómicos (salvo el del hidrógeno) tienen más de un protón, se desintegrarían a no ser por una fuerza atractiva muy intensa, la llamada interacción nuclear fuerte, que mantiene unidos los nucleones. La energía asociada con esta interacción fuerte es muy grande, millones de veces mayor que las energías características de los electrones en sus órbitas, responsables de los enlaces químicos. Por tanto, una partícula alfa (formada por dos neutrones y dos protones) tendría que superar esta intensa interacción fuerte para escapar de un núcleo radiactivo como el del uranio. El fenómeno fue explicado por los físicos estadounidenses Edward Condon, George Gamow y Ronald Wilfred Gurney, que en 1928 aplicaron la mecánica cuántica al problema de la emisión alfa y demostraron que la naturaleza estadística de los procesos nucleares permitía que las partículas alfa salieran de los núcleos radiactivos aunque su energía media fuera insuficiente para superar la interacción nuclear fuerte. La emisión beta se explicó como resultado de la desintegración de un neutrón del núcleo, que se transforma en un electrón (la partícula beta) que se expulsa rápidamente y en un protón residual. El núcleo resultante tiene un protón más que el núcleo original, por lo que su número atómico, y por tanto su posición en la tabla periódica, aumentan en una unidad. Después de una emisión alfa o beta, el núcleo suele tener un exceso de energía, del que se deshace emitiendo un fotón de rayos gamma. En todos estos procesos se libera una gran cantidad de energía, según la ecuación de Einstein E = mc2. Al finalizar el proceso, la masa total de los productos es menor que la del núcleo original: esta diferencia de masa corresponde a la energía liberada. Avances de la física desde 1930 La rápida expansión de la física en las últimas décadas ha sido posible gracias a los avances fundamentales del primer tercio del siglo XX, junto con los recientes adelantos tecnológicos, sobre todo en tecnología informática, electrónica, aplicaciones de la energía nuclear y aceleradores de partículas de altas energías. Aceleradores Rutherford y los otros pioneros de la investigación de las propiedades nucleares estaban limitados a emplear en sus investigaciones sobre el átomo las emisiones de alta energía procedentes de sustancias radiactivas naturales. Las emisiones artificiales de alta energía fueron producidas por primera vez en 1932 por el físico británico John Cockcroft y su colega irlandés Ernest Walton, que emplearon generadores de alta tensión para acelerar electrones hasta unos 700.000 eV; estos elementos fueron utilizados para bombardear núcleos de litio, que se transformaron en núcleos de helio. Un electronvoltio (eV) es la energía que adquiere un electrón al ser acelerado con una diferencia de potencial de 1 voltio, y equivale a 1,6 × 10 -19 julios. Los aceleradores modernos producen energías de millones de eV Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 4 (megaelectronvoltios, o MeV), miles de millones de eV (gigaelectronvoltios, o GeV) o incluso billones de eV (teraelectronvoltios, o TeV). La posibilidad de generar tensiones muy elevadas apareció en 1932, cuando el físico estadounidense Robert J. Van de Graaff inventó el aparato conocido como generador de Van de Graaff. Poco tiempo después, los físicos estadounidenses Ernest Orlando Lawrence y Milton Stanley Livingston inventaron el ciclotrón; este dispositivo emplea un campo magnético para mantener partículas cargadas moviéndose en trayectorias circulares, y en cada media vuelta proporciona a las partículas un pequeño ‘empujón’ eléctrico hasta que acumulan las altas energías deseadas. El ciclotrón permitía acelerar protones hasta unos 10 MeV, pero para obtener energías más elevadas hubo que esperar hasta después de la II Guerra Mundial, cuando se desarrolló el sincrotrón a partir de las ideas del físico estadounidense Edwin Mattison McMillan y el físico soviético Vladimir I. Veksler. Después de la II Guerra Mundial se produjeron rápidos avances en el diseño de aceleradores y se construyeron aparatos de diferentes tipos para producir haces de alta energía de electrones, protones, deuterones, iones pesados o rayos X. Los aceleradores de menores energías tienen diferentes aplicaciones en industrias y laboratorios, mientras que los más potentes se usan para estudiar la estructura de las partículas elementales, los componentes básicos de la naturaleza. En estos estudios se desintegran partículas elementales golpeándolas con haces de proyectiles, que suelen ser protones o electrones. La distribución de los fragmentos proporciona información sobre la estructura de las partículas elementales. Para obtener información más detallada hace falta usar proyectiles con más energía. Como los proyectiles se aceleran ‘empujándolos’ para obtener mayores energías, hace falta ‘empujarlos’ durante un tiempo mayor. Por eso, los aceleradores de altas energías suelen ser más grandes. La mayor energía de haz obtenida a finales de la II Guerra Mundial era menor de 100 MeV. En 1952 se produjo un avance revolucionario en el diseño de aceleradores cuando los físicos estadounidenses Livingston, Ernest D. Courant y Hartland S. Snyder introdujeron el principio de enfoque intenso. En la actualidad, los mayores aceleradores del mundo producen haces de protones con energías superiores a 1 TeV. Detectores de partículas En sus comienzos, la detección y análisis de partículas elementales se basaba en su capacidad para impresionar emulsiones fotográficas y excitar materiales fluorescentes. El físico británico C. T. R. Wilson observó por primera vez las trayectorias de partículas ionizadas en una cámara de niebla, donde las gotitas de agua se condensaban sobre los iones producidos por las partículas a su paso por la cámara. Mediante campos eléctricos o magnéticos era posible desviar las trayectorias de las partículas, lo que proporcionaba información sobre su momento lineal y su carga eléctrica. Un avance significativo sobre la cámara de niebla fue la cámara de burbujas, inventada Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 5 por el físico estadounidense Donald Arthur Glaser en 1952. A diferencia de la cámara de niebla, este dispositivo emplea un líquido (por lo general hidrógeno a presión) en lugar de aire; los iones producidos por una partícula rápida se convierten en centros de ebullición y dejan una trayectoria de burbujas fácilmente visible. Como la densidad del líquido es mucho mayor que la del aire, en una cámara de burbujas se producen más interacciones que en una cámara de niebla. Además, las burbujas desaparecen más deprisa que las gotitas de agua, lo que permite una recuperación más rápida de la cámara. Un tercer avance, la cámara de chispa, surgió en la década de 1950. En este aparato, una serie de placas paralelas se mantiene a una diferencia de potencial elevada en una atmósfera gaseosa adecuada. Cuando una partícula ionizante pasa entre las placas, los átomos de gas se ionizan y producen chispas que delinean la trayectoria de la partícula. Un tipo diferente de detector, el contador de descarga, fue desarrollado a principios del siglo XX por el físico alemán Hans Geiger; más tarde lo mejoró el físico estadounidense de origen alemán Walter Müller. En la actualidad se conoce como contador Geiger-Müller, o simplemente contador Geiger. A pesar de su comodidad y pequeño tamaño, ha sido sustituido en la mayoría de los casos por contadores de estado sólido más rápidos y prácticos, como el contador de centelleo, que fue desarrollado alrededor de 1947 por el físico estadounidense de origen alemán Hartmut Paul Kallmann y otros. El contador de centelleo se basa en los destellos luminosos que producen las partículas ionizadas al atravesar determinados cristales y líquidos orgánicos. Rayos cósmicos Alrededor de 1911, el físico estadounidense de origen austriaco Victor Franz Hess estudió los rayos cósmicos. Los rayos cósmicos primarios están formados por partículas que proceden directamente del exterior de la atmósfera terrestre. Los rayos cósmicos secundarios son partículas y radiaciones producidas en la colisión de las partículas de rayos cósmicos primarios con los átomos de la atmósfera. Hess descubrió que la distribución de los rayos cósmicos está determinada por el campo magnético terrestre. Se comprobó que los rayos estaban cargados positivamente y corresponden sobre todo a protones con energías situadas entre 1 GeV y 1011 GeV. Los rayos cósmicos atrapados en órbitas alrededor de la Tierra son los responsables de los cinturones de radiación de Van Allen, descubiertos por el primer satélite artificial estadounidense, lanzado en 1958. Cuando un protón primario de alta energía entra en la atmósfera y colisiona con los núcleos de nitrógeno y oxígeno del aire, produce grandes cantidades de partículas secundarias que se dirigen hacia la Tierra formando una lluvia de rayos cósmicos. El origen de los protones de los rayos cósmicos primarios todavía no se comprende en su totalidad. Se sabe que algunos proceden del Sol y otras estrellas, pero los de energías más altas son difíciles de explicar: parece probable que los débiles campos galácticos aceleren los protones interestelares a lo largo de periodos extremadamente largos. Partículas elementales Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 6 Además del electrón, el protón, el neutrón y el fotón se han descubierto muchas otras partículas fundamentales. En 1932, el físico estadounidense Carl David Anderson descubrió el antielectrón o positrón, que Dirac había predicho en 1928. Anderson comprobó que un rayo gamma de alta energía procedente de la radiación cósmica podía desaparecer en las proximidades de un núcleo pesado y crear un par electrón-positrón exclusivamente a partir de su energía. Cuando un positrón choca con un electrón se aniquilan entre sí y dan lugar a una lluvia de fotones. En 1935, el físico japonés Yukawa Hideki desarrolló una teoría que explicaba cómo se mantiene unido un núcleo a pesar de la repulsión mutua entre sus protones. Yukawa postuló la existencia de una partícula de masa intermedia entre el electrón y el protón. En 1936, Anderson y sus colaboradores descubrieron en la radiación cósmica secundaria una nueva partícula con una masa 207 veces superior a la del electrón. Al principio se creyó que esa partícula, que se denominó muón, era el ‘pegamento’ nuclear de Yukawa. Los experimentos posteriores del físico británico Cecil Frank Powell y otros llevaron al descubrimiento de una partícula algo más pesada, con una masa 270 veces mayor que la del electrón. Este mesón pi o pión (también hallado en la radiación cósmica secundaria) fue finalmente identificado como la pieza que faltaba en la teoría de Yukawa. Desde entonces se han encontrado muchas partículas adicionales en la radiación cósmica secundaria y en los aceleradores de partículas de altas energías. Entre ellas figuran numerosas partículas de gran masa, denominadas hadrones (partículas afectadas por la interacción nuclear fuerte, que mantiene unidos los núcleos atómicos), que incluyen los hiperones y diversos mesones pesados cuya masa es de 1 a 3 veces la del protón, además de los llamados bosones vectoriales intermedios, como las partículas W y Z0, los portadores de la interacción nuclear débil. Estas partículas pueden ser eléctricamente neutras, positivas o negativas, pero nunca tienen más de una carga eléctrica elemental, e. Tienen un periodo de semidesintegración que va desde 10-8 hasta 10-14 segundos, y se desintegran dando lugar a numerosas partículas más ligeras. Cada partícula tiene su antipartícula correspondiente y posee un determinado momento angular. Todas cumplen una serie de leyes de conservación relativas a números cuánticos como el número bariónico, la llamada extrañeza o el espín isotópico. En 1931, para explicar el aparente incumplimiento de algunas leyes de conservación en determinados procesos radiactivos, Pauli postuló la existencia de partículas eléctricamente neutras de masa nula o casi nula que transportan energía y momento lineal. Esta idea fue desarrollada por el físico estadounidense nacido en Italia Enrico Fermi, que llamó neutrino a esta partícula hipotética. Al carecer de carga y ser extremadamente pequeño, el neutrino es muy difícil de detectar, y puede atravesar con facilidad toda la Tierra sin ser capturado. Fue finalmente descubierto por los estadounidenses Frederick Reines y Clyde Lorrain Cowan, hijo. Los experimentos del físico estadounidense Robert Hofstadter con electrones rápidos procedentes de aceleradores lineales también contribuyeron a ampliar el conocimiento de la estructura interna de los protones y neutrones. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 7 A finales de la década de 1940, una serie de experimentos con rayos cósmicos reveló nuevos tipos de partículas cuya existencia no se había pronosticado. Se las denominó partículas extrañas, y sus propiedades se estudiaron intensivamente en la década de 1950. En la década de 1960, se encontraron muchas partículas nuevas en experimentos con grandes aceleradores. El nombre de partículas elementales se aplica al electrón, el protón, el neutrón, el fotón y a todas las partículas descubiertas desde 1932. Sin embargo, el término es de hecho incorrecto, ya que se ha comprobado que la mayoría de estas partículas tienen una estructura interna complicada. La física de partículas elementales se ocupa de dos cuestiones: 1) la estructura interna de estos componentes de la materia; 2) la interacción de los mismos para formar núcleos. En la actualidad ya se conocen los principios físicos que explican cómo se forman átomos y moléculas a partir de núcleos y electrones; ahora se realizan intensas investigaciones para averiguar los principios que rigen la estructura de toda la materia. La teoría dominante acerca de la estructura interna de las partículas elementales se basa en los quarks, subpartículas de carga fraccionaria; por ejemplo, un protón está formado por tres quarks. Esta teoría fue propuesta por primera vez en 1964 por los físicos estadounidenses Murray Gell-Mann y George Zweig. Los nucleones están formados por tríos de quarks, mientras que los mesones están formados por parejas de quarks. No se conoce ningún proceso para producir quarks aislados, pero se cree que existieron de forma individual en las condiciones extremas que reinaron al comienzo del Universo. Al principio la teoría postulaba tres tipos de quarks, pero los experimentos posteriores exigieron la introducción de otros tres tipos adicionales. Teoría del campo unificado Hasta ahora, las teorías más fructíferas de las interacciones entre las partículas elementales son las llamadas teorías de gauge. En estas teorías, la interacción entre dos clases de partículas se caracteriza por la simetría. Por ejemplo, la simetría entre neutrones y protones consiste en que si se intercambian las identidades de las partículas no cambia nada en lo relativo a la interacción fuerte. La primera de las teorías de gauge se aplicó a las interacciones electromagnéticas entre partículas cargadas. Aquí, la simetría reside en el hecho de que los cambios en la combinación de potenciales eléctricos y magnéticos no tienen efecto sobre los resultados finales. Una teoría de gauge muy potente, posteriormente verificada, fue propuesta de forma independiente por el físico estadounidense Steven Weinberg y el físico paquistaní Abdus Salam en 1967 y 1968. Su modelo vinculaba los bosones vectoriales intermedios con el fotón, con lo que unificaba las interacciones electromagnética y nuclear débil, aunque sólo en el caso de los leptones (partículas no afectadas por la interacción nuclear fuerte). Los trabajos posteriores de Sheldon Lee Glashow, J. Iliopolis y L. Maiani demostraron la forma en que el modelo puede aplicarse también a los hadrones (partículas afectadas por la interacción fuerte). En principio, la teoría de gauge puede aplicarse a cualquier campo de fuerzas, lo que presenta la posibilidad de que todas las fuerzas o interacciones puedan unirse en una única teoría del campo unificado. Estos Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 8 intentos implican siempre el concepto de simetría. Las simetrías generalizadas se extienden también a intercambios de partículas que varían de un punto a otro en el espacio y en el tiempo. El problema para los físicos es que estas simetrías no amplían el conocimiento científico de la naturaleza de la materia. Por eso, muchos físicos están explorando las posibilidades de las llamadas teorías de supersimetría, que relacionarían directamente los fermiones y los bosones postulando nuevas parejas de partículas ‘gemelas’ además de las conocidas, que sólo se diferenciarían por el espín. Se han expresado algunas reservas en relación con estos intentos; en cambio, otro enfoque conocido como teoría de supercuerdas suscita mucho interés. En esta teoría, las partículas fundamentales no se consideran objetos sin dimensiones sino ‘cuerdas’ que se extienden en una dimensión con longitudes menores de 10-35 metros. Todas estas teorías resuelven muchos de los problemas con que se encuentran los físicos que trabajan en la teoría del campo unificado, pero de momento sólo son construcciones bastante especulativas. Física nuclear En 1931 el físico estadounidense Harold Clayton Urey descubrió el isótopo del hidrógeno denominado deuterio y lo empleó para obtener agua pesada. El núcleo de deuterio o deuterón (formado por un protón y un neutrón) constituye un excelente proyectil para inducir reacciones nucleares. Los físicos franceses Irène y Frédéric Joliot-Curie produjeron el primer núcleo radiactivo artificial en 1933-1934, con lo que comenzó la producción de radioisótopos para su empleo en arqueología, biología, medicina, química y otras ciencias. Fermi y numerosos colaboradores emprendieron una serie de experimentos para producir elementos más pesados que el uranio bombardeando éste con neutrones. Tuvieron éxito, y en la actualidad se han creado artificialmente al menos una docena de estos elementos transuránicos. A medida que continuaba su trabajo se produjo un descubrimiento aún más importante. Irène Joliot-Curie, los físicos alemanes Otto Hahn y Fritz Strassmann, la física austriaca Lise Meitner y el físico británico Otto Robert Frisch comprobaron que algunos núcleos de uranio se dividían en dos partes, fenómeno denominado fisión nuclear. La fisión liberaba una cantidad enorme de energía debida a la pérdida de masa, además de algunos neutrones. Estos resultados sugerían la posibilidad de una reacción en cadena automantenida, algo que lograron Fermi y su grupo en 1942, cuando hicieron funcionar el primer reactor nuclear. Los avances tecnológicos fueron rápidos; la primera bomba atómica se fabricó en 1945 como resultado de un ingente programa de investigación dirigido por el físico estadounidense J. Robert Oppenheimer, y el primer reactor nuclear destinado a la producción de electricidad entró en funcionamiento en Gran Bretaña en 1956, con una potencia de 78 megavatios. La investigación de la fuente de energía de las estrellas llevó a nuevos avances. El físico estadounidense de origen alemán Hans Bethe demostró que las estrellas obtienen su energía de una serie de reacciones nucleares que tienen lugar a temperaturas de millones de grados. En estas reacciones, Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 9 cuatro núcleos de hidrógeno se convierten en un núcleo de helio, a la vez que liberan dos positrones y cantidades inmensas de energía. Este proceso de fusión nuclear se adoptó con algunas modificaciones —en gran medida a partir de ideas desarrolladas por el físico estadounidense de origen húngaro Edward Teller— como base de la bomba de fusión, o bomba de hidrógeno. Este arma, que se detonó por primera vez en 1952, era mucho más potente que la bomba de fisión o atómica. En la bomba de hidrógeno, una pequeña bomba de fisión aporta las altas temperaturas necesarias para desencadenar la fusión, también llamada reacción termonuclear. Gran parte de las investigaciones actuales se dedican a la producción de un dispositivo de fusión controlada, no explosiva, que sería menos radiactivo que un reactor de fisión y proporcionaría una fuente casi ilimitada de energía. En diciembre de 1993 se logró un avance significativo en esa dirección cuando los investigadores de la Universidad de Princeton, en Estados Unidos, usaron el Reactor Experimental de Fusión Tokamak para producir una reacción de fusión controlada que proporcionó durante un breve tiempo una potencia de 5,6 megavatios. Sin embargo el reactor consumió más energía de la que produjo. Física del estado sólido En los sólidos, los átomos están densamente empaquetados, lo que lleva a la existencia de fuerzas de interacción muy intensas y numerosos efectos relacionados con este tipo de fuerzas que no se observan en los gases, donde las moléculas actúan en gran medida de forma independiente. Los efectos de interacción son responsables de las propiedades mecánicas, térmicas, eléctricas, magnéticas y ópticas de los sólidos, un campo que resulta difícil de tratar desde el punto de vista teórico, aunque se han realizado muchos progresos. Una característica importante de la mayoría de los sólidos es su estructura cristalina, en la que los átomos están distribuidos en posiciones regulares que se repiten de forma geométrica. La distribución específica de los átomos puede deberse a una variada gama de fuerzas. Por ejemplo, algunos sólidos como el cloruro de sodio o sal común se mantienen unidos por enlaces iónicos debidos a la atracción eléctrica entre los iones que componen el material. En otros, como el diamante, los átomos comparten electrones, lo que da lugar a los llamados enlaces covalentes. Las sustancias inertes, como el neón, no presentan ninguno de esos enlaces. Su existencia es el resultado de las llamadas fuerzas de van der Waals, así llamadas en honor al físico holandés Johannes Diderik van der Waals. Estas fuerzas aparecen entre moléculas o átomos neutros como resultado de la polarización eléctrica. Los metales, por su parte, se mantienen unidos por lo que se conoce como ‘gas electrónico’, formado por electrones libres de la capa atómica externa compartidos por todos los átomos del metal y que definen la mayoría de sus propiedades. Los niveles de energía definidos y discretos permitidos a los electrones de átomos individuales se ensanchan hasta convertirse en bandas de energía cuando los átomos se agrupan densamente en un sólido. La anchura y separación de esas bandas definen muchas de las propiedades del material. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 10 Por ejemplo, las llamadas bandas prohibidas, en las que no pueden existir electrones, restringen el movimiento de éstos y hacen que el material sea un buen aislante térmico y eléctrico. Cuando las bandas de energía se solapan, como ocurre en los metales, los electrones pueden moverse con facilidad, lo que hace que el material sea un buen conductor de la electricidad y el calor. Si la banda prohibida es estrecha, algunos de los electrones más rápidos pueden saltar a la banda de energía superior: es lo que ocurre en un semiconductor como el silicio. En ese caso, el espacio entre las bandas de energía puede verse muy afectado por cantidades minúsculas de impurezas, como arsénico. Cuando la impureza provoca el descenso de una banda de energía alta, se dice que es un donante de electrones, y el semiconductor resultante se llama de tipo n. Cuando la impureza provoca el ascenso de una banda de energía baja, como ocurre con el galio, se dice que es un aceptor de electrones. Los vacíos o ‘huecos’ de la estructura electrónica actúan como si fueran cargas positivas móviles, y se dice que el semiconductor es de tipo p. Numerosos dispositivos electrónicos modernos, en particular el transistor, desarrollado por los físicos estadounidenses John Bardeen, Walter Houser Brattain y William Bradford Shockley, están basados en estas propiedades de los semiconductores. Las propiedades magnéticas de los sólidos se deben a que los electrones actúan como minúsculos dipolos magnéticos. Casi todas las propiedades de los sólidos dependen de la temperatura. Por ejemplo, los materiales ferromagnéticos como el hierro o el níquel pierden su intenso magnetismo residual cuando se los calienta a una temperatura característica denominada temperatura de Curie. La resistencia eléctrica suele decrecer al disminuir la temperatura, y en algunos materiales denominados superconductores desaparece por completo en las proximidades del cero absoluto. Éste y muchos otros fenómenos observados en los sólidos dependen de la cuantización de la energía, y la mejor forma de describirlos es a través de ‘partículas’ efectivas con nombres como fonón, polarón o magnón. Criogenia A temperaturas muy bajas (cerca del cero absoluto), muchos materiales presentan características sorprendentes. A comienzos del siglo XX, el físico holandés Heike Kamerlingh Onnes desarrolló técnicas para producir estas bajas temperaturas y descubrió la superconductividad del mercurio, que pierde toda su resistencia eléctrica a una temperatura de unos 4 kelvins. A muchos otros elementos, aleaciones y compuestos les ocurre lo mismo a una temperatura característica cercana a 0 K, y los materiales magnéticos se convierten en aislantes magnéticos. Desde 1986 se han fabricado varios materiales que presentan superconductividad a temperaturas mayores. La teoría de la superconductividad, desarrollada en gran medida por John Bardeen y otros dos físicos estadounidenses, Leon N. Cooper y John Robert Schrieffer, es extremadamente complicada, e implica el apareamiento de electrones en la red cristalina. Otro descubrimiento fascinante fue el de que el helio no se congela, sino que a unos 2 kelvins pasa de ser un líquido ordinario, denominado He I, a convertirse en He II, un líquido superfluido que no tiene viscosidad y presenta Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 11 una conductividad térmica unas 1.000 veces mayor que la de la plata. El He II puede formar películas que se desplazan hacia arriba por las paredes del recipiente que lo contiene, y traspasa con facilidad materiales como el platino. Aún no hay una teoría plenamente satisfactoria para este comportamiento. Física del plasma Un plasma es cualquier sustancia (generalmente un gas) cuyos átomos han perdido uno o más electrones, por lo que ha quedado ionizada. Sin embargo, los electrones perdidos permanecen en el volumen del gas, que de forma global permanece eléctricamente neutro. La ionización puede producirse mediante la introducción de grandes concentraciones de energía, como el bombardeo con electrones externos rápidos, mediante irradiación con luz láser o mediante calentamiento a temperaturas muy altas. Las partículas cargadas individuales que forman el plasma responden a campos eléctricos y magnéticos, por lo que pueden ser manipuladas y contenidas. Los plasmas se encuentran en fuentes de luz gaseosas (como una lámpara de neón), en el espacio interestelar, donde el hidrógeno residual es ionizado por la radiación, y en las estrellas, cuyas elevadas temperaturas interiores producen un alto grado de ionización, un proceso estrechamente relacionado con la fusión nuclear que proporciona su energía a las estrellas. Para que los núcleos de hidrógeno se fusionen y formen núcleos más pesados deben tener una velocidad suficientemente alta para superar su repulsión eléctrica mutua; esto implica una temperatura muy elevada (millones de grados). Para producir una fusión controlada hay que generar plasmas y contenerlos magnéticamente. Es un problema importante y complejo que entra en el ámbito de la magnetohidrodinámica. Láser Un importante avance reciente es el láser, acrónimo en inglés de amplificación de luz por emisión estimulada de radiación. En un láser, cuya sustancia activa puede ser un gas, un líquido o un sólido, se excita un gran número de átomos hasta un nivel elevado de energía y se hace que liberen dicha energía simultáneamente, con lo que producen luz coherente en la que todas las ondas están en fase. Esta coherencia permite generar haces de luz muy intensos y de longitud de onda muy definida, que se mantienen enfocados o colimados a lo largo de distancias muy grandes. La luz láser es mucho más intensa que la de cualquier otra fuente. Un láser continuo puede proporcionar cientos de vatios, y un láser pulsado puede generar millones de vatios durante periodos muy cortos. El láser fue desarrollado en las décadas de 1950 y 1960 por el ingeniero e inventor estadounidense Gordon Gould y los físicos estadounidenses Charles Hard Townes, T. H. Maiman, Arthur Schawlow y Ali Javan. En la actualidad constituye un instrumento muy potente para la ciencia y la tecnología, con aplicaciones en comunicación, medicina, navegación, metalurgia, fusión y corte de materiales. Astrofísica y cosmología Desde la II Guerra Mundial los astrónomos han hecho muchos descubrimientos importantes, como los quásares, los púlsares o la radiación de fondo cósmica. Estos descubrimientos, que no pueden ser explicados Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 12 totalmente por la física actual, han estimulado el avance de la teoría en campos como la gravitación o la física de partículas elementales. En la actualidad se acepta que toda la materia accesible a nuestra observación estaba originalmente comprimida de forma muy densa en un solo lugar, y explotó entre 10.000 y 20.000 millones de años antes del momento presente en un estallido colosal conocido como Big Bang o Gran Explosión. La explosión dio lugar a un universo que todavía se está expandiendo. Un aspecto enigmático de este universo, recientemente descubierto, es que las galaxias no están distribuidas de modo uniforme. Hay inmensos espacios vacíos rodeados por grupos de galaxias con forma de filamentos. La distribución de esos vacíos y filamentos aporta datos importantes sobre la naturaleza de la materia que surgió de la Gran Explosión e indica que es muy probable que la llamada materia oscura predominase sobre las formas conocidas de materia. Éste es sólo uno de los puntos en los que ‘la física de lo muy grande’ enlaza con ‘la física de lo muy pequeño’. Química, estudio de la composición, estructura y propiedades de las sustancias materiales, de sus interacciones y de los efectos producidos sobre ellas al añadir o extraer energía en cualquiera de sus formas. Desde los primeros tiempos, los seres humanos han observado la transformación de las sustancias —la carne cocinándose, la madera quemándose, el hielo derritiéndose— y han especulado sobre sus causas. Siguiendo la historia de esas observaciones y especulaciones, se puede reconstruir la evolución gradual de las ideas y conceptos que han culminado en la química moderna. Tecnología y filosofía en la antigüedad Los primeros procesos químicos conocidos fueron realizados por los artesanos de Mesopotamia, Egipto y China. Al principio, los forjadores de esas tierras trabajaban con metales nativos como el oro y el cobre, que a veces se encontraban en la naturaleza en estado puro, pero rápidamente aprendieron a fundir menas (principalmente los óxidos metálicos y los sulfuros) calentándolas con madera o carbón de leña para obtener los metales. El uso progresivo del cobre, bronce y hierro dio origen a los nombres que los arqueólogos han aplicado a las distintas eras. En esas culturas se inició también una tecnología química primitiva, conforme los tintoreros descubrían métodos para fijar los tintes en los distintos tipos de tejidos y los alfareros aprendían a preparar barnices y más tarde a fabricar vidrio. La mayoría de esos artesanos trabajaban en los monasterios y palacios haciendo artículos de lujo. En los monasterios especialmente, los monjes tenían tiempo para especular sobre el origen de los cambios que veían en el mundo que los rodeaba. Sus teorías se basaban frecuentemente en la magia, pero también elaboraron ideas astronómicas, matemáticas y cosmológicas, que utilizaban en sus intentos de explicar algunos de los cambios que hoy se consideran químicos. Filosofía natural griega Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 13 Desde los tiempos de Tales de Mileto, unos 600 años a.C., los filósofos griegos empezaron a hacer especulaciones lógicas sobre el mundo físico, en lugar de confiar en los mitos para explicar los fenómenos. El mismo Tales pensaba que toda la materia procedía del agua, que podía solidificarse en tierra o evaporarse en aire. Sus sucesores ampliaron esta teoría en la idea de que el mundo estaba compuesto por cuatro elementos: tierra, agua, aire y fuego. Según Demócrito, esos elementos estaban compuestos por átomos, partículas diminutas que se movían en el vacío. Otros, especialmente Aristóteles, creían que los elementos formaban un medio continuo de materia y, por tanto, el vacío no podía existir. La idea atómica perdió terreno rápidamente, pero nunca fue completamente olvidada. Cuando fue revisada durante el renacimiento, formó la base de la teoría atómica moderna. Aristóteles fue el más influyente de los filósofos griegos, y sus ideas dominaron la filosofía natural durante casi dos milenios después de su muerte, en el 323 a.C. Creía que la materia poseía cuatro cualidades: calor, frío, humedad y sequedad. Cada uno de los cuatro elementos estaba compuesto por pares de esas cualidades; por ejemplo, el fuego era caliente y seco, el agua fría y húmeda, el aire caliente y húmedo, y la tierra fría y seca. Esos elementos con sus cualidades se combinaban en diferentes proporciones para formar los componentes del planeta terrestre. Puesto que era posible cambiar las cantidades de cada cualidad en un elemento, se podía transformar un elemento en otro; así, se pensaba que era posible cambiar las sustancias materiales formadas por los elementos, por ejemplo, el plomo en oro. Alquimia: auge y declive La teoría de Aristóteles fue aceptada por los prácticos artesanos, especialmente en Alejandría, Egipto, que después del 300 a.C. se convirtió en el centro intelectual del mundo antiguo. Ellos pensaban que los metales de la Tierra tendían a ser cada vez más perfectos y a convertirse gradualmente en oro, y creían que podían realizar el mismo proceso más rápidamente en sus talleres, transmutando así de forma artificial los metales comunes en oro. Comenzando el año 100 de la era cristiana, esta idea dominaba la mente de los filósofos y los trabajadores del metal, y se escribió un gran número de tratados sobre el arte de la transmutación que empezaba a conocerse como alquimia. Aunque nadie consiguió hacer oro, en la búsqueda de la perfección de los metales se descubrieron muchos procesos químicos. Casi al mismo tiempo (y probablemente de forma independiente) apareció en China una alquimia similar. Aquí el objetivo también era fabricar oro, aunque no por el valor monetario del metal. Los chinos consideraban al oro como una medicina que podía conferir larga vida o incluso la inmortalidad a cualquiera que la consumiera. Al igual que los egipcios, los chinos aumentaron sus conocimientos de la química práctica a partir de teorías incorrectas. Dispersión del pensamiento griego Después del declive del Imperio romano, en la Europa occidental empezaron a estudiarse menos los escritos griegos, e incluso fueron bastante abandonados en el Mediterráneo oriental. Sin embargo, en el siglo VI, un Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 14 grupo de cristianos conocidos como los nestorianos, cuyo idioma era el sirio, expandieron su influencia por Asia Menor. Establecieron una universidad en Edessa, Mesopotamia, y tradujeron al sirio un gran número de escritos filosóficos y médicos griegos para que pudieran ser utilizados por los estudiantes. En los siglos VII y VIII, los conquistadores árabes expandieron la cultura islámica sobre gran parte de Asia Menor, norte de África y España. Los califas de Bagdad se convirtieron en mecenas activos de la ciencia y el saber. La traducción siria de los textos griegos fue traducida de nuevo, esta vez al árabe, y junto con el resto del saber griego volvieron a florecer las ideas y la práctica de la alquimia. Los alquimistas árabes también estaban en contacto con China; así, a la idea del oro como metal perfecto le añadieron el concepto del oro como medicina. Se concibió un agente específico para estimular la transmutación, la ‘piedra filosofal’, que se convirtió en el objeto de investigación de los alquimistas. Ahora tenían un nuevo incentivo para estudiar los procesos químicos, porque podrían conducirlos no sólo a la riqueza, sino a la salud. En el estudio de los productos y aparatos químicos se hicieron grandes progresos. Se descubrieron importantes reactivos como los álcalis cáusticos (véase Metales alcalinos) y las sales de amonio (véase Amoníaco), y se mejoraron los aparatos de destilación. También se vio rápidamente la necesidad de aplicar más métodos cuantitativos, pues algunas fórmulas árabes daban instrucciones específicas sobre las cantidades de reactivos a utilizar. El final de la edad media En el siglo XI comenzó en Europa occidental un gran resurgimiento intelectual, estimulado en parte por los intercambios culturales entre los estudiantes árabes y cristianos en Sicilia y España. Se crearon escuelas de traductores, y sus traducciones transmitieron las ideas filosóficas y científicas al resto de los estudiantes europeos (véase Escuela de traductores de Toledo). Así, el saber de la ciencia griega pasó por las lenguas intermedias siria y árabe, fue difundido en la lengua erudita, el latín, y posteriormente se expandió por Europa. Muchos de los manuscritos leídos con más anhelo estaban relacionados con la alquimia. Había dos tipos de manuscritos: unos eran puramente prácticos, y otros intentaban aplicar las teorías de la naturaleza de la materia a los problemas alquímicos. Entre los temas prácticos discutidos se encontraba la destilación. La fabricación de vidrio había mejorado considerablemente, sobre todo en Venecia, y fue posible construir aparatos de destilación mejores que los fabricados por los árabes para condensar los productos más volátiles de la destilación. Entre los productos más importantes obtenidos así se encontraban el alcohol y los ácidos minerales: ácido nítrico, agua regia (una mezcla de ácido nítrico y clorhídrico), ácido sulfúrico y ácido clorhídrico. Utilizando estos poderosos reactivos podían realizarse muchas reacciones nuevas. El descubrimiento por parte de los chinos de los nitratos y la pólvora llegó pronto a Occidente a través de los árabes. Al principio, los chinos utilizaban la pólvora para los fuegos artificiales, pero en Occidente se Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 15 convirtió rápidamente en un elemento importante de la guerra. A finales del siglo XIII ya existía en Europa una tecnología química bastante eficaz. El segundo tipo de manuscritos alquímicos transmitidos por los árabes concernía a la teoría. Muchos de esos escritos revelaban un carácter místico que contribuía poco al avance de la química, pero otros intentaban explicar la transmutación en términos físicos. Los árabes basaban sus teorías de la materia en las ideas aristotélicas, pero su pensamiento tendía a ser más específico, sobre todo en lo referente a la composición de los metales. Ellos creían que los metales consistían en azufre y mercurio, no propiamente estas sustancias que conocían muy bien, sino más bien el principio del mercurio, que confería la propiedad de fluidez a los metales, y el principio del azufre que convertía en combustibles a las sustancias y corroía a los metales. Las reacciones químicas se explicaban en términos de cambios en las cantidades de esos principios dentro de las sustancias materiales. El renacimiento Durante los siglos XIII y XIV, la influencia de Aristóteles sobre todas las ramas del pensamiento científico empezó a debilitarse. La observación del comportamiento de la materia arrojó dudas sobre las explicaciones relativamente simples que Aristóteles había proporcionado; estas dudas se expandieron con rapidez después de la invención (en torno al 1450) de la imprenta con tipos móviles. Después del 1500 aparecieron cada vez más trabajos académicos, así como trabajos dedicados a la tecnología. El resultado de este saber creciente se hizo más visible en el siglo XVI. El nacimiento de los métodos cuantitativos Entre los libros más influyentes que aparecieron en esa época había trabajos prácticos sobre minería y metalurgia. Esos tratados dedicaban mucho espacio a la extracción de los metales valiosos de las menas, trabajo que requería el uso de una balanza o una escala de laboratorio y el desarrollo de métodos cuantitativos (véase Análisis químico). Los especialistas de otras áreas, especialmente de medicina, empezaron a reconocer la necesidad de una mayor precisión. Los médicos, algunos de los cuales eran alquimistas, necesitaban saber el peso o volumen exacto de la dosis que administraban. Así, empezaron a utilizar métodos químicos para preparar medicinas. Esos métodos fueron promovidos enérgicamente por el excéntrico médico suizo Theophrastus von Hohenheim, conocido como Paracelso. Al crecer en una región minera, se había familiarizado con las propiedades de los metales y sus compuestos, que, según él, eran superiores a los remedios de hierbas utilizados por los médicos ortodoxos. Paracelso pasó la mayor parte de su vida disputando violentamente con los médicos de la época, y en el proceso fundó la ciencia de la iatroquímica (uso de medicinas químicas), precursora de la farmacología. Él y sus seguidores descubrieron muchos compuestos y reacciones químicas. Modificó la vieja teoría del mercurio-azufre sobre la composición de los metales, añadiendo un tercer componente, la sal, la parte terrestre de todas las sustancias. Declaró que cuando la madera arde “lo que se quema es azufre, lo que se evapora es mercurio y lo que se convierte en cenizas es sal”. Al igual que con la teoría del azufre-mercurio, se refería a los Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 16 principios, no a las sustancias materiales que responden a esos nombres. Su hincapié en el azufre combustible fue importante para el desarrollo posterior de la química. Los iatroquímicos que seguían a Paracelso modificaron parte de sus ideas más extravagantes y combinaron las fórmulas de él con las suyas propias para preparar remedios químicos. A finales del siglo XVI, Andreas Libavius publicó su Alchemia, que organizaba el saber de los iatroquímicos y que se considera a menudo como el primer libro de química. En la primera mitad del siglo XVII empezaron a estudiar experimentalmente las reacciones químicas, no porque fueran útiles en otras disciplinas, sino más bien por razones propias. Jan Baptista van Helmont, médico que dejó la práctica de la medicina para dedicarse al estudio de la química, utilizó la balanza en un experimento para demostrar que una cantidad definida de arena podía ser fundida con un exceso de álcali formando vidrio soluble, y cuando este producto era tratado con ácido, regeneraba la cantidad original de arena (sílice). Ésos fueron los fundamentos de la ley de conservación de la masa. Van Helmont demostró también que en ciertas reacciones se liberaba un fluido aéreo. A esta sustancia la llamó gas. Así se demostró que existía un nuevo tipo de sustancias con propiedades físicas particulares. Resurgimiento de la teoría atómica En el siglo XVI, los experimentos descubrieron cómo crear un vacío, algo que Aristóteles había declarado imposible. Esto atrajo la atención sobre la antigua teoría de Demócrito, que había supuesto que los átomos se movían en un vacío. El filósofo y matemático francés René Descartes y sus seguidores desarrollaron una visión mecánica de la materia en la que el tamaño, la forma y el movimiento de las partículas diminutas explicaban todos los fenómenos observados. La mayoría de los iatroquímicos y filósofos naturales de la época suponían que los gases no tenían propiedades químicas, de aquí que su atención se centrara en su comportamiento físico. Comenzó a desarrollarse una teoría cinético-molecular de los gases. En esta dirección fueron notables los experimentos del químico físico británico Robert Boyle, cuyos estudios sobre el ‘muelle de aire’ (elasticidad) condujeron a lo que se conoce como ley de Boyle, una generalización de la relación inversa entre la presión y el volumen de los gases. Flogisto: teoría y experimento Mientras muchos filósofos naturales especulaban sobre las leyes matemáticas, los primeros químicos intentaban utilizar en el laboratorio las teorías químicas para explicar las reacciones reales que observaban. Los iatroquímicos ponían especial atención en el azufre y en las teorías de Paracelso. En la segunda mitad del siglo XVII, el médico, economista y químico alemán Johann Joachim Becher construyó un sistema químico en torno a su principio. Becher anotó que cuando la materia orgánica ardía, parecía que un material volátil salía de la sustancia. Su discípulo Georg Ernst Stahl, hizo de éste el punto central de una teoría que sobrevivió en los círculos químicos durante casi un siglo. Stahl supuso que cuando algo ardía, su parte combustible era expulsada al aire. A esta parte la llamó flogisto, de la palabra griega flogistós, ‘inflamable’. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 17 La oxidación de los metales era análoga a la combustión y, por tanto, suponía pérdida de flogisto. Las plantas absorbían el flogisto del aire, por lo que eran ricas en él. Al calentar las escorias (u óxidos) de los metales con carbón de leña, se les restituía el flogisto. Así dedujo que la escoria era un elemento y el metal un compuesto. Esta teoría es casi exactamente la contraria al concepto moderno de oxidación-reducción, pero implica la transformación cíclica de una sustancia (aunque fuera en sentido inverso), y podía explicar algunos de los fenómenos observados. Sin embargo, recientes estudios de la literatura química de la época muestran que la explicación del flogisto no tuvo mucha influencia entre los químicos hasta que fue recuperada por el químico Antoine Laurent de Lavoisier, en el último cuarto del siglo XVIII. El siglo XVIII En esa época, otra observación hizo avanzar la comprensión de la química. Al estudiarse cada vez más productos químicos, los químicos observaron que ciertas sustancias combinaban más fácilmente o tenían más afinidad por un determinado producto químico que otras. Se prepararon tablas que mostraban las afinidades relativas al mezclar diferentes productos. El uso de estas tablas hizo posible predecir muchas reacciones químicas antes de experimentarlas en el laboratorio. Todos esos avances condujeron en el siglo XVIII al descubrimiento de nuevos metales y sus compuestos y reacciones. Comenzaron a desarrollarse métodos analíticos cualitativos y cuantitativos, dando origen a la química analítica. Sin embargo, mientras existiera la creencia de que los gases sólo desempeñaban un papel físico, no podía reconocerse todo el alcance de la química. El estudio químico de los gases, generalmente llamados ‘aires’, empezó a adquirir importancia después de que el fisiólogo británico Stephen Hales desarrollara la cubeta o cuba neumática para recoger y medir el volumen de los gases liberados en un sistema cerrado; los gases eran recogidos sobre el agua tras ser emitidos al calentar diversos sólidos. La cuba neumática se convirtió en un mecanismo valioso para recoger y estudiar gases no contaminados por el aire ordinario. El estudio de los gases avanzó rápidamente y se alcanzó un nuevo nivel de comprensión de los distintos gases. La interpretación inicial del papel de los gases en la química se produjo en Edimburgo (Escocia) en 1756, cuando Joseph Black publicó sus estudios sobre las reacciones de los carbonatos de magnesio y de calcio. Al calentarlos, estos compuestos desprendían un gas y dejaban un residuo de lo que Black llamaba magnesia calcinada o cal (los óxidos). Esta última reaccionaba con el ‘álcali’ (carbonato de sodio) regenerando las sales originales. Así, el gas dióxido de carbono, que Black denominaba aire fijo, tomaba parte en las reacciones químicas (estaba “fijo”, según sus palabras). La idea de que un gas no podía entrar en una reacción química fue desechada, y pronto empezaron a reconocerse nuevos gases como sustancias distintas. En la década siguiente, el físico británico Henry Cavendish aisló el ‘aire inflamable’ (hidrógeno). También introdujo el uso del mercurio en lugar del Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 18 agua como el líquido sobre el que se recogían los gases, posibilitando la recogida de los gases solubles en agua. Esta variante fue utilizada con frecuencia por el químico y teólogo británico Joseph Priestley, quien recogió y estudió casi una docena de gases nuevos. El descubrimiento más importante de Priestley fue el oxígeno; pronto se dio cuenta de que este gas era el componente del aire ordinario responsable de la combustión, y que hacía posible la respiración animal. Sin embargo, su razonamiento fue que las sustancias combustibles ardían enérgicamente y los metales formaban escorias con más facilidad en este gas porque el gas no contenía flogisto. Por tanto, el gas aceptaba el flogisto presente en el combustible o el metal más fácilmente que el aire ordinario que ya contenía parte de flogisto. A este nuevo gas lo llamó ‘aire deflogistizado’ y defendió su teoría hasta el final de sus días. Mientras tanto, la química había hecho grandes progresos en Francia, particularmente en el laboratorio de Lavoisier. A éste le preocupaba el hecho de que los metales ganaban peso al calentarlos en presencia de aire, cuando se suponía que estaban perdiendo flogisto. En 1774, Priestley visitó Francia y le comentó a Lavoisier su descubrimiento del aire deflogistizado. Lavoisier entendió rápidamente el significado de esta sustancia, y este hecho abrió el camino para la revolución química que estableció la química moderna. Lavoisier lo llamó ‘oxígeno’, que significa ‘generador de ácidos’. El nacimiento de la química moderna Lavoisier demostró con una serie de experimentos brillantes que el aire contiene un 20% de oxígeno y que la combustión es debida a la combinación de una sustancia combustible con oxígeno. Al quemar carbono se produce aire fijo (dióxido de carbono). Por tanto, el flogisto no existe. La teoría del flogisto fue sustituida rápidamente por la visión de que el oxígeno del aire combina con los elementos componentes de la sustancia combustible formando los óxidos de dichos elementos. Lavoisier utilizó la balanza de laboratorio para darle apoyo cuantitativo a su trabajo. Definió los elementos como sustancias que no pueden ser descompuestas por medios químicos, preparando el camino para la aceptación de la ley de conservación de la masa. Sustituyó el sistema antiguo de nombres químicos (basado en el uso alquímico) por la nomenclatura química racional utilizada hoy, y ayudó a fundar el primer periódico químico. Después de morir en la guillotina en 1794, sus colegas continuaron su trabajo estableciendo la química moderna. Un poco más tarde, el químico sueco Jöns Jakob, barón de Berzelius propuso representar los símbolos de los átomos de los elementos por la letra o par de letras iniciales de sus nombres. Los siglos XIX y XX A principios del siglo XIX, la precisión de la química analítica había mejorado tanto que los químicos podían demostrar que los compuestos simples con los que trabajaban contenían cantidades fijas e invariables de sus elementos constituyentes. Sin embargo, en ciertos casos, con los mismos elementos podía formarse más de un compuesto. Por esa época, el químico y físico francés Joseph Gay-Lussac demostró que los volúmenes de los gases Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 19 reaccionantes están siempre en la relación de números enteros sencillos, es decir, la ley de las proporciones múltiples (que implica la interacción de partículas discontinuas o átomos). Un paso importante en la explicación de estos hechos fue, en 1803, la teoría atómica química del científico inglés John Dalton. Dalton supuso que cuando se mezclaban dos elementos, el compuesto resultante contenía un átomo de cada uno. En su sistema, el agua podría tener una fórmula correspondiente a HO. Dalton asignó arbitrariamente al hidrógeno la masa atómica 1 y luego calculó la masa atómica relativa del oxígeno. Aplicando este principio a otros compuestos, calculó las masas atómicas de los elementos conocidos hasta entonces. Su teoría contenía muchos errores, pero la idea era correcta y se podía asignar un valor cuantitativo preciso a la masa de cada átomo. Teoría molecular La teoría de Dalton no explicaba por completo la ley de las proporciones múltiples y no distinguía entre átomos y moléculas. Así, no podía distinguir entre las posibles fórmulas del agua HO y H2O2, ni podía explicar por qué la densidad del vapor de agua, suponiendo que su fórmula fuera HO, era menor que la del oxígeno, suponiendo que su fórmula fuera O. El físico italiano Amedeo Avogadro encontró la solución a esos problemas en 1811. Sugirió que a una temperatura y presión dadas, el número de partículas en volúmenes iguales de gases era el mismo, e introdujo también la distinción entre átomos y moléculas. Cuando el oxígeno se combinaba con hidrógeno, un átomo doble de oxígeno (molécula en nuestros términos) se dividía, y luego cada átomo de oxígeno se combinaba con dos átomos de hidrógeno, dando la fórmula molecular de H2O para el agua y O2 y H2 para las moléculas de oxígeno e hidrógeno, respectivamente. Las ideas de Avogadro fueron ignoradas durante casi 50 años, tiempo en el que prevaleció una gran confusión en los cálculos de los químicos. En 1860 el químico italiano Stanislao Cannizzaro volvió a introducir la hipótesis de Avogadro. Por esta época, a los químicos les parecía más conveniente elegir la masa atómica del oxígeno, 16, como valor de referencia con el que relacionar las masas atómicas de los demás elementos, en lugar del valor 1 del hidrógeno, como había hecho Dalton. La masa molecular del oxígeno, 32, se usaba internacionalmente y se llamaba masa molecular del oxígeno expresada en gramos, o simplemente 1 mol de oxígeno. Los cálculos químicos se normalizaron y empezaron a escribirse fórmulas fijas. El antiguo problema de la naturaleza de la afinidad química permanecía sin resolver. Durante un tiempo pareció que la respuesta podría estar en el campo de la electroquímica, descubierto recientemente. El descubrimiento en 1800 de la pila voltaica, la primera pila eléctrica real, proporcionó a los químicos una nueva herramienta que llevó al descubrimiento de metales como el sodio y el potasio. Berzelius opinaba que las fuerzas electrostáticas positivas y negativas podían mantener unidos a los elementos, y al principio sus teorías fueron aceptadas. Cuando los químicos empezaron a preparar y estudiar nuevos compuestos y reacciones en las que las fuerzas eléctricas Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 20 parecían no estar implicadas (compuestos no polares), el problema de la afinidad fue postergado por un tiempo. Nuevos campos de la química En el siglo XIX, los avances más sorprendentes de la química se produjeron en el área de la química orgánica. La teoría estructural, que proporcionaba una imagen de cómo se mantenían los átomos juntos, no era matemática, sino que empleaba su propia lógica. Ella hizo posible la predicción y preparación de muchos compuestos nuevos, incluyendo una gran cantidad de tintes, medicinas y explosivos importantes, que dieron origen a grandes industrias químicas, especialmente en Alemania. Al mismo tiempo, aparecieron otras ramas de la química. Estimulados por los avances logrados en física, algunos químicos pensaron en aplicar métodos matemáticos a su ciencia. Los estudios de la velocidad de las reacciones culminaron en el desarrollo de las teorías cinéticas, que tenían valor tanto para la industria como para la ciencia pura. El reconocimiento de que el calor era debido al movimiento a escala atómica (un fenómeno cinético), hizo abandonar la idea de que el calor era una sustancia específica (denominada calórica) e inició el estudio de la termodinámica química. La extensión de los estudios electroquímicos llevó al químico sueco Svante August Arrhenius a postular la disociación de las sales en disolución para formar iones portadores de cargas eléctricas. Los estudios de los espectros de emisión y absorción de los elementos y compuestos empezaron a adquirir importancia tanto para los químicos como para los físicos, culminando en el desarrollo del campo de la espectroscopia. Además, comenzó una investigación fundamental sobre los coloides y la fotoquímica. A finales del siglo XIX, todos los estudios de este tipo fueron englobados en un campo conocido como química física. La química inorgánica también necesitaba organizarse. Seguían descubriéndose nuevos elementos, pero no se había descubierto ningún método de clasificación que pudiera poner orden en sus reacciones. El sistema periódico, formulado a raíz de que el químico ruso Dmitri Ivánovich Mendeléiev en 1869 y el químico alemán Julius Lothar Meyer en 1870 elaboraran independientemente la ley periódica, eliminó esta confusión e indicó dónde se encontrarían los nuevos elementos y qué propiedades tendrían. A finales del siglo XIX, la química, al igual que la física, parecía haber alcanzado un punto en el que no quedaba ningún campo sorprendente por desarrollar. Esta visión cambió completamente con el descubrimiento de la radiactividad. Los métodos químicos fueron utilizados para aislar nuevos elementos, como el radio, para separar nuevos tipos de sustancias conocidas como isótopos, y para sintetizar y aislar los nuevos elementos transuránicos. Los físicos consiguieron dibujar la estructura real de los átomos, que resolvía el antiguo problema de la afinidad química y explicaba la relación entre los compuestos polares y no polares. Véase Física nuclear. Otro avance importante de la química en el siglo XX fue la fundación de la bioquímica; empezó simplemente con el análisis de los fluidos corporales, pero pronto se desarrollaron métodos para determinar la naturaleza y función Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 21 de los componentes celulares más complejos. Hacia la mitad del siglo, los bioquímicos habían aclarado el código genético y explicado la función de los genes, base de toda la vida. El campo había crecido tanto que su estudio culminó en una nueva ciencia, la biología molecular. Investigaciones recientes en química Los recientes avances en biotecnología y ciencia de los materiales están ayudando a definir las fronteras de la investigación química. En biotecnología se ha podido iniciar un esfuerzo internacional para ordenar en serie el genoma humano gracias a instrumentos analíticos sofisticados. Probablemente, el éxito de este proyecto cambiará la naturaleza de campos como la biología molecular y la medicina. La ciencia de los materiales, una combinación interdisciplinaria de física, química e ingeniería, dirige el diseño de los materiales y mecanismos avanzados. Ejemplos recientes son el descubrimiento de ciertos compuestos cerámicos que mantienen su superconductividad a temperaturas por debajo de -196 ºC, el desarrollo de polímeros emisores de luz y la enorme diversidad de compuestos que surgieron de la investigación sobre el buckminsterfullereno. Incluso en los campos convencionales de la investigación química, las nuevas herramientas analíticas están suministrando detalles sin precedentes sobre los productos químicos y sus reacciones. Por ejemplo, las técnicas de láser proporcionan información instantánea de reacciones químicas en fase gaseosa a una escala de femtosegundos (una milésima de una billonésima de segundo). La industria química El crecimiento de las industrias químicas y la formación de químicos profesionales ha tenido una correlación interesante. Hasta hace unos 150 años, los químicos no recibían formación profesional. La química avanzaba gracias al trabajo de los que se interesaban en el tema, pero éstos no hacían ningún esfuerzo sistemático por formar a nuevos trabajadores en ese campo. Los médicos y los aficionados con recursos contrataban a veces ayudantes, de los cuales sólo unos pocos continuaban la labor de su maestro. Sin embargo, a principios del siglo XIX se modificó este sistema casual de educación química. En Alemania, país con una larga tradición de investigación, se empezaron a crear universidades provinciales. En Giessen, el químico alemán Justus Liebig fundó un centro de investigación química. Este primer laboratorio de enseñanza tuvo tanto éxito que atrajo a estudiantes de todo el mundo. Poco después le siguieron otras universidades alemanas. Así, se empezó a formar a un gran grupo de químicos jóvenes en la época en que las industrias químicas comenzaban a explotar los nuevos descubrimientos. Esta explotación comenzó durante la Revolución Industrial; por ejemplo, el método Leblanc para la producción de sosa —uno de los primeros procesos de producción a gran escala— fue desarrollado en Francia en 1791 y comercializado en Gran Bretaña a principios de 1823. Los laboratorios de esas industrias en franco desarrollo podían emplear a los estudiantes de química recién formados y también podían contar con los Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 22 profesores de la universidad como asesores. Esta interacción entre las universidades y la industria química benefició a ambas, y el rápido crecimiento de la industria de la química orgánica hacia finales del siglo XIX dio origen a los grandes consorcios tintoreros y farmacéuticos que otorgaron a Alemania el predominio científico en ese campo hasta la I Guerra Mundial. Después de la guerra, el sistema alemán fue introducido en todas las naciones industriales del mundo, y la química y las industrias químicas progresaron aún más rápidamente. Entre otros desarrollos industriales recientes se encuentra el incremento del uso de los procesos de reacción que utilizan enzimas, debido principalmente a los bajos costos y altos beneficios que pueden conseguirse. En la actualidad las industrias están estudiando métodos que utilizan la ingeniería genética para producir microorganismos con propósitos industriales. La química y la sociedad La química ha tenido una influencia enorme sobre la vida humana. En otras épocas las técnicas químicas se utilizaban para aislar productos naturales y para encontrar nuevas formas de utilizarlos. En el siglo XIX se desarrollaron técnicas para sintetizar sustancias nuevas que eran mejores que las naturales, o que podían reemplazarlas por completo con gran ahorro. Al aumentar la complejidad de los compuestos sintetizados, empezaron a aparecer materiales totalmente nuevos para usos modernos. Se crearon nuevos plásticos y tejidos, y también fármacos que acababan con todo tipo de enfermedades. Al mismo tiempo empezaron a unirse ciencias que antes estaban totalmente separadas. Los físicos, biólogos y geólogos habían desarrollado sus propias técnicas y su forma de ver el mundo, pero en un momento dado se hizo evidente que cada ciencia, a su modo, era el estudio de la materia y sus cambios. La química era la base de todas ellas. La creación de disciplinas intercientíficas como la geoquímica o la bioquímica ha estimulado a todas las ciencias originales. El progreso de la ciencia en los últimos años ha sido espectacular, aunque los beneficios de este progreso han acarreado los riesgos correspondientes. Los peligros más evidentes proceden de los materiales radiactivos, por su potencial para producir cáncer en los individuos expuestos y mutaciones en sus hijos. También se ha hecho evidente que la acumulación, en las plantas o células animales, de pesticidas (que antes se consideraban inocuos), o de productos secundarios de los procesos de fabricación, suele tener efectos nocivos. Este descubrimiento, lentamente reconocido al principio, ha llevado a establecer nuevos campos de estudio relacionados con el medio ambiente y con la ecología en general. Metales, grupo de elementos químicos que presentan todas o gran parte de las siguientes propiedades físicas: estado sólido a temperatura normal, excepto el mercurio que es líquido; opacidad, excepto en capas muy finas; buenos conductores eléctricos y térmicos; brillantes, una vez pulidos, y estructura cristalina en estado sólido. Metales y no metales se encuentran separados en el sistema periódico por una línea diagonal de elementos. Los elementos a la izquierda de esta diagonal son los metales, y los elementos a Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 23 la derecha son los no metales. Los elementos que integran esta diagonal — boro, silicio, germanio, arsénico, antimonio, teluro, polonio y astato— tienen propiedades tanto metálicas como no metálicas. Los elementos metálicos más comunes son los siguientes: aluminio, bario, berilio, bismuto, cadmio, calcio, cerio, cromo, cobalto, cobre, oro, iridio, hierro, plomo, litio, magnesio, manganeso, mercurio, molibdeno, níquel, osmio, paladio, platino, potasio, radio, rodio, plata, sodio, tantalio, talio, torio, estaño, titanio, volframio, uranio, vanadio y cinc. Los elementos metálicos se pueden combinar unos con otros y también con otros elementos formando compuestos, disoluciones y mezclas. Una mezcla de dos o más metales o de un metal y ciertos no metales como el carbono se denomina aleación. Las aleaciones de mercurio con otros elementos metálicos son conocidas como amalgamas. Los metales muestran un amplio margen en sus propiedades físicas. La mayoría de ellos son de color grisáceo, pero algunos presentan colores distintos; el bismuto es rosáceo, el cobre rojizo y el oro amarillo. En otros metales aparece más de un color, y este fenómeno se denomina pleocroismo. El punto de fusión de los metales varía entre los -39 °C del mercurio, a los 3.410 °C del tungsteno. El iridio, con una densidad relativa de 22,4, es el más denso de los metales. Por el contrario, el litio es el menos denso, con una densidad relativa de 0,53. La mayoría de los metales cristalizan en el sistema cúbico, aunque algunos lo hacen en el hexagonal y en el tetragonal (véase Cristal). La más baja conductividad eléctrica la tiene el bismuto, y la más alta a temperatura ordinaria la plata. (Para conductividad a baja temperatura véase Criogenia; Superconductividad). La conductividad en los metales puede reducirse mediante aleaciones. Todos los metales se expanden con el calor y se contraen al enfriarse. Ciertas aleaciones, como las de platino e iridio, tienen un coeficiente de dilatación extremadamente bajo. Propiedades físicas Los metales suelen ser duros y resistentes. Aunque existen ciertas variaciones de uno a otro, en general los metales tienen las siguientes propiedades: dureza o resistencia a ser rayados; resistencia longitudinal o resistencia a la rotura; elasticidad o capacidad de volver a su forma original después de sufrir deformación; maleabilidad o posibilidad de cambiar de forma por la acción del martillo; resistencia a la fatiga o capacidad de soportar una fuerza o presión continuadas y ductilidad o posibilidad de deformarse sin sufrir roturas. (Véase Ciencia y tecnología de los materiales). Propiedades químicas Es característico de los metales tener valencias positivas en la mayoría de sus compuestos. Esto significa que tienden a ceder electrones a los átomos con los que se enlazan. También tienden a formar óxidos básicos. Por el contrario, elementos no metálicos como el nitrógeno, azufre y cloro tienen valencias negativas en la mayoría de sus compuestos, y tienden a adquirir electrones y a formar óxidos ácidos (véase Ácidos y bases; Reacción química). Los metales tienen energía de ionización baja: reaccionan con facilidad perdiendo electrones para formar iones positivos o cationes. De este modo, Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 24 los metales forman sales como cloruros, sulfuros y carbonatos, actuando como agentes reductores (donantes de electrones). Estructura electrónica En sus primeros esfuerzos para explicar la estructura electrónica de los metales, los científicos esgrimieron las propiedades de su buena conductividad térmica y eléctrica para apoyar la teoría de que los metales se componen de átomos ionizados, cuyos electrones libres forman un 'mar' homogéneo de carga negativa. La atracción electrostática entre los iones positivos del metal y los electrones libres, se consideró la responsable del enlace entre los átomos del metal. Así, se pensaba que el libre movimiento de los electrones era la causa de su alta conductividad eléctrica y térmica. La principal objeción a esta teoría es que en tal caso los metales debían tener un calor específico superior al que realmente tienen. En 1928, el físico alemán Arnold Sommerfeld sugirió que los electrones en los metales se encuentran en una disposición cuántica en la que los niveles de baja energía disponibles para los electrones se hallan casi completamente ocupados (véase Átomo; Teoría cuántica). En el mismo año, el físico suizo estadounidense Felix Bloch, y más tarde el físico francés Louis Brillouin, aplicaron esta idea en la hoy aceptada 'teoría de la banda' para los enlaces en los sólidos metálicos. De acuerdo con dicha teoría, todo átomo de metal tiene únicamente un número limitado de electrones de valencia con los que unirse a los átomos vecinos. Por ello se requiere un amplio reparto de electrones entre los átomos individuales. El reparto de electrones se consigue por la superposición de orbitales atómicos de energía equivalente con los átomos adyacentes. Esta superposición va recorriendo toda la muestra del metal, formando amplios orbitales que se extienden por todo el sólido, en vez de pertenecer a átomos concretos. Cada uno de estos orbitales tiene un nivel de energía distinto debido a que los orbitales atómicos de los que proceden, tenían a su vez diferentes niveles de energía. Los orbitales, cuyo número es el mismo que el de los orbitales atómicos, tienen dos electrones cada uno y se van llenando en orden de menor a mayor energía hasta agotar el número de electrones disponibles. En esta teoría se dice que los grupos de electrones residen en bandas, que constituyen conjuntos de orbitales. Cada banda tiene un margen de valores de energía, valores que deberían poseer los electrones para poder ser parte de esa banda. En algunos metales se dan interrupciones de energía entre las bandas, pues los electrones no poseen ciertas energías. La banda con mayor energía en un metal no está llena de electrones, dado que una característica de los metales es que no poseen suficientes electrones para llenarla. La elevada conductividad eléctrica y térmica de los metales se explica así por el paso de electrones a estas bandas con defecto de electrones, provocado por la absorción de energía térmica. Electroquímica, parte de la química que trata de la relación entre las corrientes eléctricas y las reacciones químicas, y de la conversión de la energía química en eléctrica y viceversa. En un sentido más amplio, la electroquímica es el estudio de las reacciones químicas que producen efectos Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 25 eléctricos y de los fenómenos químicos causados por la acción de las corrientes o voltajes. Corriente eléctrica y movimiento de iones La mayoría de los compuestos inorgánicos y algunos de los orgánicos se ionizan al fundirse o cuando se disuelven en agua u otros líquidos; es decir, sus moléculas se disocian en componentes cargados positiva y negativamente que tienen la propiedad de conducir la corriente eléctrica (véase Ion; Ionización). Si se coloca un par de electrodos en una disolución de un electrólito (o compuesto ionizable) y se conecta una fuente de corriente continua entre ellos, los iones positivos de la disolución se mueven hacia el electrodo negativo y los iones negativos hacia el positivo. Al llegar a los electrodos, los iones pueden ganar o perder electrones y transformarse en átomos neutros o moléculas; la naturaleza de las reacciones del electrodo depende de la diferencia de potencial o voltaje aplicado. La acción de una corriente sobre un electrólito puede entenderse con un ejemplo sencillo. Si el sulfato de cobre se disuelve en agua, se disocia en iones cobre positivos e iones sulfato negativos. Al aplicar una diferencia de potencial a los electrodos, los iones cobre se mueven hacia el electrodo negativo, se descargan, y se depositan en el electrodo como elemento cobre. Los iones sulfato, al descargarse en el electrodo positivo, son inestables y combinan con el agua de la disolución formando ácido sulfúrico y oxígeno. Esta descomposición producida por una corriente eléctrica se llama electrólisis. En todos los casos, la cantidad de material que se deposita en cada electrodo al pasar la corriente por un electrólito sigue la ley descubierta por el químico físico británico Michael Faraday. Esta ley afirma que la cantidad de material depositada en cada electrodo es proporcional a la intensidad de la corriente que atraviesa el electrólito, y que la masa de los elementos transformados es proporcional a las masas equivalentes de los elementos, es decir, a sus masas atómicas divididas por sus valencias. Todos los cambios químicos implican una reagrupación o reajuste de los electrones en las sustancias que reaccionan; por eso puede decirse que dichos cambios son de carácter eléctrico. Para producir una corriente eléctrica a partir de una reacción química, es necesario tener un oxidante, es decir, una sustancia que gane electrones fácilmente, y un reductor, es decir, una sustancia que pierda electrones fácilmente. Las reacciones de este tipo pueden entenderse con un ejemplo, el funcionamiento de un tipo sencillo de pila (batería) electroquímica. Al colocar una varilla de cinc en una disolución diluida de ácido sulfúrico, el cinc, que es un reductor, se oxida fácilmente, pierde electrones y los iones cinc positivos se liberan en la disolución, mientras que los electrones libres se quedan en la varilla de cinc. Si se conecta la varilla por medio de un conductor a un electrodo de metal inerte colocado en la disolución de ácido sulfúrico, los electrones que están en este circuito fluirán hacia la disolución, donde serán atrapados por los iones hidrógeno positivos del ácido diluido. La combinación de iones y electrones produce gas hidrógeno, que aparece como burbujas en la superficie del Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 26 electrodo. La reacción de la varilla de cinc y el ácido sulfúrico produce así una corriente en el circuito externo. Una pila electroquímica de este tipo se conoce como pila primaria o pila voltaica. En la batería de acumuladores, o acumulador (conocida comúnmente como pila secundaria), se proporciona energía eléctrica desde una fuente exterior, que se almacena en forma de energía química. La reacción química de una pila secundaria es reversible, es decir, se produce en un sentido cuando se carga la pila, y en sentido opuesto cuando se descarga. Por ello, una pila secundaria puede descargarse una y otra vez. Aplicaciones industriales La descomposición electrolítica es la base de un gran número de procesos de extracción y fabricación muy importantes en la industria moderna. La sosa cáustica (un producto químico importante para la fabricación de papel, rayón y película fotográfica) se produce por la electrólisis de una disolución de sal común en agua (véase Álcalis). La reacción produce cloro y sodio. El sodio reacciona a su vez con el agua de la pila electrolítica produciendo sosa cáustica. El cloro obtenido se utiliza en la fabricación de pasta de madera y papel. Una aplicación industrial importante de la electrólisis es el horno eléctrico, que se utiliza para fabricar aluminio, magnesio y sodio. En este horno, se calienta una carga de sales metálicas hasta que se funde y se ioniza. A continuación, se deposita el metal electrolíticamente. Los métodos electrolíticos se utilizan también para refinar el plomo, el estaño, el cobre, el oro y la plata. La ventaja de extraer o refinar metales por procesos electrolíticos es que el metal depositado es de gran pureza. La galvanotecnia, otra aplicación industrial electrolítica, se usa para depositar películas de metales preciosos en metales base. También se utiliza para depositar metales y aleaciones en piezas metálicas que precisen un recubrimiento resistente y duradero. La electroquímica ha avanzado recientemente desarrollando nuevas técnicas para colocar capas de material sobre los electrodos, aumentando así su eficacia y resistencia. Tras el descubrimiento de ciertos polímeros que conducen la electricidad, es posible fabricar electrodos de polímeros. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 27 Batería, aparato que transforma la energía química en eléctrica, y consiste en dos o más pilas eléctricas conectadas en serie o en paralelo en mixto. Se han desarrollado diversos tipos de nuevas baterías para vehículos eléctricos. Se trata de versiones mejoradas de las baterías convencionales, pero aún tienen numerosos inconvenientes como su corta duración, alto costo, gran volumen o problemas medioambientales. Las baterías destinadas a vehículos eléctricos incorporan sulfuro de litio-hierro, cinc-cloro, hidruro de níquel y sulfuro de sodio. Las compañías suministradoras de electricidad están desarrollando este tipo de baterías para utilizarlas como “niveladores de carga”, a fin de compensar las fluctuaciones esporádicas del sistema. Estas baterías ocupan poco espacio y apenas tienen efectos dañinos para el medioambiente. Aluminio, de símbolo Al, es el elemento metálico más abundante en la corteza terrestre. Su número atómico es 13 y se encuentra en el grupo 13 de la tabla periódica. El químico danés Hans Christian Oersted aisló el aluminio por primera vez en 1825, por medio de un proceso químico que utilizaba una amalgama de potasio y cloruro de aluminio. Entre 1827 y 1845, el químico alemán Friedrich Wöhler mejoró el proceso de Oersted utilizando potasio metálico y cloruro de aluminio. Wöhler fue el primero en medir la densidad del aluminio y demostrar su ligereza. En 1854, Henri Sainte-Claire Deville obtuvo el metal en Francia Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 28 reduciendo cloruro de aluminio con sodio. Con el apoyo financiero de Napoleón III, Deville estableció una planta experimental a gran escala, y en la exposición de París de 1855 exhibió el aluminio puro. Propiedades El aluminio es un metal plateado muy ligero. Su masa atómica es 26,9815; tiene un punto de fusión de 660 ºC, un punto de ebullición de 2.467 ºC y una densidad relativa de 2,7. Es un metal muy electropositivo y muy reactivo. Al contacto con el aire se cubre rápidamente con una capa dura y transparente de óxido de aluminio que resiste la posterior acción corrosiva. Por esta razón, los materiales hechos de aluminio no se oxidan. El metal reduce muchos compuestos metálicos a sus metales básicos. Por ejemplo, al calentar termita (una mezcla de óxido de hierro y aluminio en polvo), el aluminio extrae rápidamente el oxígeno del óxido; el calor de la reacción es suficiente para fundir el hierro. Este fenómeno se usa en el proceso Goldschmidt o Termita para soldar hierro (véase Soldadura). Entre los compuestos más importantes del aluminio están el óxido, el hidróxido, el sulfato y el sulfato mixto. El óxido de aluminio es anfótero, es decir, presenta a la vez propiedades ácidas y básicas. El cloruro de aluminio anhidro es importante en la industria petrolífera. Muchas gemas (el rubí y el zafiro, por ejemplo) consisten principalmente en óxido de aluminio cristalino. Estado natural El aluminio es el elemento metálico más abundante en la corteza terrestre; sólo los no metales oxígeno y silicio son más abundantes. Se encuentra normalmente en forma de silicato de aluminio puro o mezclado con otros metales como sodio, potasio, hierro, calcio y magnesio, pero nunca como metal libre. Los silicatos no son menas útiles, porque es extremamente difícil, y por tanto muy caro, extraer el aluminio de ellas. La bauxita, un óxido de aluminio hidratado impuro, es la fuente comercial de aluminio y de sus compuestos. En 1886, Charles Martin Hall en Estados Unidos y Paul L. T. Héroult en Francia descubrieron por separado y casi simultáneamente que el óxido de aluminio o alúmina se disuelve en criolita fundida (Na3AlF6), pudiendo ser descompuesta electrolíticamente para obtener el metal fundido en bruto. El proceso Hall-Héroult sigue siendo el método principal para la producción comercial de aluminio, aunque se están estudiando nuevos métodos. La pureza del producto se ha incrementado hasta un 99,5% de aluminio puro en un lingote comercialmente puro; más tarde puede ser refinado hasta un 99,99 por ciento. Aplicaciones Un volumen dado de aluminio pesa menos que 1/3 del mismo volumen de acero. Los únicos metales más ligeros son el litio, el berilio y el magnesio. Debido a su elevada proporción resistencia-peso es muy útil para construir aviones, vagones ferroviarios y automóviles, y para otras aplicaciones en las que es importante la movilidad y la conservación de energía. Por su elevada conductividad térmica, el aluminio se emplea en utensilios de cocina y en pistones de motores de combustión interna. Solamente presenta un 63% de Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 29 la conductividad eléctrica del cobre para alambres de un tamaño dado, pero pesa menos de la mitad. Un alambre de aluminio de conductividad comparable a un alambre de cobre es más grueso, pero sigue siendo más ligero que el de cobre. El peso tiene mucha importancia en la transmisión de electricidad de alto voltaje a larga distancia, y actualmente se usan conductores de aluminio para transmitir electricidad a 700.000 voltios o más. El metal es cada vez más importante en arquitectura, tanto con propósitos estructurales como ornamentales. Las tablas, las contraventanas y las láminas de aluminio constituyen excelentes aislantes. Se utiliza también en reactores nucleares a baja temperatura porque absorbe relativamente pocos neutrones. Con el frío, el aluminio se hace más resistente, por lo que se usa a temperaturas criogénicas. El papel de aluminio de 0,018 cm de espesor, actualmente muy utilizado en usos domésticos, protege los alimentos y otros productos perecederos. Debido a su poco peso, a que se moldea fácilmente y a su compatibilidad con comidas y bebidas, el aluminio se usa mucho en contenedores, envoltorios flexibles, y botellas y latas de fácil apertura. El reciclado de dichos recipientes es una medida de conservación de la energía cada vez más importante. La resistencia a la corrosión al agua del mar del aluminio también lo hace útil para fabricar cascos de barco y otros mecanismos acuáticos. Se puede preparar una amplia gama de aleaciones recubridoras y aleaciones forjadas que proporcionen al metal más fuerza y resistencia a la corrosión o a las temperaturas elevadas. Algunas de las nuevas aleaciones pueden utilizarse como planchas de blindaje para tanques y otros vehículos militares. Producción La producción mundial de aluminio ha experimentado un rápido crecimiento, aunque se estabilizó a partir de 1980. En 1900 esta producción era de 7.300 toneladas, en 1938 de 598.000 toneladas y en 1994 la producción de aluminio primario fue de unos 19 millones de toneladas. Los principales países productores son Estados Unidos, Rusia, Canadá, China y Australia. Cobre, de símbolo Cu, es uno de los metales de mayor uso, de apariencia metálica y color pardo rojizo. El cobre es uno de los elementos de transición de la tabla periódica, y su número atómico es 29. Ya era conocido en épocas prehistóricas, y las primeras herramientas y enseres fabricados probablemente fueran de cobre. Se han encontrado objetos de este metal en las ruinas de muchas civilizaciones antiguas, como en Egipto, Asia Menor, China, sureste de Europa, Chipre (de donde proviene la palabra cobre), Creta y América del Sur. El cobre puede encontrarse en estado puro. Aplicaciones y propiedades Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 30 Su punto de fusión es de 1.083 °C, mientras que su punto de ebullición es de unos 2.567 °C, y tiene una densidad de 8,9 g/cm3. Su masa atómica es 63,546. El cobre tiene una gran variedad de aplicaciones a causa de sus ventajosas propiedades, como son su elevada conductividad del calor y electricidad, la resistencia a la corrosión, así como su maleabilidad y ductilidad, además de su belleza. Debido a su extraordinaria conductividad, sólo superada por la plata, el uso más extendido del cobre se da en la industria eléctrica. Su ductilidad permite transformarlo en cables de cualquier diámetro, a partir de 0,025 mm. La resistencia a la tracción del alambre de cobre estirado es de unos 4.200 kg/cm2. Puede usarse tanto en cables y líneas de alta tensión exteriores como en el cableado eléctrico en interiores, cables de lámparas y maquinaria eléctrica en general: generadores, motores, reguladores, equipos de señalización, aparatos electromagnéticos y sistemas de comunicaciones. A lo largo de la historia, el cobre se ha utilizado para acuñar monedas y confeccionar útiles de cocina, tinajas y objetos ornamentales. En un tiempo era frecuente reforzar con cobre la quilla de los barcos de madera para proteger el casco ante posibles colisiones. El cobre se puede galvanizar fácilmente como tal o como base para otros metales. Con este fin se emplean grandes cantidades en la producción de electrotipos (reproducción de caracteres de impresión). La metalurgia del cobre varía según la composición de la mena. El cobre en bruto se tritura, se lava y se prepara en barras. Los óxidos y carbonatos se reducen con carbono. Las menas más importantes, las formadas por sulfuros, no contienen más de un 12% de cobre, llegando en ocasiones tan sólo al 1%, y han de triturarse y concentrarse por flotación. Los concentrados se funden en un horno de reverbero que produce cobre metálico en bruto con una pureza aproximada del 98%. Este cobre en bruto se purifica por electrólisis, obteniéndose barras con una pureza que supera el 99,9 por ciento. El cobre puro es blando, pero puede endurecerse posteriormente. Las aleaciones de cobre, mucho más duras que el metal puro, presentan una mayor resistencia y por ello no pueden utilizarse en aplicaciones eléctricas. No obstante, su resistencia a la corrosión es casi tan buena como la del cobre puro y son de fácil manejo. Las dos aleaciones más importantes son el latón, una aleación con cinc, y el bronce, una aleación con estaño. A menudo, tanto el cinc como el estaño se funden en una misma aleación, haciendo difícil una diferenciación precisa entre el latón y el bronce. Ambos se emplean en grandes cantidades. También se usa el cobre en aleaciones con oro, plata y níquel, y es un componente importante en aleaciones como el monel, el bronce de cañón y la plata alemana o alpaca. El cobre forma dos series de compuestos químicos: de cobre (I), en la que el cobre tiene una valencia de 1, y de cobre (II), en la que su valencia es 2. Los compuestos de cobre (I) apenas tienen importancia en la industria y se convierten fácilmente en compuestos de cobre (II) al oxidarse por la simple exposición al aire. Los compuestos de cobre (II) son estables. Algunas disoluciones de cobre tienen la propiedad de disolver la celulosa, por lo que Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 31 se usan grandes cantidades de cobre en la fabricación de rayón. También se emplea el cobre en muchos pigmentos, en insecticidas como el verde de Schweinfurt, o en fungicidas como la mezcla de Burdeos, aunque para estos fines está siendo sustituido ampliamente por productos orgánicos sintéticos. Estado natural El cobre ocupa el lugar 25 en abundancia entre los elementos de la corteza terrestre. Frecuentemente se encuentra agregado con otros metales como el oro, plata, bismuto y plomo, apareciendo en pequeñas partículas en rocas, aunque se han hallado masas compactas de hasta 420 toneladas. El cobre se encuentra por todo el mundo en la lava basáltica, localizándose el mayor depósito conocido en la cordillera de los Andes en Chile, bajo la forma de pórfido. Este país posee aproximadamente el 25% de las reservas mundiales conocidas de cobre y a comienzos de 1980 se convirtió en el primer país productor de este metal. Los principales yacimientos se localizan en Chuquicamata, Andina, El Salvador y El Teniente. Las principales fuentes del cobre son la calcopirita y la bornita, sulfuros mixtos de hierro y cobre. Otras menas importantes son los sulfuros de cobre calcosina y covellina; la primera se encuentra en Chile, México, Estados Unidos y la antigua URSS, y la segunda, en Estados Unidos. La enargita, un sulfoarseniato de cobre, se encuentra en la antigua Yugoslavia, Suráfrica y América del Norte; la azurita, un carbonato básico de cobre, en Francia y Australia, y la malaquita, otro carbonato básico de cobre, en los montes Urales, Namibia y Estados Unidos. La tetraedrita, un sulfoantimoniuro de cobre y de otros metales, y la crisocolla, un silicato de cobre, se hallan ampliamente distribuidos en la naturaleza; la cuprita, un óxido, en España, Chile, Perú y Cuba, y la atacamita, un cloruro básico, cuyo nombre proviene de la región andina de Atacama, en el norte de Chile y Perú. Siderurgia, tecnología relacionada con la producción del hierro y sus aleaciones, en especial las que contienen un pequeño porcentaje de carbono, que constituyen los diferentes tipos de acero. A veces, las diferencias entre las distintas clases de hierro y acero resultan confusas por la nomenclatura empleada. En general, el acero es una aleación de hierro y carbono a la que suelen añadirse otros elementos. Algunas aleaciones denominadas ‘hierros’ contienen más carbono que algunos aceros comerciales. El hierro de crisol abierto y el hierro forjado contienen un porcentaje de carbono de sólo unas centésimas. Los distintos tipos de acero contienen entre el 0,04 y el 2,25% de carbono. El hierro colado, el hierro colado maleable y el arrabio contienen entre un 2 y un 4% de carbono. Hay una forma especial de hierro maleable que no contiene casi carbono alguno. Para fabricar aleaciones de hierro y acero se emplea un tipo especial de aleaciones de hierro denominadas ferroaleaciones, que contienen entre un 20 y un 80% del elemento de aleación, que puede ser manganeso, silicio o cromo. Historia Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 32 No se conoce con exactitud la fecha en que se descubrió la técnica de fundir mineral de hierro para producir un metal susceptible de ser utilizado. Los primeros utensilios de hierro descubiertos por los arqueólogos en Egipto datan del año 3000 a.C., y se sabe que antes de esa época se empleaban adornos de hierro. Los griegos ya conocían hacia el 1000 a.C. la técnica, de cierta complejidad, para endurecer armas de hierro mediante tratamiento térmico. Las aleaciones producidas por los primeros artesanos del hierro (y, de hecho, todas las aleaciones de hierro fabricadas hasta el siglo XIV d.C.) se clasificarían en la actualidad como hierro forjado. Para producir esas aleaciones se calentaba una masa de mineral de hierro y carbón vegetal en un horno o forja con tiro forzado. Ese tratamiento reducía el mineral a una masa esponjosa de hierro metálico llena de una escoria formada por impurezas metálicas y cenizas de carbón vegetal. Esta esponja de hierro se retiraba mientras permanecía incandescente y se golpeaba con pesados martillos para expulsar la escoria y soldar y consolidar el hierro. El hierro producido en esas condiciones solía contener un 3% de partículas de escoria y un 0,1% de otras impurezas. En ocasiones esta técnica de fabricación producía accidentalmente auténtico acero en lugar de hierro forjado. Los artesanos del hierro aprendieron a fabricar acero calentando hierro forjado y carbón vegetal en recipientes de arcilla durante varios días, con lo que el hierro absorbía suficiente carbono para convertirse en acero auténtico. Después del siglo XIV se aumentó el tamaño de los hornos utilizados para la fundición y se incrementó el tiro para forzar el paso de los gases de combustión por la carga o mezcla de materias primas. En estos hornos de mayor tamaño el mineral de hierro de la parte superior del horno se reducía a hierro metálico y a continuación absorbía más carbono como resultado de los gases que lo atravesaban. El producto de estos hornos era el llamado arrabio, una aleación que funde a una temperatura menor que el acero o el hierro forjado. El arrabio se refinaba después para fabricar acero. La producción moderna de acero emplea altos hornos que son modelos perfeccionados de los usados antiguamente. El proceso de refinado del arrabio mediante chorros de aire se debe al inventor británico Henry Bessemer, que en 1855 desarrolló el horno o convertidor que lleva su nombre. Desde la década de 1960 funcionan varios minihornos que emplean electricidad para producir acero a partir de material de chatarra. Sin embargo, las grandes instalaciones de altos hornos continúan siendo esenciales para producir acero a partir de mineral de hierro. Producción de arrabio Los materiales básicos empleados para fabricar arrabio son mineral de hierro, coque y caliza. El coque se quema como combustible para calentar el horno, y al arder libera monóxido de carbono, que se combina con los óxidos de hierro del mineral y los reduce a hierro metálico. La ecuación de la reacción química fundamental de un alto horno es Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 33 Fe2O3 + 3 CO ± 3 CO2 + 2 Fe La caliza de la carga del horno se emplea como fuente adicional de monóxido de carbono y como sustancia fundente. Este material se combina con la sílice presente en el mineral (que no se funde a las temperaturas del horno) para formar silicato de calcio, de menor punto de fusión. Sin la caliza se formaría silicato de hierro, con lo que se perdería hierro metálico. El silicato de calcio y otras impurezas forman una escoria que flota sobre el metal fundido en la parte inferior del horno. El arrabio producido en los altos hornos tiene la siguiente composición: un 92% de hierro, un 3 o 4% de carbono, entre 0,5 y 3% de silicio, del 0,25% al 2,5% de manganeso, del 0,04 al 2% de fósforo y algunas partículas de azufre. Un alto horno típico está formado por una cápsula cilíndrica de acero forrada con un material no metálico y resistente al calor, como asbesto o ladrillos refractarios. El diámetro de la cápsula disminuye hacia arriba y hacia abajo, y es máximo en un punto situado aproximadamente a una cuarta parte de su altura total. La parte inferior del horno está dotada de varias aberturas tubulares llamadas toberas, por donde se fuerza el paso del aire. Cerca del fondo se encuentra un orificio por el que fluye el arrabio cuando se sangra (o vacía) el alto horno. Encima de ese orificio, pero debajo de las toberas, hay otro agujero para retirar la escoria. La parte superior del horno, cuya altura es de unos 30 m, contiene respiraderos para los gases de escape, y un par de tolvas redondas, cerradas por válvulas en forma de campana, por las que se introduce la carga en el horno. Los materiales se llevan hasta las tolvas en pequeñas vagonetas o cucharas que se suben por un elevador inclinado situado en el exterior del horno. Los altos hornos funcionan de forma continua. La materia prima que se va a introducir en el horno se divide en un determinado número de pequeñas cargas que se introducen a intervalos de entre 10 y 15 minutos. La escoria que flota sobre el metal fundido se retira una vez cada dos horas, y el hierro se sangra cinco veces al día. El aire insuflado en el alto horno se precalienta a una temperatura comprendida entre los 550 y los 900 ºC. El calentamiento se realiza en las llamadas estufas, cilindros con estructuras de ladrillo refractario. El ladrillo se calienta durante varias horas quemando gas de alto horno, que son los gases de escape que salen de la parte superior del horno. Después se apaga la llama y se hace pasar el aire a presión por la estufa. El peso del aire empleado en un alto horno supera el peso total de las demás materias primas. Después de la II Guerra Mundial se introdujo un importante avance en la tecnología de altos hornos: la presurización de los hornos. Estrangulando el flujo de gas de los respiraderos del horno es posible aumentar la presión del interior del horno hasta 1,7 atmósferas o más. La técnica de presurización permite una mejor combustión del coque y una mayor producción de hierro. En muchos altos hornos puede lograrse un aumento de la producción de un Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 34 25%. En instalaciones experimentales también se ha demostrado que la producción se incrementa enriqueciendo el aire con oxígeno. El proceso de sangrado consiste en retirar a golpes un tapón de arcilla del orificio del hierro cercano al fondo del horno y dejar que el metal fundido fluya por un canal cubierto de arcilla y caiga a un depósito metálico forrado de ladrillo, que puede ser una cuchara o una vagoneta capaz de contener hasta 100 toneladas de metal. Cualquier escoria o sobrante que salga del horno junto con el metal se elimina antes de llegar al recipiente. A continuación, el contenedor lleno de arrabio se transporta a la fábrica siderúrgica. Los altos hornos modernos funcionan en combinación con hornos básicos de oxígeno, y a veces con hornos de crisol abierto, más antiguos, como parte de una única planta siderúrgica. En esas plantas, los hornos siderúrgicos se cargan con arrabio. El metal fundido procedente de diversos altos hornos puede mezclarse en una gran cuchara antes de convertirlo en acero con el fin de minimizar el efecto de posibles irregularidades de alguno de los hornos. Otros métodos de refinado del hierro Aunque casi todo el hierro y acero que se fabrica en el mundo se obtiene a partir de arrabio producido en altos hornos, hay otros métodos de refinado del hierro que se han practicado de forma limitada. Uno de ellos es el denominado método directo para fabricar hierro y acero a partir del mineral, sin producir arrabio. En este proceso se mezclan mineral de hierro y coque en un horno de calcinación rotatorio y se calientan a una temperatura de unos 950 ºC. El coque caliente desprende monóxido de carbono, igual que en un alto horno, y reduce los óxidos del mineral a hierro metálico. Sin embargo, no tienen lugar las reacciones secundarias que ocurren en un alto horno, y el horno de calcinación produce la llamada esponja de hierro, de mucha mayor pureza que el arrabio. También puede producirse hierro prácticamente puro mediante electrólisis (véase Electroquímica) haciendo pasar una corriente eléctrica a través de una disolución de cloruro de hierro (II). Ni el proceso directo ni el electrolítico tienen importancia comercial significativa. Proceso de crisol abierto Cualquier proceso de producción de acero a partir de arrabio consiste en quemar el exceso de carbono y otras impurezas presentes en el hierro. Una dificultad para la fabricación del acero es su elevado punto de fusión, 1.400 ºC, que impide utilizar combustibles y hornos convencionales. Para superar la dificultad se desarrolló el horno de crisol abierto, que funciona a altas temperaturas gracias al precalentado regenerativo del combustible gaseoso y el aire empleados para la combustión. En el precalentado regenerativo los gases que escapan del horno se hacen pasar por una serie de cámaras llenas de ladrillos, a los que ceden la mayor parte de su calor. A continuación se invierte el flujo a través del horno, y el combustible y el aire pasan a través de las cámaras y son calentados por los ladrillos. Con este método, los hornos de crisol abierto alcanzan temperaturas de hasta 1.650 ºC. El horno propiamente dicho suele ser un crisol de ladrillo plano y rectangular de unos 6 × 10 m, con un techo de unos 2,5 m de altura. Una Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 35 serie de puertas da a una planta de trabajo situada delante del crisol. Todo el crisol y la planta de trabajo están situados a una altura determinada por encima del suelo, y el espacio situado bajo el crisol lo ocupan las cámaras de regeneración de calor del horno. Un horno del tamaño indicado produce unas 100 toneladas de acero cada 11 horas. El horno se carga con una mezcla de arrabio (fundido o frío), chatarra de acero y mineral de hierro, que proporciona oxígeno adicional. Se añade caliza como fundente y fluorita para hacer que la escoria sea más fluida. Las proporciones de la carga varían mucho, pero una carga típica podría consistir en 60.000 kg de chatarra de acero, 11.000 kg de arrabio frío, 45.000 kg de arrabio fundido, 12.000 kg de caliza, 1.000 kg de mineral de hierro y 200 kg de fluorita. Una vez cargado el horno, se enciende, y las llamas oscilan de un lado a otro del crisol a medida que el operario invierte su dirección para regenerar el calor. Desde el punto de vista químico la acción del horno de crisol abierto consiste en reducir por oxidación el contenido de carbono de la carga y eliminar impurezas como silicio, fósforo, manganeso y azufre, que se combinan con la caliza y forman la escoria. Estas reacciones tienen lugar mientras el metal del horno se encuentra a la temperatura de fusión, y el horno se mantiene entre 1.550 y 1.650 ºC durante varias horas hasta que el metal fundido tenga el contenido de carbono deseado. Un operario experto puede juzgar el contenido de carbono del metal a partir de su aspecto, pero por lo general se prueba la fundición extrayendo una pequeña cantidad de metal del horno, enfriándola y sometiéndola a examen físico o análisis químico. Cuando el contenido en carbono de la fundición alcanza el nivel deseado, se sangra el horno a través de un orificio situado en la parte trasera. El acero fundido fluye por un canal corto hasta una gran cuchara situada a ras de suelo, por debajo del horno. Desde la cuchara se vierte el acero en moldes de hierro colado para formar lingotes, que suelen tener una sección cuadrada de unos 50 cm de lado, y una longitud de 1,5 m. Estos lingotes —la materia prima para todas las formas de fabricación del acero— pesan algo menos de 3 toneladas. Recientemente se han puesto en práctica métodos para procesar el acero de forma continua sin tener que pasar por el proceso de fabricación de lingotes. Proceso básico de oxígeno El proceso más antiguo para fabricar acero en grandes cantidades es el proceso Bessemer, que empleaba un horno de gran altura en forma de pera, denominado convertidor Bessemer, que podía inclinarse en sentido lateral para la carga y el vertido. Al hacer pasar grandes cantidades de aire a través del metal fundido, el oxígeno del aire se combinaba químicamente con las impurezas y las eliminaba. En el proceso básico de oxígeno, el acero también se refina en un horno en forma de pera que se puede inclinar en sentido lateral. Sin embargo, el aire se sustituye por un chorro de oxígeno casi puro a alta presión. Cuando el horno se ha cargado y colocado en posición vertical, se hace descender en su interior una lanza de oxígeno. La punta de la lanza, refrigerada por agua, suele estar situada a unos 2 m por encima de la carga, aunque esta distancia Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 36 se puede variar según interese. A continuación se inyectan en el horno miles de metros cúbicos de oxígeno a velocidades supersónicas. El oxígeno se combina con el carbono y otros elementos no deseados e inicia una reacción de agitación que quema con rapidez las impurezas del arrabio y lo transforma en acero. El proceso de refinado tarda 50 minutos o menos, y es posible fabricar unas 275 toneladas de acero en una hora. Acero de horno eléctrico En algunos hornos el calor para fundir y refinar el acero procede de la electricidad y no de la combustión de gas. Como las condiciones de refinado de estos hornos se pueden regular más estrictamente que las de los hornos de crisol abierto o los hornos básicos de oxígeno, los hornos eléctricos son sobre todo útiles para producir acero inoxidable y aceros aleados que deben ser fabricados según unas especificaciones muy exigentes. El refinado se produce en una cámara hermética, donde la temperatura y otras condiciones se controlan de forma rigurosa mediante dispositivos automáticos. En las primeras fases de este proceso de refinado se inyecta oxígeno de alta pureza a través de una lanza, lo que aumenta la temperatura del horno y disminuye el tiempo necesario para producir el acero. La cantidad de oxígeno que entra en el horno puede regularse con precisión en todo momento, lo que evita reacciones de oxidación no deseadas. En la mayoría de los casos, la carga está formada casi exclusivamente por material de chatarra. Antes de poder utilizarla, la chatarra debe ser analizada y clasificada, porque su contenido en aleaciones afecta a la composición del metal refinado. También se añaden otros materiales, como pequeñas cantidades de mineral de hierro y cal seca, para contribuir a eliminar el carbono y otras impurezas. Los elementos adicionales para la aleación se introducen con la carga o después, cuando se vierte a la cuchara el acero refinado. Una vez cargado el horno se hacen descender unos electrodos hasta la superficie del metal. La corriente eléctrica fluye por uno de los electrodos, forma un arco eléctrico hasta la carga metálica, recorre el metal y vuelve a formar un arco hasta el siguiente electrodo. La resistencia del metal al flujo de corriente genera calor, que —junto con el producido por el arco eléctrico— funde el metal con rapidez. Hay otros tipos de horno eléctrico donde se emplea una espiral para generar calor. Procesos de acabado El acero se vende en una gran variedad de formas y tamaños, como varillas, tubos, raíles (rieles) de ferrocarril o perfiles en H o en T. Estas formas se obtienen en las instalaciones siderúrgicas laminando los lingotes calientes o modelándolos de algún otro modo. El acabado del acero mejora también su calidad al refinar su estructura cristalina y aumentar su resistencia. El método principal de trabajar el acero se conoce como laminado en caliente. En este proceso, el lingote colado se calienta al rojo vivo en un horno denominado foso de termodifusión y a continuación se hace pasar entre una serie de rodillos metálicos colocados en pares que lo aplastan Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 37 hasta darle la forma y tamaño deseados. La distancia entre los rodillos va disminuyendo a medida que se reduce el espesor del acero. El primer par de rodillos por el que pasa el lingote se conoce como tren de desbaste o de eliminación de asperezas. Después del tren de desbaste, el acero pasa a trenes de laminado en bruto y a los trenes de acabado que lo reducen a láminas con la sección transversal correcta. Los rodillos para producir raíles o rieles de ferrocarril o perfiles en H, en T o en L tienen estrías para proporcionar la forma adecuada. Los procesos modernos de fabricación requieren gran cantidad de chapa de acero delgada. Los trenes o rodillos de laminado continuo producen tiras y láminas con anchuras de hasta 2,5 m. Estos laminadores procesan con rapidez la chapa de acero antes de que se enfríe y no pueda ser trabajada. Las planchas de acero caliente de más de 10 cm de espesor se pasan por una serie de cilindros que reducen progresivamente su espesor hasta unos 0,1 cm y aumentan su longitud de 4 a 370 metros. Los trenes de laminado continuo están equipados con una serie de accesorios como rodillos de borde, aparatos de decapado o eliminación y dispositivos para enrollar de modo automático la chapa cuando llega al final del tren. Los rodillos de borde son grupos de rodillos verticales situados a ambos lados de la lámina para mantener su anchura. Los aparatos de decapado eliminan la costra que se forma en la superficie de la lámina apartándola mecánicamente, retirándola mediante un chorro de aire o doblando de forma abrupta la chapa en algún punto del recorrido. Las bobinas de chapa terminadas se colocan sobre una cinta transportadora y se llevan a otro lugar para ser recocidas y cortadas en chapas individuales. Una forma más eficiente para producir chapa de acero delgada es hacer pasar por los rodillos planchas de menor espesor. Con los métodos convencionales de fundición sigue siendo necesario pasar los lingotes por un tren de desbaste para producir planchas lo bastante delgadas para el tren de laminado continuo. El sistema de colada continua, en cambio, produce una plancha continua de acero con un espesor inferior a 5 cm, lo que elimina la necesidad de trenes de desbaste y laminado en bruto. Tubos Los tubos más baratos se forman doblando una tira plana de acero caliente en forma cilíndrica y soldando los bordes para cerrar el tubo. En los tubos más pequeños, los bordes de la tira suelen superponerse y se pasan entre un par de rodillos curvados según el diámetro externo del tubo. La presión de los rodillos es suficiente para soldar los bordes. Los tubos sin soldaduras se fabrican a partir de barras sólidas haciéndolas pasar entre un par de rodillos inclinados entre los que está situada una barra metálica con punta, llamada mandril, que perfora las barras y forma el interior del tubo mientras los rodillos forman el exterior. Hojalata El producto de acero recubierto más importante es la hojalata estañada que se emplea para la fabricación de latas y envases. El material de las latas contiene más de un 99% de acero. En algunas instalaciones, las láminas de Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 38 acero se pasan por un baño de estaño fundido (después de laminarlas primero en caliente y luego en frío) para estañarlas. El método de recubrimiento más común es el proceso electrolítico. La chapa de acero se desenrolla poco a poco de la bobina y se le aplica una solución química. Al mismo tiempo se hace pasar una corriente eléctrica a través de un trozo de estaño puro situado en esa misma solución, lo que hace que el estaño se disuelva poco a poco y se deposite sobre el acero. Con este sistema, medio kilogramo de estaño basta para recubrir 20 metros cuadrados de acero. En la hojalata delgada, la chapa recibe un segundo laminado en frío antes de recubrirla de estaño, lo que aumenta la resistencia de la chapa además de su delgadez. Las latas hechas de hojalata delgada tienen una resistencia similar a las ordinarias, pero contienen menos acero, con lo que se reduce su peso y su coste. También pueden fabricarse envases ligeros adhiriendo una delgadísima lámina de acero estañado sobre papel o cartón. Otros procesos de fabricación de acero son la forja, la fundición y el uso de troqueles. Hierro forjado El proceso antiguo para fabricar la aleación resistente y maleable conocida como hierro forjado se diferencia con claridad de otras formas de fabricación de acero. Debido a que el proceso, conocido como pudelización, exigía un mayor trabajo manual, era imposible producir hierro forjado en grandes cantidades. El desarrollo de nuevos sistemas con convertidores Bessemer y hornos de crisol abierto permitieron producir un volumen mayor de hierro forjado. Sin embargo, el hierro forjado ya no se fabrica habitualmente con fines comerciales, debido a que se puede sustituir en casi todas las aplicaciones por acero de bajo contenido en carbono, con menor costo de producción y calidad más uniforme. El horno de pudelización empleado en el proceso antiguo tiene un techo abovedado de poca altura y un crisol cóncavo en el que se coloca el metal en bruto, separado por una pared de la cámara de combustión donde se quema carbón bituminoso. La llama de la cámara de combustión asciende por encima de la pared, incide en el techo abovedado y reverbera sobre el contenido del crisol. Cuando el horno ha adquirido un calor moderado, el operario que maneja el horno recubre el crisol y las paredes con una pasta de óxido de hierro, por lo general hematites. A continuación, el horno se carga con unos 250 kg de arrabio y se cierra la puerta. Al cabo de unos 30 minutos, el arrabio se ha fundido, y el operario añade a la carga más óxido de hierro o residuos de laminado, mezclándolos con el hierro con una barra de hierro curvada. El silicio y la mayor parte del manganeso contenidos en el hierro se oxidan, y se elimina parte del azufre y el fósforo. A continuación se eleva un poco la temperatura del horno, y el carbono empieza a quemarse formando óxidos de carbono gaseosos. Según se desprende gas la escoria aumenta de volumen y el nivel de la carga sube. Al quemarse el carbono, la temperatura de fusión aumenta, y la carga se vuelve cada vez más pastosa y vuelve a su nivel anterior. A medida que se incrementa la pureza del hierro, el operario remueve la carga con la barra para garantizar una composición uniforme y Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 39 una cohesión adecuada de las partículas. La masa resultante, pastosa y esponjosa, se divide en pedazos o bolas de unos 80 o 90 kg. Las bolas se retiran del horno con unas tenazas y se colocan directamente en una prensa que expulsa de la bola la mayor parte de la escoria de silicio mezclada y suelda entre sí los granos de hierro puro. A continuación se corta el hierro en piezas planas que se apilan unas sobre otras, se calientan hasta la temperatura de soldadura y se laminan para formar una sola pieza. A veces se repite el proceso de laminado para mejorar la calidad del producto. La técnica moderna para fabricar hierro forjado emplea hierro fundido procedente de un convertidor Bessemer y escoria fundida, que suele prepararse fundiendo mineral de hierro, residuos de laminado y arena en un horno de crisol abierto. Cuando el hierro fundido, que lleva disuelta una gran cantidad de gas, se vierte en la cuchara que contiene la escoria fundida, el metal se solidifica de modo casi instantáneo y libera el gas disuelto. La fuerza ejercida por el gas hace estallar el metal en partículas diminutas que son más pesadas que la escoria y se acumulan en el fondo de la cuchara, donde se aglomeran formando una masa esponjosa similar a las bolas producidas en un horno de pudelización. Cuando se vierte la escoria de la parte superior de la cuchara se retira la bola de hierro y se la somete al mismo tratamiento que el producto del horno de pudelización. Clasificación del acero Los diferentes tipos de acero se agrupan en cinco clases principales: aceros al carbono, aceros aleados, aceros de baja aleación ultrarresistentes, aceros inoxidables y aceros de herramientas. Aceros al carbono Más del 90% de todos los aceros son aceros al carbono. Estos aceros contienen diversas cantidades de carbono y menos del 1,65% de manganeso, el 0,60% de silicio y el 0,60% de cobre. Entre los productos fabricados con aceros al carbono figuran máquinas, carrocerías de automóvil, la mayor parte de las estructuras de construcción de acero, cascos de buques, somieres y horquillas o pasadores para el pelo. Aceros aleados Estos aceros contienen una proporción determinada de vanadio, molibdeno y otros elementos, además de cantidades mayores de manganeso, silicio y cobre que los aceros al carbono normales. Estos aceros se emplean, por ejemplo, para fabricar engranajes y ejes de motores, patines o cuchillos de corte. Aceros de baja aleación ultrarresistentes Esta familia es la más reciente de las cinco grandes clases de acero. Los aceros de baja aleación son más baratos que los aceros aleados convencionales ya que contienen cantidades menores de los costosos elementos de aleación. Sin embargo, reciben un tratamiento especial que les da una resistencia mucho mayor que la del acero al carbono. Por ejemplo, los vagones de mercancías fabricados con aceros de baja aleación pueden transportar cargas más grandes porque sus paredes son más delgadas que lo que sería necesario en caso de emplear acero al carbono. Además, como los Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 40 vagones de acero de baja aleación pesan menos, las cargas pueden ser más pesadas. En la actualidad se construyen muchos edificios con estructuras de aceros de baja aleación. Las vigas pueden ser más delgadas sin disminuir su resistencia, logrando un mayor espacio interior en los edificios. Aceros inoxidables Los aceros inoxidables contienen cromo, níquel y otros elementos de aleación, que los mantienen brillantes y resistentes a la herrumbre y oxidación a pesar de la acción de la humedad o de ácidos y gases corrosivos. Algunos aceros inoxidables son muy duros; otros son muy resistentes y mantienen esa resistencia durante largos periodos a temperaturas extremas. Debido a sus superficies brillantes, en arquitectura se emplean muchas veces con fines decorativos. El acero inoxidable se utiliza para las tuberías y tanques de refinerías de petróleo o plantas químicas, para los fuselajes de los aviones o para cápsulas espaciales. También se usa para fabricar instrumentos y equipos quirúrgicos, o para fijar o sustituir huesos rotos, ya que resiste a la acción de los fluidos corporales. En cocinas y zonas de preparación de alimentos los utensilios son a menudo de acero inoxidable, ya que no oscurece los alimentos y pueden limpiarse con facilidad. Aceros de herramientas Estos aceros se utilizan para fabricar muchos tipos de herramientas y cabezales de corte y modelado de máquinas empleadas en diversas operaciones de fabricación. Contienen volframio, molibdeno y otros elementos de aleación, que les proporcionan mayor resistencia, dureza y durabilidad. Estructura del acero Las propiedades físicas de los aceros y su comportamiento a distintas temperaturas dependen sobre todo de la cantidad de carbono y de su distribución en el hierro. Antes del tratamiento térmico, la mayor parte de los aceros son una mezcla de tres sustancias: ferrita, perlita y cementita. La ferrita, blanda y dúctil, es hierro con pequeñas cantidades de carbono y otros elementos en disolución. La cementita, un compuesto de hierro con el 7% de carbono aproximadamente, es de gran dureza y muy quebradiza. La perlita es una profunda mezcla de ferrita y cementita, con una composición específica y una estructura característica, y sus propiedades físicas son intermedias entre las de sus dos componentes. La resistencia y dureza de un acero que no ha sido tratado térmicamente depende de las proporciones de estos tres ingredientes. Cuanto mayor es el contenido en carbono de un acero, menor es la cantidad de ferrita y mayor la de perlita: cuando el acero tiene un 0,8% de carbono, está por completo compuesto de perlita. El acero con cantidades de carbono aún mayores es una mezcla de perlita y cementita. Al elevarse la temperatura del acero, la ferrita y la perlita se transforman en una forma alotrópica de aleación de hierro y carbono conocida como austenita, que tiene la propiedad de disolver todo el carbono libre presente en el metal. Si el acero se enfría despacio, la austenita vuelve a convertirse en ferrita y perlita, pero si el enfriamiento es repentino la austenita se convierte en martensita, una modificación alotrópica de gran dureza similar a la ferrita pero con carbono en solución sólida. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 41 Tratamiento térmico del acero El proceso básico para endurecer el acero mediante tratamiento térmico consiste en calentar el metal hasta una temperatura a la que se forma austenita, generalmente entre los 750 y 850 ºC, y después enfriarlo con rapidez sumergiéndolo en agua o aceite. Estos tratamientos de endurecimiento, que forman martensita, crean grandes tensiones internas en el metal, que se eliminan mediante el temple o el recocido, que consiste en volver a calentar el acero hasta una temperatura menor. El temple reduce la dureza y resistencia y aumenta la ductilidad y la tenacidad. El objetivo fundamental del proceso de tratamiento térmico es controlar la cantidad, tamaño, forma y distribución de las partículas de cementita contenidas en la ferrita, que a su vez determinan las propiedades físicas del acero. Hay muchas variaciones del proceso básico. Los ingenieros metalúrgicos han descubierto que el cambio de austenita a martensita se produce en la última fase del enfriamiento, y que la transformación se ve acompañada de un cambio de volumen que puede agrietar el metal si el enfriamiento es demasiado rápido. Se han desarrollado tres procesos relativamente nuevos para evitar el agrietamiento. En el templado prolongado, el acero se retira del baño de enfriamiento cuando ha alcanzado la temperatura en la que empieza a formarse la martensita, y a continuación se enfría despacio en el aire. En el martemplado, el acero se retira del baño en el mismo momento que el templado prolongado y se coloca en un baño de temperatura constante hasta que alcanza una temperatura uniforme en toda su sección transversal. Después se deja enfriar el acero en aire a lo largo del rango de temperaturas de formación de la martensita, que en la mayoría de los aceros va desde unos 300 ºC hasta la temperatura ambiente. En el austemplado, el acero se enfría en un baño de metal o sal mantenido de forma constante a la temperatura en que se produce el cambio estructural deseado, y se conserva en ese baño hasta que el cambio es completo, antes de pasar al enfriado final. Hay también otros métodos de tratamiento térmico para endurecer el acero. En la cementación, las superficies de las piezas de acero terminadas se endurecen al calentarlas con compuestos de carbono o nitrógeno. Estos compuestos reaccionan con el acero y aumentan su contenido de carbono o forman nitruros en su capa superficial. En la carburización la pieza se calienta cuando se mantiene rodeada de carbón vegetal, coque o de gases de carbono como metano o monóxido de carbono. La cianurización consiste en endurecer el metal en un baño de sales de cianuro fundidas para formar carburos y nitruros. La nitrurización se emplea para endurecer aceros de composición especial mediante su calentamiento en amoníaco gaseoso para formar nitruros de aleación. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 42 Ordenador o Computadora, dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros tipos de información. El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en tecnología aplicada. Tipos de ordenadores o computadoras En la actualidad se utilizan dos tipos principales de ordenadores: analógicos y digitales. Sin embargo, el término ordenador o computadora suele utilizarse para referirse exclusivamente al tipo digital. Los ordenadores analógicos aprovechan la similitud matemática entre las interrelaciones físicas de determinados problemas y emplean circuitos electrónicos o hidráulicos para simular el problema físico. Los ordenadores digitales resuelven los problemas realizando cálculos y tratando cada número dígito por dígito. Las instalaciones que contienen elementos de ordenadores digitales y analógicos se denominan ordenadores híbridos. Por lo general se utilizan Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 43 para problemas en los que hay que calcular grandes cantidades de ecuaciones complejas, conocidas como integrales de tiempo. En un ordenador digital también pueden introducirse datos en forma analógica mediante un convertidor analógico digital, y viceversa (convertidor digital a analógico). Ordenadores analógicos El ordenador analógico es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada. Ordenadores digitales Todo lo que hace un ordenador digital se basa en una operación: la capacidad de determinar si un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, el ordenador puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en megahercios, o millones de ciclos por segundo. Un ordenador con una velocidad de reloj de 100 MHz, velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de ciclos por segundo. La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1), ONOFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo. Un grupo de ocho bits se denomina byte y cada uno contiene 256 Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 44 configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el número decimal 210 (véase Sistemas numéricos), o bien estar indicando al ordenador que compare los datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip de memoria. El desarrollo de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la velocidad de los ordenadores. La colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a medida que avanza el desarrollo de los ordenadores digitales modernos. Historia La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar. El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos. La máquina analítica También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro. Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 45 Primeros ordenadores Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación. Ordenadores electrónicos Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde. El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador. A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata. Circuitos integrados Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 46 A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio. Hardware Todos los ordenadores digitales modernos son similares conceptualmente con independencia de su tamaño. Sin embargo, pueden dividirse en varias categorías según su precio y rendimiento: el ordenador o computadora personal es una máquina de coste relativamente bajo y por lo general de tamaño adecuado para un escritorio (algunos de ellos, denominados portátiles, o laptops, son lo bastante pequeños como para caber en un maletín); la estación de trabajo, un microordenador con gráficos mejorados y capacidades de comunicaciones que lo hacen especialmente útil para el trabajo de oficina; el miniordenador o minicomputadora, un ordenador de mayor tamaño que por lo general es demasiado caro para el uso personal y que es apto para compañías, universidades o laboratorios; y el mainframe, una gran máquina de alto precio capaz de servir a las necesidades de grandes empresas, departamentos gubernamentales, instituciones de investigación científica y similares (las máquinas más grandes y más rápidas dentro de esta categoría se denominan superordenadores). En realidad, un ordenador digital no es una única máquina, en el sentido en el que la mayoría de la gente considera a los ordenadores. Es un sistema compuesto de cinco elementos diferenciados: una CPU (unidad central de proceso); dispositivos de entrada; dispositivos de almacenamiento de memoria; dispositivos de salida y una red de comunicaciones, denominada bus, que enlaza todos los elementos del sistema y conecta a éste con el mundo exterior. CPU (unidad central de proceso) La CPU puede ser un único chip o una serie de chips que realizan cálculos aritméticos y lógicos y que temporizan y controlan las operaciones de los demás elementos del sistema. Las técnicas de miniaturización y de integración han posibilitado el desarrollo de un chip de CPU denominado microprocesador, que incorpora un sistema de circuitos y memoria adicionales. El resultado son unos ordenadores más pequeños y la reducción del sistema de circuitos de soporte. Los microprocesadores se utilizan en la mayoría de los ordenadores personales de la actualidad. La mayoría de los chips de CPU y de los microprocesadores están compuestos de cuatro secciones funcionales: una unidad aritmética/lógica; Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 47 unos registros; una sección de control y un bus interno. La unidad aritmética/lógica proporciona al chip su capacidad de cálculo y permite la realización de operaciones aritméticas y lógicas. Los registros son áreas de almacenamiento temporal que contienen datos, realizan un seguimiento de las instrucciones y conservan la ubicación y los resultados de dichas operaciones. La sección de control tiene tres tareas principales: temporiza y regula las operaciones de la totalidad del sistema informático; su descodificador de instrucciones lee las configuraciones de datos en un registro designado y las convierte en una actividad, como podría ser sumar o comparar, y su unidad interruptora indica en qué orden utilizará la CPU las operaciones individuales y regula la cantidad de tiempo de CPU que podrá consumir cada operación. El último segmento de un chip de CPU o microprocesador es su bus interno, una red de líneas de comunicación que conecta los elementos internos del procesador y que también lleva hacia los conectores externos que enlazan al procesador con los demás elementos del sistema informático. Los tres tipos de bus de la CPU son: el bus de control que consiste en una línea que detecta las señales de entrada y de otra línea que genera señales de control desde el interior de la CPU; el bus de dirección, una línea unidireccional que sale desde el procesador y que gestiona la ubicación de los datos en las direcciones de la memoria; y el bus de datos, una línea de transmisión bidireccional que lee los datos de la memoria y escribe nuevos datos en ésta. Dispositivos de entrada Estos dispositivos permiten al usuario del ordenador introducir datos, comandos y programas en la CPU. El dispositivo de entrada más común es un teclado similar al de las máquinas de escribir. La información introducida con el mismo, es transformada por el ordenador en modelos reconocibles. Otros dispositivos de entrada son los lápices ópticos, que transmiten información gráfica desde tabletas electrónicas hasta el ordenador; joysticks y el ratón o mouse, que convierte el movimiento físico en movimiento dentro de una pantalla de ordenador; los escáneres luminosos, que leen palabras o símbolos de una página impresa y los traducen a configuraciones electrónicas que el ordenador puede manipular y almacenar; y los módulos de reconocimiento de voz, que convierten la palabra hablada en señales digitales comprensibles para el ordenador. También es posible utilizar los dispositivos de almacenamiento para introducir datos en la unidad de proceso. Dispositivos de almacenamiento Los sistemas informáticos pueden almacenar los datos tanto interna (en la memoria) como externamente (en los dispositivos de almacenamiento). Internamente, las instrucciones o datos pueden almacenarse por un tiempo en los chips de silicio de la RAM (memoria de acceso aleatorio) montados directamente en la placa de circuitos principal de la computadora, o bien en chips montados en tarjetas periféricas conectadas a la placa de circuitos principal del ordenador. Estos chips de RAM constan de conmutadores Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 48 sensibles a los cambios de la corriente eléctrica. Los chips de RAM estática conservan sus bits de datos mientras la corriente siga fluyendo a través del circuito, mientras que los chips de RAM dinámica (DRAM, acrónimo de Dynamic Random Access Memory) necesitan la aplicación de tensiones altas o bajas a intervalos regulares aproximadamente cada dos milisegundos para no perder su información. Otro tipo de memoria interna son los chips de silicio en los que ya están instalados todos los conmutadores. Las configuraciones en este tipo de chips de ROM (memoria de sólo lectura) forman los comandos, los datos o los programas que el ordenador necesita para funcionar correctamente. Los chips de RAM son como pedazos de papel en los que se puede escribir, borrar y volver a utilizar; los chips de ROM son como un libro, con las palabras ya escritas en cada página. Tanto los primeros como los segundos están enlazados a la CPU a través de circuitos. Los dispositivos de almacenamiento externos, que pueden residir físicamente dentro de la unidad de proceso principal del ordenador, están fuera de la placa de circuitos principal. Estos dispositivos almacenan los datos en forma de cargas sobre un medio magnéticamente sensible, por ejemplo una cinta de sonido o, lo que es más común, sobre un disco revestido de una fina capa de partículas metálicas. Los dispositivos de almacenamiento externo más frecuentes son los disquetes y los discos duros, aunque la mayoría de los grandes sistemas informáticos utiliza bancos de unidades de almacenamiento en cinta magnética. Los discos flexibles pueden contener, según sea el sistema, desde varios centenares de miles de bytes hasta bastante más de un millón de bytes de datos. Los discos duros no pueden extraerse de los receptáculos de la unidad de disco, que contienen los dispositivos electrónicos para leer y escribir datos sobre la superficie magnética de los discos y pueden almacenar desde varios millones de bytes hasta algunos centenares de millones. La tecnología de CD-ROM, que emplea las mismas técnicas láser utilizadas para crear los discos compactos (CD) de audio, permiten capacidades de almacenamiento del orden de varios cientos de megabytes (millones de bytes) de datos. Dispositivos de salida Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos de la computadora. El dispositivo de salida más común es la unidad de visualización (VDU, acrónimo de Video Display Unit), que consiste en un monitor que presenta los caracteres y gráficos en una pantalla similar a la del televisor. Por lo general, las VDU tienen un tubo de rayos catódicos como el de cualquier televisor, aunque los ordenadores pequeños y portátiles utilizan hoy pantallas de cristal líquido (LCD, acrónimo de Liquid Crystal Displays) o electroluminiscentes. Otros dispositivos de salida más comunes son las impresoras y los módem. Un módem enlaza dos ordenadores transformando las señales digitales en analógicas para que los datos puedan transmitirse a través de las telecomunicaciones. Sistemas operativos Los sistemas operativos internos fueron desarrollados sobre todo para coordinar y trasladar estos flujos de datos que procedían de fuentes distintas, Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 49 como las unidades de disco o los coprocesadores (chips de procesamiento que ejecutan operaciones simultáneamente con la unidad central, aunque son diferentes). Un sistema operativo es un programa de control principal, almacenado de forma permanente en la memoria, que interpreta los comandos del usuario que solicita diversos tipos de servicios, como visualización, impresión o copia de un archivo de datos; presenta una lista de todos los archivos existentes en un directorio o ejecuta un determinado programa. Programación Un programa es una secuencia de instrucciones que indican al hardware de un ordenador qué operaciones debe realizar con los datos. Los programas pueden estar incorporados al propio hardware, o bien pueden existir de manera independiente en forma de software. En algunas computadoras especializadas las instrucciones operativas están incorporadas en el sistema de circuitos; entre los ejemplos más comunes pueden citarse los microordenadores de las calculadoras, relojes de pulsera, motores de coches y hornos microondas. Por otro lado, un ordenador universal, o de uso general, contiene algunos programas incorporados (en la ROM) o instrucciones (en el chip del procesador), pero depende de programas externos para ejecutar tareas útiles. Una vez programado, podrá hacer tanto o tan poco como le permita el software que lo controla en determinado momento. El software de uso más generalizado incluye una amplia variedad de programas de aplicaciones, es decir, instrucciones al ordenador acerca de cómo realizar diversas tareas. Lenguajes Las instrucciones deben darse en un lenguaje de programación, es decir, en una determinada configuración de información digital binaria. En las primeras computadoras, la programación era una tarea difícil y laboriosa ya que los conmutadores ON-OFF de las válvulas de vacío debían configurarse a mano. Programar tareas tan sencillas como ordenar una lista de nombres requería varios días de trabajo de equipos de programadores. Desde entonces se han inventado varios lenguajes informáticos, algunos orientados hacia funciones específicas y otros centrados en la facilidad de uso. Lenguaje máquina El lenguaje propio del ordenador, basado en el sistema binario, o código máquina, resulta difícil de utilizar para las personas. El programador debe introducir todos y cada uno de los comandos y datos en forma binaria, y una operación sencilla como comparar el contenido de un registro con los datos situados en una ubicación del chip de memoria puede tener el siguiente formato: 11001010 00010111 11110101 00101011. La programación en lenguaje máquina es una tarea tan tediosa y consume tanto tiempo que muy raras veces lo que se ahorra en la ejecución del programa justifica los días o semanas que se han necesitado para escribir el mismo. Lenguaje ensamblador Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 50 Uno de los métodos inventados por los programadores para reducir y simplificar el proceso es la denominada programación con lenguaje ensamblador. Al asignar un código mnemotécnico (por lo general de tres letras) a cada comando en lenguaje máquina, es posible escribir y depurar o eliminar los errores lógicos y de datos en los programas escritos en lenguaje ensamblador, empleando para ello sólo una fracción del tiempo necesario para programar en lenguaje máquina. En el lenguaje ensamblador, cada comando mnemotécnico y sus operadores simbólicos equivalen a una instrucción de máquina. Un programa ensamblador traduce el código fuente, una lista de códigos de operación mnemotécnicos y de operadores simbólicos, a código objeto (es decir, a lenguaje máquina) y, a continuación, ejecuta el programa. Sin embargo, el lenguaje ensamblador puede utilizarse con un solo tipo de chip de CPU o microprocesador. Los programadores, que dedicaron tanto tiempo y esfuerzo al aprendizaje de la programación de un ordenador, se veían obligados a aprender un nuevo estilo de programación cada vez que trabajaban con otra máquina. Lo que se necesitaba era un método abreviado en el que un enunciado simbólico pudiera representar una secuencia de numerosas instrucciones en lenguaje máquina, y un método que permitiera que el mismo programa pudiera ejecutarse en varios tipos de máquinas. Estas necesidades llevaron al desarrollo de lenguajes de alto nivel. Lenguajes de alto nivel Los lenguajes de alto nivel suelen utilizar términos ingleses del tipo LIST, PRINT u OPEN como comandos que representan una secuencia de decenas o de centenas de instrucciones en lenguaje máquina. Los comandos se introducen desde el teclado, desde un programa residente en la memoria o desde un dispositivo de almacenamiento, y son interceptados por un programa que los traduce a instrucciones en lenguaje máquina. Los programas traductores son de dos tipos: intérpretes y compiladores. Con un intérprete, los programas que repiten un ciclo para volver a ejecutar parte de sus instrucciones, reinterpretan la misma instrucción cada vez que aparece. Por consiguiente, los programas interpretados se ejecutan con mucha mayor lentitud que los programas en lenguaje máquina. Por el contrario, los compiladores traducen un programa íntegro a lenguaje máquina antes de su ejecución, por lo cual se ejecutan con tanta rapidez como si hubiesen sido escritos directamente en lenguaje máquina. Se considera que fue la estadounidense Grace Hopper quien implementó el primer lenguaje de ordenador orientado al uso comercial. Después de programar un ordenador experimental en la Universidad de Harvard, trabajó en los modelos UNIVAC I y UNIVAC II, desarrollando un lenguaje de alto nivel para uso comercial llamado FLOW-MATIC. Para facilitar el uso del ordenador en las aplicaciones científicas, IBM desarrolló un lenguaje que simplificaría el trabajo que implicaba el tratamiento de fórmulas matemáticas complejas. Iniciado en 1954 y terminado en 1957, el FORTRAN (acrónimo de Formula Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 51 Translator) fue el primer lenguaje exhaustivo de alto nivel de uso generalizado. En 1957 una asociación estadounidense, la Association for Computing Machinery comenzó a desarrollar un lenguaje universal que corrigiera algunos de los defectos del FORTRAN. Un año más tarde fue lanzado el ALGOL (acrónimo de Algorithmic Language), otro lenguaje de orientación científica. De gran difusión en Europa durante las décadas de 1960 y 1970, desde entonces ha sido sustituido por nuevos lenguajes, mientras que el FORTRAN continúa siendo utilizado debido a las gigantescas inversiones que se hicieron en los programas existentes. El COBOL (acrónimo de Common Business Oriented Language) es un lenguaje de programación para uso comercial y empresarial especializado en la organización de datos y manipulación de archivos, y hoy día está muy difundido en el mundo empresarial. El lenguaje BASIC (acrónimo de Código de Instrucciones Simbólicas de Uso General para Principiantes) fue desarrollado en el Dartmouth College a principios de la década de 1960 y está dirigido a los usuarios de ordenador no profesionales. Este lenguaje se universalizó gracias a la popularización de los microordenadores en las décadas de 1970 y 1980. Calificado de lento, ineficaz y poco estético por sus detractores, BASIC es sencillo de aprender y fácil de utilizar. Como muchos de los primeros microordenadores se vendieron con BASIC incorporado en el hardware (en la memoria ROM), se generalizó el uso de este lenguaje. Aunque existen centenares de lenguajes informáticos y de variantes, hay algunos dignos de mención, como el PASCAL, diseñado en un principio como herramienta de enseñanza, hoy es uno de los lenguajes de microordenador más populares; el Logo fue desarrollado para que los niños pudieran acceder al mundo de la informática; el C, un lenguaje de Bell Laboratories diseñado en la década de 1970, se utiliza ampliamente en el desarrollo de programas de sistemas, al igual que su sucesor, el C++. El LISP y el PROLOG han alcanzado amplia difusión en el campo de la inteligencia artificial. Evolución futura Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas. Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 52 están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados. Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes. Las computadoras moleculares podrían llegar a resolver problemas complicados mucho más rápidamente que las actuales supercomputadoras y consumir mucha menos energía. Economía, ciencia social que estudia los procesos de producción, distribución, comercialización y consumo de bienes y servicios. Los economistas estudian cómo alcanzan en este campo sus objetivos los individuos, los distintos colectivos, las empresas de negocios, y los gobiernos. Otras ciencias ayudan a avanzar en este estudio; la psicología y la ética intentan explicar cómo se determinan los objetivos, la historia registra el cambio de objetivos y la sociología interpreta el comportamiento humano en un contexto social. El estudio de la economía puede dividirse en dos grandes campos. La teoría de los precios, o microeconomía, que explica cómo la interacción de la oferta y la demanda en mercados competitivos determinan los precios de cada bien, el nivel de salarios, el margen de beneficios y las variaciones de las rentas. La microeconomía parte del supuesto de comportamiento racional. Los ciudadanos gastarán su renta intentando obtener la máxima satisfacción posible o, como dicen los analistas económicos, tratarán de maximizar su utilidad. Por su parte, los empresarios intentarán obtener el máximo beneficio posible. El segundo campo, el de la macroeconomía, comprende los problemas relativos al nivel de empleo y al índice de ingresos o renta de un país. El estudio de la macroeconomía surge con la publicación de La teoría general del empleo, el interés y el dinero (1935), del economista británico John Maynard Keynes. Sus conclusiones sobre las fases de expansión y depresión económica se centran en la demanda total, o agregada, de bienes y servicios por parte de consumidores, inversores y gobiernos. Según Keynes, una demanda agregada insuficiente generará desempleo; la solución estaría en incrementar la inversión de las empresas o del gasto público, aunque para ello sea necesario tener un déficit presupuestario. Historia del pensamiento económico Las cuestiones económicas han preocupado a muchos intelectuales a lo largo de los siglos. En la antigua Grecia, Aristóteles y Platón disertaron sobre Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 53 los problemas relativos a la riqueza, la propiedad y el comercio. Durante la edad media predominaron las ideas de la Iglesia católica apostólica romana, se impuso el Derecho canónico, que condenaba la usura (el cobro de intereses abusivos a cambio de efectivo) y consideraba que el comercio era una actividad inferior a la agricultura. La economía, como ciencia moderna independiente de la filosofía y de la política, data de la publicación de la obra Investigación sobre la naturaleza y causas de la riqueza de las naciones (1776), del filósofo y economista escocés Adam Smith. El mercantilismo y las especulaciones de los fisiócratas precedieron a la economía clásica de Smith y sus seguidores del siglo XIX. Mercantilismo El desarrollo de los modernos nacionalismos a lo largo del siglo XVI desvió la atención de los pensadores de la época hacia cómo incrementar la riqueza y el poder de las naciones Estado. La política económica que imperaba en aquella época, el mercantilismo, fomentaba el autoabastecimiento de las naciones. Esta doctrina económica imperó en Inglaterra y en el resto de Europa occidental desde el siglo XVI hasta el siglo XVIII. Los mercantilistas consideraban que la riqueza de una nación dependía de la cantidad de oro y plata que tuviese. Aparte de las minas de oro y plata descubiertas por España en el Nuevo Mundo, una nación sólo podía aumentar sus reservas de estos metales preciosos vendiendo más productos a otros países de los que compraba de ellos. El conseguir una balanza de pagos con saldo positivo implicaba que los demás países tenían que pagar la diferencia con oro y plata. Los mercantilistas daban por sentado que su país estaría siempre en guerra con otros, o preparándose para la próxima contienda. Si tenían oro y plata, los dirigentes podrían pagar a mercenarios para combatir, como hizo el rey Jorge III de Inglaterra durante la guerra de la Independencia estadounidense. En caso de necesidad, el monarca también podría comprar armas, uniformes y comida para los soldados. Esta preocupación mercantilista por acumular metales preciosos también afectaba a la política interna. Era imprescindible que los salarios fueran bajos y que la población creciese. Una población numerosa y mal pagada produciría muchos bienes a un precio lo suficiente bajo como para poder venderlos en el exterior. Se obligaba a la gente a trabajar jornadas largas, y se consideraba un despilfarro el consumo de té, ginebra, lazos, volantes o tejidos de seda. De esta filosofía también se deducía que, cuanto antes empezaran a trabajar los niños, mejor para el país. Un autor mercantilista tenía un plan para los niños de los pobres: “cuando estos niños tienen cuatro años, hay que llevarlos al asilo para pobres de la región, donde se les enseñará a leer durante dos horas al día, y se les tendrá trabajando el resto del día en las tareas que mejor se ajusten a su edad, fuerza y capacidad”. Fisiocracia Esta doctrina económica estuvo en boga en Francia durante la segunda mitad del siglo XVIII y surgió como una reacción ante las políticas restrictivas del mercantilismo. El fundador de la escuela, François Quesnay, era médico Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 54 de cabecera en la corte del rey Luis XV. Su libro más conocido, Tableau économique (Cuadro económico, 1758), intentaba establecer los flujos de ingresos en una economía, anticipándose a la contabilidad nacional, creada en el siglo XX. Según los fisiócratas, toda la riqueza era generada por la agricultura; gracias al comercio, esta riqueza pasaba de los agricultores al resto de la sociedad. Los fisiócratas eran partidarios del libre comercio y del laissez-faire (doctrina que defiende que los gobiernos no deben intervenir en la economía). También sostenían que los ingresos del Estado tenían que provenir de un único impuesto que debía gravar a los propietarios de la tierra, que eran considerados como la clase estéril. Adam Smith conoció a los principales fisiócratas y escribió sobre sus doctrinas, casi siempre de forma positiva. La escuela clásica Como cuerpo de teoría económica coherente, la economía clásica parte de los escritos de Smith y continúa con la obra de los economistas británicos Thomas Robert Malthus y David Ricardo; y culmina con la síntesis de John Stuart Mill, discípulo de Ricardo. Aunque eran frecuentes las divergencias entre los economistas clásicos que hubo en los 75 años que van desde la publicación de Investigación sobre la naturaleza y causas de la riqueza de las naciones de Smith (1776), hasta los Principios de economía política de Mill (1848), los economistas pertenecientes a esta escuela coincidían en los conceptos principales. Todos defendían la propiedad privada, los mercados y creían, como decía Mill, que “sólo a través del principio de la competencia tiene la economía política una pretensión de ser ciencia”. Compartían la desconfianza de Smith hacia los gobiernos, y su fe ciega en el poder del egoísmo y su famosa “mano invisible”, que hacía posible que el bienestar social se alcanzara mediante la búsqueda individual del interés personal. Los clásicos obtuvieron de Ricardo el concepto de rendimientos decrecientes, que afirma que a medida que se aumenta la fuerza de trabajo y el capital que se utiliza para labrar la tierra, disminuyen los rendimientos o, como decía Ricardo, “superada cierta etapa, no muy avanzada, el progreso de la agricultura disminuye de una forma paulatina”. El alcance de la ciencia económica se amplió de manera considerable cuando Smith subrayó el papel del consumo sobre el de la producción. Smith confiaba en que era posible aumentar el nivel general de vida del conjunto de la comunidad. Defendía que era esencial permitir que los individuos intentaran alcanzar su propio bienestar como medio para aumentar la prosperidad de toda la sociedad. En el lado opuesto, Malthus, en su conocido e influyente Ensayo sobre el principio de la población (1798), planteaba la nota pesimista a la escuela clásica, al afirmar que las esperanzas de mayor prosperidad se escollarían contra la roca de un excesivo crecimiento de la población. Según Malthus, los alimentos sólo aumentaban adecuándose a una progresión aritmética (2-4-68-10, etc.), mientras que la población se duplicaba cada generación (2-4-816-32, etc.), salvo que esta tendencia se controlara, o por la naturaleza o por la propia prudencia de la especie. Malthus sostenía que el control natural era ‘positivo’: “El poder de la población es tan superior al poder de la tierra para Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 55 permitir la subsistencia del hombre, que la muerte prematura tiene que, frenar hasta cierto punto el crecimiento del ser humano”. Este procedimiento de frenar el crecimiento eran las guerras, las epidemias, la peste, las plagas, los vicios humanos y las hambrunas, que se combinaban para controlar el volumen de la población mundial y limitarlo a la oferta de alimentos. La única forma de escapar a este imperativo de la humanidad y de los horrores de un control positivo de la naturaleza, era la limitación voluntaria del crecimiento de la población, no mediante un control de natalidad, contrario a las convicciones religiosas de Malthus, sino retrasando la edad para casarse, reduciendo así el volumen de las familias. Las doctrinas pesimistas de este autor clásico dieron a la economía el sobrenombre de ‘ciencia lúgubre’. Los Principios de economía política de Mill constituyeron el centro de esta ciencia hasta finales del siglo XIX. Aunque Mill aceptaba las teorías de sus predecesores clásicos, confiaba más en la posibilidad de educar a la clase obrera para que limitase su reproducción de lo que lo hacían Ricardo y Malthus. Además, Mill era un reformista que quería gravar con fuerza las herencias, e incluso permitir que el gobierno asumiera un mayor protagonismo a la hora de proteger a los niños y a los trabajadores. Fue muy crítico con las prácticas que desarrollaban las empresas y favorecía la gestión cooperativa de las fábricas, por parte de los trabajadores. Mill representa un puente entre la economía clásica del laissez-faire y el Estado de bienestar. Los economistas clásicos aceptaban la Ley de Say sobre los mercados, fundada por el economista francés Jean Baptiste Say. Esta ley sostiene que el riesgo de un desempleo masivo en una economía competitiva es despreciable, porque la oferta crea su propia demanda, limitada por la cantidad de mano de obra y los recursos naturales disponibles para producir. Cada aumento de la producción aumenta los salarios y los demás ingresos que se necesitan para poder comprar esa cantidad adicional producida. Marxismo La oposición a la escuela de pensamiento clásico vino de la mano de los primeros autores socialistas, como el filósofo social francés, Claude Henri de Rouvroy conde de Saint-Simon, y del utópico británico Robert Owen. Sin embargo, fue Karl Marx el autor de las teorías económicas socialistas más importantes. Para la perspectiva clásica del capitalismo, el marxismo representó una seria recusación, aunque no dejaba de ser, en algunos aspectos, una variante de la temática clásica. Por ejemplo, Marx adoptó la teoría del valor trabajo de Ricardo. Con algunas matizaciones, Ricardo explicó que los precios eran la consecuencia de la cantidad de trabajo que se necesitaba para producir un bien. Ricardo formuló esta teoría del valor para facilitar el análisis, de forma que se pudiera entender la diversidad de precios. Para Marx, la teoría del valor trabajo representaba la clave del modo de proceder del capitalismo, la causa de todos los abusos y de toda la explotación generada por un sistema injusto. Exiliado de Alemania, Marx pasó muchos años en Londres, donde vivió gracias a la ayuda de su amigo y colaborador Friedrich Engels, y a los Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 56 ingresos derivados de sus ocasionales contribuciones en la prensa. Desarrolló su extensa teoría en la biblioteca del Museo Británico. Los estudios históricos y los análisis económicos de Marx convencieron a Engels de que los beneficios y los demás ingresos procedentes de una explotación sin escrúpulos de las propiedades y las rentas son el resultado del fraude y el poder que ejercen los fuertes sobre los débiles. Sobre esta crítica se alza la crítica económica que desemboca en la certificación histórica de la lucha de clases. La ‘acumulación primitiva’ en la historia económica de Inglaterra fue posible gracias a la delimitación y al cercamiento de las tierras. Durante los siglos XVII y XVIII los terratenientes utilizaron su poder en el Parlamento para quitar a los agricultores los derechos que por tradición tenían sobre las tierras comunales. Al privatizar estas tierras, empujaron a sus víctimas a las ciudades y a las fábricas. Sin tierras ni herramientas, los hombres, las mujeres y los niños tenían que trabajar para conseguir un salario. Así, el principal conflicto, según Marx, se producía entre la denominada clase capitalista, que detentaba la propiedad de los medios de producción (fábricas y máquinas) y la clase trabajadora o proletariado, que no tenía nada, salvo sus propias manos. La explotación, eje de la doctrina de Karl Marx, se mide por la capacidad de los capitalistas para pagar sólo salarios de subsistencia a sus empleados, obteniendo de su trabajo un beneficio (o plusvalía), que era la diferencia entre los salarios pagados y los precios de venta de los bienes en los mercados. Aunque en el Manifiesto Comunista (1848) Marx y Engels pagaban un pequeño tributo a los logros materiales del capitalismo, estaban convencidos que estos logros eran transitorios y que las contradicciones inherentes al capitalismo y al proceso de lucha de clases terminarían por destruirlo, al igual que en el pasado había ocurrido con el extinto feudalismo medieval. A este respecto, los escritos de Marx se alejan de la tradición de la economía clásica inglesa, siguiendo la metafísica del filósofo alemán George Wilhelm Friedrich Hegel, el cual consideraba que la historia de la humanidad y de la filosofía era una progresión dialéctica: tesis, antítesis y síntesis. Por ejemplo, una tesis puede ser un conjunto de acuerdos económicos, como el feudalismo o el capitalismo. Su contrapuesto, o antítesis, sería, por ejemplo, el socialismo, como sistema contrario al capitalismo. La confrontación de la tesis y la antítesis daría paso a una evolución, que sería la síntesis, en este caso, el comunismo que permite combinar la tecnología capitalista con la propiedad pública de las fábricas y las granjas. A largo plazo, Marx creía que el sistema capitalista desaparecería debido a que su tendencia a acumular la riqueza en unas pocas manos provocaría crecientes crisis debidas al exceso de oferta y a un progresivo aumento del desempleo. Para Marx, la contradicción entre los adelantos tecnológicos, y el consiguiente aumento de la eficacia productiva, y la reducción del poder adquisitivo que impediría adquirir las cantidades adicionales de productos, sería la causa del hundimiento del capitalismo. Según Marx, las crisis del capitalismo se reflejarían en un desplome de los beneficios, una mayor conflictividad entre trabajadores y empresarios e Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 57 importantes depresiones económicas. El resultado de esta lucha de clases culminaría en la revolución y en el avance hacia, en primer lugar, el socialismo, para al fin avanzar hacia la implantación gradual del comunismo. En una primera etapa todavía sería necesario tener un Estado que eliminara la resistencia de los capitalistas. Cada trabajador sería remunerado en función de su aportación a la sociedad. Cuando se implantara el comunismo, el Estado, cuyo objetivo principal consiste en oprimir a las clases sociales, desaparecería, y cada individuo percibiría, en ese porvenir utópico, en razón de sus necesidades. Los neoclásicos La economía clásica partía del supuesto de escasez, como lo muestra la ley de rendimientos decrecientes y la doctrina malthusiana sobre la población. A partir de la década de 1870, los economistas neoclásicos como William Stanley Jevons en Gran Bretaña, Léon Walras en Francia, y Karl Menger en Austria, imprimieron un giro a la economía, abandonaron las limitaciones de la oferta para centrarse en la interpretación de las preferencias de los consumidores en términos psicológicos. Al fijarse en el estudio de la utilidad o satisfacción obtenida con la última unidad, o unidad marginal, consumida, los neoclásicos explicaban la formación de los precios, no en función de la cantidad de trabajo necesaria para producir los bienes, como en las teorías de Ricardo y de Marx, sino en función de la intensidad de la preferencia de los consumidores en obtener una unidad adicional de un determinado producto. El economista británico Alfred Marshall, en su obra maestra, Principios de Economía (1890), explicaba la demanda a partir del principio de utilidad marginal, y la oferta a partir del coste marginal (coste de producir la última unidad). En los mercados competitivos, las preferencias de los consumidores hacia los bienes más baratos y la de los productores hacia los más caros, se ajustarían para alcanzar un nivel de equilibrio. Ese precio de equilibrio sería aquel que hiciera coincidir la cantidad que los compradores quieren comprar con la que los productores desean vender. Este equilibrio también se alcanzaría en los mercados de dinero y de trabajo. En los mercados financieros, los tipos de interés equilibrarían la cantidad de dinero que desean prestar los ahorradores y la cantidad de dinero que desean pedir prestado los inversores. Los prestatarios quieren utilizar los préstamos que reciben para invertir en actividades que les permitan obtener beneficios superiores a los tipos de interés que tienen que pagar por los préstamos. Por su parte, los ahorradores cobran un precio a cambio de ceder su dinero y posponer la percepción de la utilidad que obtendrán al gastarlo. En el mercado de trabajo se alcanza asimismo un equilibrio. En los mercados de trabajo competitivos, los salarios pagados representan, por lo menos, el valor que el empresario otorga a la producción obtenida durante las horas trabajadas, que tiene que ser igual a la compensación que desea recibir el trabajador a cambio del cansancio y el tedio laboral. La doctrina neoclásica es, de forma implícita, conservadora. Los defensores de esta doctrina prefieren que operen los mercados competitivos Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 58 a que haya una intervención pública. Al menos hasta la Gran Depresión de la década de 1930, se defendía que la mejor política era la que reflejaba el pensamiento de Adam Smith: bajos impuestos, ahorro en el gasto público y presupuestos equilibrados. A los neoclásicos no les preocupa la causa de la riqueza, explican que la desigual distribución de ésta y de los ingresos, se debe en gran medida a los distintos grados de inteligencia, talento, energía y ambición de las personas. Por lo tanto, el éxito de cada individuo depende de sus características individuales, y no de que se beneficien de ventajas excepcionales o sean víctimas de una incapacidad especial. En las sociedades capitalistas, la economía clásica es la doctrina predominante a la hora de explicar la formación de los precios y el origen de los ingresos. Economía keynesiana John Maynard Keynes fue alumno de Alfred Marshall y defensor de la economía neoclásica hasta la década de 1930. La Gran Depresión sorprendió a economistas y políticos por igual. Los economistas siguieron defendiendo, a pesar de la experiencia contraria, que el tiempo y la naturaleza restaurarían el crecimiento económico si los gobiernos se abstenían de intervenir en el proceso económico. Por desgracia, los antiguos remedios no funcionaron. En Estados Unidos, la victoria en las elecciones presidenciales de Franklin D. Roosevelt (1932) sobre Herbert Hoover marcó el final político de las doctrinas del laissez-faire. Se necesitaban nuevas políticas y nuevas explicaciones, que fue lo que en ese momento proporcionó Keynes. En su imperecedera Teoría general sobre el empleo, el interés y el dinero (1936), aparecía un axioma central que puede resumirse en dos grandes afirmaciones: (1) las teorías existentes sobre el desempleo no tenían ningún sentido; ni un nivel de precios elevado ni unos salarios altos podían explicar la persistente depresión económica y el desempleo generalizado. (2) Por el contrario, se proponía una explicación alternativa a estos fenómenos que giraba en torno a lo que se denominaba demanda agregada, es decir, el gasto total de los consumidores, los inversores y las instituciones públicas. Cuando la demanda agregada es insuficiente, decía Keynes, las ventas disminuyen y se pierden puestos de trabajo; cuando la demanda agregada es alta y crece, la economía prospera. A partir de estas dos afirmaciones genéricas, surgió una poderosa teoría que permitía explicar el comportamiento económico. Esta interpretación constituye la base de la macroeconomía contemporánea. Puesto que la cantidad de bienes que puede adquirir un consumidor está limitada por los ingresos que éste percibe, los consumidores no pueden ser responsables de los altibajos del ciclo económico. Por lo tanto, las fuerzas motoras de la economía son los inversores (los empresarios) y los gobiernos. Durante una recesión, y también durante una depresión económica, hay que fomentar la inversión privada o, en su defecto, aumentar el gasto público. Si lo que se produce es una ligera contracción, hay que facilitar la concesión de créditos y reducir los tipos de interés (sustrato fundamental de la política monetaria), para estimular la inversión privada y restablecer la demanda agregada, aumentándola de forma que se pueda alcanzar el pleno empleo. Si la contracción de la economía es grande, habrá que incurrir en déficit Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 59 presupuestarios, invirtiendo en obras públicas o concediendo subvenciones a fondo perdido a los colectivos más perjudicados. Economía analítica Tanto la teoría neoclásica de los precios como la teoría keynesiana de los ingresos han sido desarrolladas de forma analítica por matemáticos, utilizando técnicas de cálculo, álgebra lineal y otras sofisticadas técnicas de análisis cuantitativo. En la especialidad denominada econometría se une la ciencia económica con la matemática y la estadística. Los económetras crean modelos que vinculan cientos, a veces miles de ecuaciones, para intentar explicar el comportamiento agregado de una economía. Los modelos econométricos son utilizados por empresas y gobiernos como herramientas de predicción, aunque su grado de precisión no es ni mayor ni menor que cualquier otra técnica de previsión del futuro. El análisis operativo y el análisis input-output son dos especialidades en las que cooperan los expertos en análisis económico y los matemáticos. El análisis operativo subraya la necesidad de plantear los problemas de una manera sistemática. Por lo general, se trata de coordinar los distintos departamentos y las diferentes operaciones que tienen lugar en el seno de una corporación que dirige varias fábricas, produciendo muchos bienes, por lo que hay que utilizar las instalaciones de forma que se puedan minimizar los costes y maximizar la eficiencia. Para ello se acude a ingenieros, economistas, psicólogos laboralistas, estadísticos y matemáticos. Según su propio inventor, el economista estadounidense, de origen ruso, Wassily Leontief, las tablas input-output “describen el flujo de bienes y servicios entre todos los sectores industriales de una economía durante determinado periodo”. Aunque la construcción de esta tabla es muy compleja, este método ha revolucionado el pensamiento económico. Hoy está muy extendido como método de análisis, tanto en los países socialistas como en los capitalistas. Sistemas económicos En toda comunidad organizada se mezclan, en mayor o menor medida, los mercados y la actividad de los gobiernos. Es más, el grado de competencia de los mercados varía, desde aquellos en los que sólo opera una empresa, ejerciendo un monopolio, hasta la competencia perfecta de un mercado en el que operan cientos de minoristas. Lo mismo ocurre en cuanto a la intervención pública, que abarca desde la intervención mínima al regular impuestos, crédito, contratos y subsidios, hasta el control de los salarios y los precios de los sistemas de economía planificada que imperan en los países comunistas. Incluso en las sociedades en las que se defiende a ultranza la planificación de la economía se ha tenido que modificar la postura oficial y se hacen concesiones a la empresa privada. Por ejemplo, la Unión Soviética permitía a sus agricultores, aunque fuese a través de empresas colectivas, vender las cosechas de sus parcelas privadas. Durante la dominación comunista en Polonia, casi todas las granjas estaban en manos privadas. En Yugoslavia se permitió la gestión de las fábricas por los trabajadores bajo el mandato del Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 60 mariscal Tito, que al mismo tiempo asentaba la evolución de su régimen hacia sistemas de economía mixta, alejados de las premisas dominantes en la Unión Soviética. En las economías de mercado también se producen este tipo de divergencias. En casi todas existe monopolio estatal sobre las líneas aéreas y los ferrocarriles. Incluso en los países en los que el Estado no tiene empresas públicas, como en Japón, su influencia sobre la actividad económica es enorme. En Estados Unidos, el más firme defensor de la economía de mercado, el gobierno ha tenido que intervenir para evitar la quiebra de empresas en crisis, como Lockheed y Chrysler; de hecho, ha convertido a los principales fabricantes de armamento en empresas públicas de facto. Muchos economistas estadounidenses han tenido que aceptar la existencia de una economía mixta: combinación de iniciativa privada e intervención del gobierno. Sistema de libre empresa Las principales diferencias entre la organización económica planificada y la capitalista radica en quién es el propietario de las fábricas, granjas y el resto de las empresas, así como en sus diferentes puntos de vista sobre la distribución de la renta o la forma de establecer los precios. En casi todos los países capitalistas, una parte importante del producto nacional bruto (PNB) la producen las empresas privadas, los agricultores e instituciones no gubernamentales como universidades y hospitales privados, cooperativas y fundaciones. Aunque existe una fuerte oposición en los países industrializados al control de precios y a la planificación de la economía, los gobiernos han tenido que recurrir a este tipo de medidas en casos de emergencia, como durante la II Guerra Mundial. Sin embargo, en las economías de libre mercado se considera que la propiedad pública de medios de producción y la intervención pública en la fijación de precios son excepciones, que se deben evitar, a las reglas de la propiedad privada y de la fijación de precios a través de mercados competitivos. Planificación central La visión totalmente opuesta a la anterior es la que prevalece en China y en otros países comunistas, donde predomina la tendencia hacia la planificación centralizada de la economía. Aunque cada vez se tolera más la existencia de empresas privadas, y a pesar de que ninguna economía planificada ha podido funcionar sin cierto grado de privatización de la agricultura, la ideología dominante favorece la planificación estatal, al menos en teoría, para fijar los precios, la propiedad pública de las fábricas, las granjas y las grandes redes de distribución, públicas. En teoría no existe ninguna razón que impida a una sociedad democrática optar por una planificación centralizada de la producción, los precios y la distribución de la renta. Sin embargo, la experiencia demuestra que la planificación central de las economías ha ido en general acompañada del control del partido. No obstante, existen importantes diferencias en el grado de control entre los distintos países comunistas, e incluso en un mismo país a Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 61 lo largo del tiempo. Y también se puede constatar que el capitalismo a veces ha ido acompañado de regímenes políticos totalitaristas, como por ejemplo en Chile y en Brasil. Los principales problemas a los que se enfrenta el capitalismo son el desempleo, la inflación y las injustas desigualdades económicas. Los problemas más graves de las economías planificadas son el subempleo o el masivo empleo encubierto, el racionamiento, la burocracia y la escasez de bienes de consumo. Economías mixtas En una situación intermedia entre la economía planificada y la economía de libre mercado se encuentran los países socialdemócratas o liberal socialistas. Entre ellos destacan las democracias de los países escandinavos, sobre todo Suecia. En este país la actividad económica recae en su mayor parte sobre el sector privado, pero el sector público regula esta actividad, interviniendo para proteger a los trabajadores y redistribuir la renta entre los de mayores y los de menores ingresos. Por otra parte, la antigua Yugoslavia constituyó otro ejemplo importante de economía mixta entre la década de 1950 y la de 1980. Aunque el partido comunista institucional seguía ejerciendo un férreo control, la censura fue escasa, la emigración no estaba prohibida, existía libertad de cultos y una mezcla de propiedad pública, cooperativismo y propiedad privada, que crearon una economía bastante próspera. Problemas económicos actuales Entre 1945 y 1973 las economías de los países industrializados de Europa occidental, Japón y Estados Unidos crecieron lo suficiente para aumentar el nivel de vida de sus ciudadanos. En algunos países menos industrializados también se produjo un crecimiento similar, sobre todo en los del Sureste asiático como Taiwan, Hong Kong, Singapur y Corea del Sur. Este crecimiento se debió a una serie de circunstancias. Tras la destrucción del tejido económico ocurrida durante la II Guerra Mundial, se produjo una expansión económica sin precedentes, gracias, entre otras, a la ayuda financiera que Estados Unidos concedió a los países de Europa occidental y a Japón. Las multinacionales estadounidenses realizaron fuertes inversiones en todo el mundo. Es probable que los factores que más contribuyeron a su desarrollo fueran los bajos precios y la abundancia de los productos energéticos (sobre todo petróleo). Problemas energéticos En 1973 la creciente demanda internacional de petróleo hizo que los precios se dispararan. Ese año la Organización de Países Exportadores de Petróleo (OPEP), que controlaba la producción mundial, aprovechó su poder para elevar los precios. Las políticas llevadas a cabo por la OPEP redujeron las posibilidades de crecimiento económico tanto de los países industrializados como de los países en vías de desarrollo que no tenían reservas petrolíferas. El barril de petróleo bruto costaba en el otoño de 1973 dos dólares; a mediados de 1981 su precio se había multiplicado por 20. Para los países ricos, las importaciones de petróleo suponían una transferencia de Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 62 rentas y riqueza a los países de la OPEP. Los países en vías de desarrollo importadores de petróleo tuvieron que acudir a la financiación de los grandes bancos de Europa occidental y de Estados Unidos. Asfixiados por el pago de intereses, los países menos industrializados se han visto obligados a frenar sus planes de desarrollo. Aunque la gran caída de los precios energéticos durante la segunda mitad de la década de 1980 benefició a los consumidores de los países importadores, supuso un grave quebranto para los ingresos de los países exportadores menos desarrollados, como México, Nigeria, Venezuela e Indonesia. Inflación y recesión Algunos de los países más desarrollados, como Japón y Alemania Occidental (ahora perteneciente a la unificada República Federal de Alemania), lograron superar la crisis de las décadas de 1970 y 1980 mejor que el resto de los países. Sin embargo, todos los países desarrollados han tenido que enfrentarse al problema de una alta inflación acompañada de altas tasas de desempleo y escaso crecimiento económico. La transformación que impuso la OPEP en el mercado energético mundial agravó los problemas de inflación al elevar los precios del petróleo y, por lo tanto, aumentar el coste de la calefacción y de la producción de importantes bienes que utilizan petróleo en sus procesos de producción, entre los que hay que destacar los fertilizantes químicos, los productos plásticos, las fibras sintéticas y los productos farmacéuticos. Estos precios elevados reducían el poder adquisitivo de la misma manera que lo hubiese hecho un impuesto sobre la renta alto. La pérdida de poder adquisitivo hizo que el volumen de ventas de bienes de consumo disminuyera, lo que provocó el despido de numerosos trabajadores y la ruina de otros tantos comerciantes, lo que produjo un efecto en cadena perjudicial para toda la economía. El papel del gobierno Estos problemas han fomentado el debate sobre el papel que deben desempeñar los gobiernos. Los partidos de izquierdas de Europa abogan por mayores controles y más planificación. Durante la década de 1980, el Partido Conservador de la primera ministra británica, Margaret Thatcher, y el presidente estadounidense Ronald Reagan, ofrecieron una solución bien distinta. Redujeron los impuestos y la regulación por parte del gobierno, y permitieron que las empresas obtuvieran mayores beneficios para que pudiesen emprender nuevas inversiones que aumentaran la productividad y así reanimar la actividad económica. Estas políticas son ejemplo de medidas desde el lado de la oferta, eje de la doctrina que inspiró a ambos políticos. El razonamiento implícito de esta política es que, al aumentar los estímulos a la inversión, la toma de riesgos y el aumento del trabajo, la tecnología reducirá los costes de las fuentes de energía usadas como alternativa al petróleo y los sectores no relacionados con la energía, como la informática o la agricultura moderna, lo que permitiría aumentar la tasa de crecimiento, gracias a una dinámica innovadora. Economías en vías de desarrollo Los países menos industrializados necesitan la ayuda de los países ricos para poder generar el capital, la tecnología y la organización necesarias para Integración Eléctrica II – 2004- Ing. Fernando Sergio García Página 63 desarrollarse. Asimismo, es necesario que puedan acceder con facilidad a los mercados de los países industrializados para vender sus productos manufacturados y las materias primas que poseen. Sin embargo, la capacidad política de los países ricos para atender estas necesidades depende de que puedan solucionar sus propios problemas, como la inflación, el desempleo y el estancamiento del crecimiento. En los países democráticos, es muy difícil lograr el apoyo de la población para conceder ayuda financiera a otros países cuando el salario medio de los ciudadanos es reducido. Tampoco resulta fácil permitir la entrada de productos del exterior más baratos cuando se considera que son la causa del desempleo nacional. La economía del desarrollo está muy limitada por consideraciones de tipo político. Previsiones ante el futuro A principios de la década de 1990, la desaparición del bloque soviético, unida a la caída de los regímenes de la Europa del Este, subrayaron la tendencia hacia las economías de libre mercado y el alejamiento de la doctrina de planificación centralizada. En un intento por evitar el legado de ineficacia y mala gestión, los países ex-comunistas tuvieron que competir con los países en vías de desarrollo para acceder a la ayuda financiera y tecnológica de Occidente. No hay acuerdo sobre la posibilidad de sostener un crecimiento económico ininterrumpido. Los más optimistas confían en la capacidad para incrementar las cosechas agrícolas y aumentar la productividad en la industria gracias a las innovaciones tecnológicas. Los más pesimistas recuerdan la ley de los rendimientos decrecientes, la falta de control sobre el crecimiento de la población mundial, los enormes gastos en la industria militar y las reticencias de las naciones posindustrializadas para compartir su riqueza y su tecnología con los países más desfavorecidos. Aunque algunos países en vías de desarrollo han logrado elevar sus tasas de crecimiento, la inestabilidad política, la corrupción endémica, y los grandes cambios de política económica hacen que las previsiones para el futuro no sean tan optimistas.