Biela 7.65 ISSN 2386-639X 04 9 772386 639006 AÑO 2 NÚMERO 4 ENERO 2015 REVISTA DEL MUNDO DE LA INGENIERÍA Y LA CONTRUCCIÓN PARQUES EÓLICOS Implantación y Distribución Ascensores hidráulicos en Rehabilitación El autogiro de Juan de la Cierva 2 Nº04. Enero de 2015 CONTENIDO página 4 Energía GEOTÉRMICA en edificación. página 10 Evolución del cable COAXIAL. página 14 Torres COLÓN Madrid página 20 Motores de COMBUSTIÓN Interna. página 24 El AUTOGIRO de Juan de la Cierva. página 26 ASCENSORES HIDRÁULICOS en reformas de edificios página 32 Sobrealimentación en MOTORES ALTERNATIVOS Nº04. Enero de 2015 3 CONTENIDO página 36 Tecnologías para el ahorro de agua. página 40 FRÍO artificial página 46 Control de parámetros y pruebas de carga e integridad en PILOTES insitu página 52 Implantación de PARQUES EÓLICOS página 58 Energía del Sol en la Tierra ITER página 58 Análisis de los RIESGOS BIOLOGICOS en la edificación: animales e insectos I Biela 7.65 es el órgano de expresión del Centro de Formación IAE. info@ingenierosalejercito.com Edita el Centro de Formación IAE. Dirección: L.T. de Garnez. Consejo de Redacción: Borja Gavila, Daniel Merchán, David Rubio, Fernando Gómez, Luis Muñoz, Marcos Vizoso, Oscar Escudero, Rafael Castro, Fernando Martel, Rubén Fdez de la Riva, Fernando Abad, Carlos Sotodosos, Jesús Rosado Secretaría del Consejo de Redacción: Félix-Álvaro Pajares Ruiz. C/ Fernández de los Ríos 93, Soportal, Madrid. Imprime: Centro de Impresión DaBe Biela 7.65 no comparte necesariamente las opiniones vertidas ni se responsabiliza de la autoría de la imágenes incluidas en los artículos firmados por su Consejo de Redacción. 4 Nº04. Enero de 2015 LA ENERGÍA GEOTÉRMICA EN LA EDIFICIACIÓN RUBÉN DE LA RIVA FERNÁNDEZ:. ARQUITECTO TÉCNICO INTRODUCCIÓN Este articulo al igual que el anterior forma parte del que fue mi proyecto fin de grado, el cual estaba basado en la instalación de una bomba geotérmica utilizada para la climatización de un edificio. En este articulo explicaran de forma específica los diferentes sistemas de los cuales disponemos en la actualidad para las instalaciones geotérmicas El objetivo es dar a conocer un sistema que para muchos es actualmente desconocido en nuestro país y el cual tiene una gran proyección de futuro ¿QUÉ ES LA ENERGÍA SOLAR? La energía geotérmica es ese tipo de energía la cual vamos a poder obtener mediante el aprovechamiento de las diferentes temperaturas existentes en el interior de la Tierra y la superficie de esta, es de- cir, la que se va a obtener del calor interno de la Tierra. A diferencia de la mayoría de las energías renovables, las cuales tienen su origen en el Sol, y por tanto dependen del clima, la geotérmica es una energía fiable en cuanto a seguridad de suministro, por lo que podemos considerarla la mas constante y continua de todas las energías renovables. El calor interno de la tierra puede manifestarse en el exterior en forma de géiseres o fuentes termales, que ya fueron aprovechadas por los romanos para la construcción de termas. Pero por lo general este calor interno de la Tierra se encuentra muy profundo para disponer de él de forma rentable, por lo que se deberán buscar áreas donde los procesos geológicos han incrementado la temperatura lo suficientemente cerca de la superficie, que el calor contenido pueda ser utilizado de manera eficiente. Para la extracción de este tipo de energía, generalmente utilizaremos agua, que mediante un circuito se introducirá en el subsuelo y transportará el calor hasta el exterior, también se utilizará un intercambiador de calor tierra-aire enterrados a poca profundidad en el subsuelo. Una vez extraído el calor del interior de la Tierra, éste se aprovechará o bien para general electricidad, si el calor es suficientemente elevado, o para aprovechar el calor de forma térmica mediante intercambiadores de calor o bombas de calor. Actualmente existen más de un millón de instalaciones geotérmicas en todo el mundo, cuyas localizaciones dependen en gran medida del gradiente geotérmico de la zona, esto no es más que la distancia a la que necesitamos profundizar en la tierra, para aumentar la temperatura un grado, cuanto mayor gradiente térmico por metro tengamos (ºC/m) mayor aumento de temperatura por metro profundizado tendremos. Con esto podemos concretar que este tipo de energía al contrario que la energía fósil, no es una energía que esté localizada en unas zonas concretas de la Tierra, si no que se puede disponer de ella en cualquier lugar. Lo único que abría que hacer sería profundizar más o menos y por tanto sería una energía más o menos difícil de extraer, pero al fin y al cabo, posible de extraer en cualquier parte. Se podría considerar como una energía prácticamente inagotable, ya que aunque se sabe que la Tierra se está enfriando, la velocidad de enfriamiento es muy lenta y por tanto este tipo de energía puede ser aprovechada durante miles y miles de años. Nº04. Enero de 2015 PONER AQUÍ IMAGEN Imagen 1 - Instalación geotérmica en vivienda unifamiliar “www.energíaeficaz.es” Además de ser una fuente inagotable el periodo o vida útil de este tipo de explotaciones suele rondar entre los 20 y los 40 años, todo depende del sistema utilizado, pero con un buen sistema éste enfriamiento se puede llegar a compensar en esos meses en los que no es necesaria la extracción de calor para generar energía térmica. 5 Relacionando este tipo de instalaciones con la edificación, cabe destacar el elevado coste inicial para instalación de una bomba geotérmica, incluyendo sondeos y estudios del terreno, todo esto supone un coste mucho más elevado, prácticamente el doble, de una instalación de climatización o refrigeración habitual. Pero los costes de explotación suelen ser muy reducidos, debido al reducido coste de mantenimiento que necesita y al alto rendimiento del sistema llegando hasta un rendimiento del 200% al 400%, muy superior al rendimiento máximo que puede generar un equipo eléctrico estándar que es del 100%, por lo que nos encontramos ante un tipo de energía muy eficiente. Otra ventaja de este tipo de instalaciones en viviendas, es que es un tipo de energía que se explota y se consume en el mismo sitio sin Imagen 2 - Temperaturas internas de la Tierra a diferentes temperaturas “www.burderus.es” necesidad de transportarla y por tanto sin que se produzcan pérdidas por el camino. A todo esto también hay que sumarle el reducido impacto visual que suponen este tipo de instalaciones mucho más compactas y más fáciles de integrar en el entorno. TIPOS DE ENERGÍA GEOTÉRMICA La clasificación de la energía geotérmica se realizara en función del tipo de yacimiento que dispongamos, esto dependerá del punto o zona geográfica donde encontremos unas condiciones adecuadas para la explotación eficiente de los recursos geotérmicos del subsuelo. Las condiciones, serán diferentes dependiendo del tipo de explotación que queramos realizar y dependerán principalmente del nivel de temperatura y del tipo de utilización 6 Nº04. Enero de 2015 Para extraer dicho calor, se inyecta agua por una perforación y se recupera caliente por otra aprovechando el calor por medio de un intercambiador, y se vuelve a reinyectar dicho agua al terreno. Imagen 3 - Areas en el mundo con mayor potencial geotérmico “www.centralenergia.com” Los yacimientos óptimos para ser explotados serán aquellos que dispongan de una gran acumulación de agua caliente a poca o media profundidad y así poder aprovechar dicho calor de manera eficiente. El agua caliente o el vapor pueden fluir naturalmente por bombeo o por impulsos de flujos de agua y de vapor. El método a elegir dependerá de cada caso, escogiendo la opción viable más económica. Para poder realizar la explotación de un yacimiento de forma eficiente éste no tendrá que estar a una profundidad mayor a los 5.000 metros y no tener una temperatura superior a los 400 ºC. Así pues, se establecen cuatro tipos de energía geotérmica. Las zonas geográficas que reúnen las condiciones necesarias para poder explotar un yacimiento de este tipo están muy extendidas. A partir de 10m. de profundidad el suelo ya es capaz de almacenar el calor que recibe del Sol durante las estaciones más cálidas, pudiendo permanecer la temperatura constante durante todo el año. A partir de 15 m. donde la temperatura igualmente permanece constante pero ya es totalmente independiente del clima superficial y sólo depende las condiciones geotérmicas. Por debajo de los 20 m. de profundidad, la temperatura aumenta a razón de unos 3 ºC cada 100 m. como consecuencia del gradiente geotérmico. En la mayor parte de la corteza terrestre podemos encontrar una tem- peratura entorno a 25 - 30 ºC a 500 m. de profundidad. 2. BAJA TEMPERATURA En este caso nos encontramos en una temperatura entre 30 y 90 ºC. Para esto necesitamos unas zonas en que el gradiente geotérmico sea algo superior, lo cual generalmente se produce a profundidades entorno a 1.500 y 2.500 m. Para llegar a tales profundidades la mayoría de las veces se hará mediante sondeos. 3. MEDIA TEMPERATURA Son yacimientos con temperaturas comprendidas entre los 90 y 150 ºC que se encuentran localizados sobre todo en cuencas sedimentarias y a profundidades entorno los 2.000 y los 4.000 m. También se pueden encontrar en zonas de adelgazamiento litosférico. Al igual que los yacimientos de alta temperatura, necesitan de la presencia de magma como fuente de calor. 1. MUY BAJA TEMPERATURA La temperatura que se obtendrá estará entorno a los 1030 ºC y su uso principal y casi exclusivo es doméstico (bomba de calor geotérmica). En este caso nos encontramos que hay una zona bajo la Tierra a profundidad no excesiva, donde encontramos materiales o piedras calientes debido a que aprovechan el calor solar acumulado, lo que se conoce como cantidad de entalpía. Imagen 4 - Zonas geotérmicas en España “www.mapfre.com” Nº04. Enero de 2015 4. ALTA TEMPERATURA Nos encontramos en el caso de obtención de mayor temperatura: superior a 150 ºC, cuyas zonas tienen que tener un gradiente térmico muy elevado entorno a 30ºC por cada 100 m. Estas zonas requieren de la existencia de magma, de ahí que su localización esté próxima a regiones volcánicas situadas en los bordes de las placas litosféricas. También es necesaria la presencia de materiales impermeables que actúen como almacenes para el que el agua estancada a gran profundidad se mantenga caliente. Se suelen explotar a profundidades comprendidas entre 1.500 y 3.000 m. Lo que diferencia a los sondeos en este tipo de yacimientos del resto es la hostilidad del medio donde se va a perforar. Este tipo de yacimientos por tanto son los mejores para la generación de electricidad mediante el movimiento de una turbina, producido por el vapor generado. Dentro de este mismo punto, podemos sacar como conclusión que para la generación eficiente de electricidad tienen que reunirse cuatro condiciones: que no haya que profundizar en exceso, que en el 7 Es por ello que los yacimiento de baja temperatura son los que mejor se adaptan a las necesidades de climatización de viviendas unifamiliares y de edificios residenciales. Esto viene limitado por 2 razones: PONER AQUÍ IMAGEN - No contiene vapor de agua por lo que no se pude generar electricidad y únicamente puede usarse para proporcionar calor a usuarios muy localizados. - Al extraer el agua de acuíferos poco profundos, éstos están llenos de sales por lo que para reservar el medio ambiente es necesaria la reinyección de agua otra vez al acuífero. En este tipo de yacimientos es asunto primordial estudiar cuál es la forma más eficiente de explotarlo sin llegar agotarlo, pudiendo satisfacer la demanda energética que necesita el inmueble ya que en principio la profundidad de obtención no es un problema al estar entorno a 400 - 500 m. En el caso de las bombas de calor geotérmicas, lo que se consigue mediante el captador enterrado es que en invierno dispondremos de una temperatura de partida mayor que la que habrá en el aire exterior Imagen 5 - Temperaturas en el subsuelo según profundidad y época del año “www.terraterm.es” Existen generadores termodinámicos con un coeficiente de rendimiento de hasta un 4,6 esto quiere decir que esta máquina de cada KW que consume de electricidad nos va a entregar 4,6 KW de calor. Las instalaciones más habituales que nos encontramos son 3. 1.CAPTADOR HORIZONTAL Éste es el sistema más utilizado en viviendas unifamiliares o residenciales debido a la sencillez en “La energía geotérmica no depende de las condiciones climáticas, por lo que se puede disponer de ella en cualquier lugar del mundo” yacimiento haya mucho calor, que tenga roca permeables y agua caliente. SISTEMAS DE CAPTACIÓN DE ENERGÍA GEOTÉRMICA Actualmente la mayor demanda energética que se produce en un inmueble se centra en la calefacción y el agua caliente sanitaria. de manera que para alcanzar los 21 ºC deseados tendremos que realizar un gasto de energía mucho menor. Lo mismo pasará en verano pero de forma inversa. El intercambio de calor con el subsuelo, permite proporcionar el mismo confort pero con unas necesidades de energía eléctrica mucho menores que el de una bomba de calor convencional. su instalación. Sólo se necesitará una profundidad de 0,8 m y una separación entre tubos de unos 0,6 m. por lo que dependerán en gran medida del clima exterior. Se enterrarán uno o varios circuitos de tubos de polietileno de unos 40 mm. de diámetro, conectados a una bomba de calor geotérmica, es como un suelo radiante de grandes dimensiones instalado en el terreno. 8 Nº04. Enero de 2015 res verticales están formados por dos tubos en U que bajan hasta una profundidad de unos 100 m, podemos diferenciar a su vez tres sistemas distintos 2.1 Verticales cerrados Imagen 6 - Sistemas geotérmicos de captación más habituales “www.idae.es” Éstos pueden llegar a satisfacer la demanda de calefacción de una vivienda de 150 m2, por lo que se necesitará disponer de una extensión de 1,5 a 3 veces la superficie a climatizar, para la colocación de la instalación. Se recomienda este tipo de instalación cuando la potencia demandada quede por debajo de los 30 KW. Para solventar los problemas de espacio que, en ocasiones, se plantean con este tipo de colectores, se han desarrollado unos intercambiadores de calor especialmente adecuados para sistemas que trabajan con bombas de calor para usos en calefacción y refrigeración. Un tipo de estos intercambiadores, los de tipo "slinky", se basa en la colocación de bobinas de polieti- leno en el terreno, extendiendo las sucesivas espiras e intercalando tierra seleccionada o arena. Dichas espiras pueden disponerse horizontalmente, en una zanja ancha, o verticalmente, en una zanja estrecha. 2. CAPTADORES VERTICALES El principio de recuperación de calor es similar al de los captadores horizontales; hacer circular por los tubos enterrados un fluido que absorba el calor del suelo y lo conduzca hasta la bomba de calor. En el caso de un captador vertical, este calor procede en parte del calor del subsuelo y en parte del calor solar almacenado en la capa superficial. En general, los captado- Este sistema es el más recomendable cuando se quiere realizar una instalación geotérmica, pero a su vez también es la opción más cara, debemos tener en cuenta que entre los 10 o 20 metros de profundidad la temperatura es constante durante todo el año, rondando entre los 7 y 14 ºC y por cada 100 metros de profundidad la temperatura aumenta 3 ºC,. Para su instalación se realizarán uno o varios sondeos, con profundidades de 20 - 100 m y diámetros de perforación de 10 - 15 cm. En cada perforación se introducen una o dos sondas en forma de U por donde circula el líquido que portará el calor. Este tipo de instalación es óptimo cuando no disponemos de una superficie suficiente para instalar colectores o cuando la demanda energética es mayor. 2.2 Verticales abiertos Estas sondas "abiertas" se utilizarán donde se tenga conocimiento de que existe una corriente subterránea de agua, ya que será esta la que se utilizará para el intercambio de energía. REFERENCIAS Y BIBLIOGRAFÍA: Instituto para la diversificación y ahorro de la energía (IDEA) “www.idae.es” Ministerio de industria, energía y turismo “www.minetur.gob.es” Aprovechamiento de la energía geotérmica en las instalaciones de climatización “García López, Ana María” Energía geotérmica de baja temperatura “Creus Solé, Antonio” Nº04. Enero de 2015 9 Estos sistemas necesitan como mínimo la excavación de dos sondeos, uno de producción con una bomba sumergida para extraer el agua y otro de retorno, así pues, se aprovechara ésta agua como líquido portador hasta la máquina, así una vez aprovechada su temperatura se devuelve al acuífero. El rendimiento de los sondeos de extracción debe ser necesario para garantizar a largo plazo el flujo nominal necesario para el funcionamiento de las bombas de calor asociadas al sistema; esto supone del orden de 0,25 m3/h por cada KW de potencia térmica. Dicho rendimiento dependerá de las condiciones geológicas locales. En el caso de que el conocimiento previo de estas últimas fuese insuficiente, sería necesario perforar un primer sondeo con el fin de realizar los oportunos ensayos de bombeo o incluso, la aplicación de técnicas geofísicas;. Imagen 7 - Usos de la energía geotérmica según su temperatura “www.desarrolloyenergía.com” de la cimentación, una red de tubos de polietileno, propileno o PVC en forma de conductos en U, por los que se hace circular agua con un anticongelante, que se conectan en circuito cerrado a una bomba de calor o a una máquina de refrigera- los sistemas de climatización tradicionales como el gas o el gas oil. 2. DESVENTAJAS - Necesidad de disponer de una superficie de terreno adecuada para su instalación. “Las bombas geotérmicas pueden desarrollar un rendimiento de hasta un 400%” 2.3 Cimientos geotérmicos Se aprovechan las estructuras de cimentación profunda de los edificios para captar y disipar la energía térmica del terreno. El caso más habitual es el ejecutado con pilotes, donde estas piezas de hormigón armado actúan como sondas geotérmicas, lo que convierte a la estructura en un campo de sondas. Los pilotes utilizados pueden ser prefabricados o montados in situ, con diámetros que varían entre 40 cm y más de 1 m. También puede aplicarse en zapatas, losas...etc. Este sistema se basa en insertar en la totalidad o en una parte ción. Una vez colocada la armadura de la cimentación en la excavación, ésta se rellena con hormigón de forma maciza. VENTAJAS Y DESVENTAJAS ENERGÍA GEOTÉRMICA 1. VENTAJAS - Puede proporcionar energía tanto en verano como en invierno, las 24h al día, 365 días al año. - Sistema muy eficiente, al disponer de bombas con un rendimiento muy elevado - Ahorro energético y económico de entre un 60 y un 80% respecto a - No se puede transportar como energía primaria. - Elevado coste de inicial, suponiendo un periodo de amortización entorno a los 12 o 17 años. El sistema será más idóneo cuanto más grande sea el edificio y mayor sea el tiempo de utilización de la instalación. CONCLUSIÓN La energía geotérmica es una de las más eficientes, pero también de las mas caras, es por ello que con el avance del tiempo y las tecnologías, el coste de su ejecución se reduzca, llegando a ser la energía más rentable y utilizada de todas. 10 Nº04. Enero de 2015 LA EVOLUCIÓN DE LAS REDES DE CABLE RAFAEL CASTRO REYES. ARQUITECTO TÉCNICO. venta de televisores gracias a la calidad de la señal recibida, apostó por este sistema y fue un éxito, naciendo así la primera red de cable. Estas antenas, denominadas CATV (Community Antenna Tv), se expandieron rápidamente por toda América. Nº 1. John Walson. Inventor de las redes de cable. Ref: Google Corría el año 1948, cuando John Walson creo la primera red de cable en la ciudad de Astoria, Oregón, para solventar el problema existente en aquella ciudad, debido a que según la oreografía del terreno, la señal que llegaban a las antenas locales era insuficiente, por lo que el técnico, situó una antena encima de una colina y llevó la señal hacia su tienda mediante un cable. Dado el éxito del experimento y la creciente Pero pronto gracias a la visión capitalista y empresarial americana, se optó por un uso más rentable de este descubrimiento. En Landsford (Pennsylvania) varios propietarios de tiendas de electrodomésticos pusieron en marcha la iniciativa mencionada, pero introdujeron una substancial diferencia: En este caso se constituyeron como una empresa privada que redistribuían la señal mediante el cable a cambio de una cuota mensual. En 1950, este sistema ya tenía 14.000 abonados y una década más tarde la cifra superaba los 850.000 abonados. Poco a poco se fue mejorando este sistema y completándolo cada vez más im- portando señales de televisión de otros países y ofreciéndosela en abierto a todos los abonados de la red. Debido al daño que causaron estas redes de cable a las distintas televisiones locales se crearon restricciones legislativas que frenaron el desarrollo del cable. Fue en 1972 cuando estas restricciones cesaron, creando un gran mercado del cable que a finales de los años setenta disfrutaban más de quince millones de americanos. En la década de los noventa, fue la época de máxima expansión de este mercado en Estados Unidos alcanzando una penetración del 97% en los hogares americano. Sin embargo, en España las redes de CATV no gozaron de tanto éxito en su implantación. En España todo empieza con la iniciativa propia de pequeños empresarios llamados cableoperadores que exitían en los pueblos y que con sus respectivas licencias municipales desplegaron Nº04. Enero de 2015 11 nica no podría desplegar una red de cable en el mismo municipio. PONER AQUÍ IMAGEN Nº 2. Cable coaxial tipo RG6 con clavija tipo F . Ref: Google Sus redes, sin embargo, al ser por iniciativa propia para cubrir una necesidad que sólo existía en los pequeños municipios, estos fueron los que desarrollaron sus redes de cable coaxial, dejando al margen a las grandes ciudades. Fue en el año 1995 cuando apareció la Ley que regulaba este mercado en España, dando lugar posteriormente a las licencias del cable otorgadas por el Ministerio de Fomento mediante concurso público. Con esta licencia, los cableoperadores podían dar todos los servicios de telecomunicaciones. Sin embargo la ley establecía que durante dos años, Telefó- Pasado esos dos años Telefónica en vez de apostar por desplegar las redes de cable coaxial, apostó por una tecnología emergente, el xDSL., abandonando el compromiso que tenía con la administración debido a la millonária inversión que suponía el despliegue de nuevo de estas redes. Telefónica argumentó que el coaxial ya era una tecnología obsoleta y que mediante la tecnología xDSL se podría dar servicios de internet mediante las redes de pares de cobre que ya tenía desplegada por todo el territorio nacional.. El cable coaxial, es una de las mejores tecnologías que mejor se adaptan para el acceso a internet, debido a sus altísimas prestaciones como medio de transporte digital, por su idoneidad en el diseño de red pensada para el transporte masivo de datos y por su capacidad de integrar telefonía, televisión e internet.. La arquitectura de las primeras redes de cable eran de tipo árbol, con Nº 3 Dos operarios trabajando sobre una red de cable. Ref: Google lo que la distintas redes conectaban la cabecera con los abonados finales por multitud de ramificaciones conectadas mediante splitter y numerósos amplificadores intermedios con las complicaciones que estas arquitecturas llevaban, como la existencia de ruido y la mala repartición de la señal dentro de la propia red, de manera que los abonados que estaban más cerca de la cabecera recibían mejor señal, mientras los que estaban en las últimas ramificaciones de la red recibían la mínima. Esta tipología de red dio un cambio con la aparición de la redes HFC (Hybrid Fiber Coaxial). Mediante este tipo de red se desplegaron una serie de anillos mediante el cuál la señal se repartía por fibra óptica hasta unos nodos ópticos, donde la señal pasaba de ser óptica a eléctrica. Gracias a este sistema se eliminaron muchísimos problemas ocasionados por las redes de coaxial solas, como, la eliminación de tensión debido a la supresión de amplificadores y la minimización del problema del ruido en este tipo de 12 Nº04. Enero de 2015 municaciones digitales, pasando por sensores y llegando a usos decorativos. La fibra óptica se emplea como medio de transmisión para las redes de telecomunicaciones, ya que por su flexibilidad los conductores ópticos pueden agruparse formando cables. Las fibras usadas en este campo son de plástico o de vidrio, y algunas veces de los dos tipos. Para usos interurbanos son de vidrio, por la baja atenuación que tienen. Nº 4. Arquitectura red HFC. Ref: Google redes. Las redes de cable coaxial tienen una alta capacidad de transporte de datos pudiendo alcanzar Los beneficios de este renacimiento tecnológico son inmensos. Los Proveedores de Redes de Servicios pueden ofrecer nuevos servicios avan- Las grandes compañías operadoras han apostado por esta última tecnología que ha revolucionado el mercado, ya que puede dar un ancho de banda muy superior al que se puede dar mediante cable, llegando ya hasta velocidades de 1 y 2 gigabytes por segundo. Telefónica, la principal operadora en España, hace tiempo que decidió dejar de exprimir sus viejos pares de cobre y apostar por esta nueva y prometedora tecnología. Allá por 2005 comenzó a realizar sus primeras pruebas de FTTH en la localidad madrileña de Pozuelo de Alar- “la tecnología del cable se ha quedado obsoleta”- experimentalmente hasta los 200 megas. Por otro lado el xDSL consiste en una tecnología que transforma las líneas telefónicas o el par de cobre del abonado en líneas de alta velocidad permanentemente establecidas. La principal ventaja del ADSL es el aprovechamiento de las líneas ya desplegadas como hemos visto antes. Con respecto al cable, el ancho de banda que puede utilizar es inferior, dándole ventaja a las redes de cable. Pero pronto apareció un nuevo rival, la fibra óptica. El origen de la fibra óptica es muy reciente en la historia. En 1966 unos científicos propusieron una guía óptica para la comunicación. Ya que era para el uso de las comunicaciones a través de láser En 1977 se instaló un sistema de prueba en Inglaterra. Desde este punto se han hecho pruebas y experimentos para mejorarla. Sus usos son muy variados: desde co- zados de inmediato, incrementando las ganancias y complementando la satisfacción de los usuarios. Los costos de inversión son relativamente bajos, especialmente comparados con los costos de recableado de la planta instalada de cobre o la inversión necesaria para la instalación de nueva fibra. Adicionalmente a esto, la facilidad en la instalación de los equipos ya sean estos xDSL, PON, CWDM o WLL permite la reducción de costos por tiempo de instalación para la puesta en marcha de los nuevos servicios. Nº 5 Conexiones en cabecera red FTTH Ref: Google cón y en el barrio la Latina de la capital, ofreciendo ya entonces una conexión de 50 Mbps de bajada. Posteriormente, ya en 2008, fue Orange el otro gran operador que comenzó con sus primeras pruebas piloto en Madrid y Barcelona pero antes de eso comenzó a funcionar la red Asturcon, una red de financiación pública que alcanzó poblaciones asturianas que de depender de la inversión privada seguirían abandonadas a su suerte, y que explotan en la actualidad Orange, Te- Nº04. Enero de 2015 13 Nº 6 Evolución de la banda ancha en España. Ref. www.adslzone.com Ref: el origen, la web, el libro, etc. mo 2008 fue cuando Telefónica comenzó a comercializar abiertamente conexiones de fibra óptica, que los operadores alternativos pueden revender mediante una oferta mayorista pero limitado a una velocidad de bajada de 30 Mbps que hace poca atractiva esta oferta al ofrecer Movistar ya hoy en día conexiones con 100 Mbps que dejarían muy atrás la posible reventa de su competencia. Para poder hacer frente a Telefónica, las otras grandes operadoras del mercado se han fusionado, creando grandes competidores como son Vodafone y Ono, y Orange y Jazztel. Estas a su vez han están desplegando redes de fibra a nivel nacional, de manera que en un futuro próximo en todas las grandes ciudades españolas dispondremos de hasta tres redes de fibra óptica. Ante esta situación, las redes de cable de los pequeños operadores tienen que migrar rápidamente debibo a que la tecnología del cable se ha quedado obsoleta. Estas pequeñas redes cuentan con la principal ventaja con la que contaron también en su inicio, que al situarse en poblaciones por normal general pequeñas, para las grandes operadoras son ceros a la izquierda, en las cuales no llegarán a desplegar fibra óptica hasta pasado unos años, pero al final llegarán. En España existen más de 300 pequeñas redes de cable, situándose la mayoría en Múrcia, Andalucía y Castilla-La Mancha, de entre las cuales gran parte ha comenzado ya con el despliegue de las redes de fibra para aguantar el enviste con el que vienen desplegando los tres grandes. En este mercado tan competitivo como es el de las telecomunicaciones aquel cableoperador que no migre a fibra para así mantener a sus abonados antes de que un grande llegue a su municipio le costará sangre y sudor competir con gigantes que ofrezcan conexiones de gigabytes, por lo que las redes de coaxial se pueden decir que ya son tecnología del pasado. REFERENCIAS Y BIBLIOGRAFÍA: www.adslzone.com www.acutel.com. 14 Nº04. Enero de 2015 TORRES COLÓN OSCAR ESCUDERO CUBILLO. ARQUITECTO TÉCNICO E INGENIERO DE EDIFICACIÓN. Se trata de dos rascacielos idénticos que se ubican en la Plaza Colón de Madrid. Consta de 116 metros de altura y 23 plantas. Se sitúa junto a un nudo de circulación importante de Madrid. El Ayuntamiento exigía: “la edificación debe ser una unidad arquitectónica de marcada verticalidad”. El Ayuntamiento aceptó el concepto unitario de “la pareja”. Situado en el centro geográfico de la ciudad. Su superficie es de 1.710,00 m2. Solar pequeño de forma irregular, con fachadas a dos calles y dos linderos. De acuerdo con la licencia de construcción concedida por el ayuntamiento se debería respetar la siguiente composición: Plantas de sótano Planta baja de doble altura con un retranqueo de 4,50 m de la línea de solar en el Paseo de la Castellana para dejar esta zona libre porticada. Planta primera, con voladizos sobre los límites del solar en las dos fachadas. PONER AQUÍ IMAGEN El programa fijado inicialmente por la propiedad consistía en dos torres; una con una vivienda por planta y la otra con dos viviendas por planta. Planta libre, ajardinada a la cota +9,45 m. Planta de oficinas (primera planta). Plantas bajas comerciales Nº 1. Torres Colón Ref: www.skyscrapercity.com Primer sótano comercial Sótanos de instalaciones y garaje. El conjunto sería destinado a la venta. PONER AQUÍ IMAGEN Solución de plantas tipo con la posibilidad de combinar 1 vivienda por planta, 2 viviendas y 3, 4 y 5 apartamentos por planta. El resto del programa se mantenía. Este cambio fue planteado durante la construcción. Nº 2. Sección—alzado Ref: Publicación proyecto y dirección de obra Planta libre, a la cota aproximada +9,45 m. En esta planta solo serían permisibles elementos estructurales, de instalaciones o de comunicaciones verticales. Dos torres de 20 plantas tipos cada una El primer cambio del programa tenía como objeto conseguir una mayor flexibilidad comercial, de tal modo que la propiedad quiso ajustar el programa a lo siguiente: Nº04. Enero de 2015 Tras éste llegó el segundo cambio en el que la propiedad decidió adaptar el conjunto a una explotación en régimen de apartamentos/hotel con el siguiente programa: Dos torres con 4 y 5 apartamentos por planta en cada torre. El programa de los apartamentos ajustado a su nuevo destino. Planta ajardinada como zona de expansión del hotel. Planta primera con oficinas de administración, salones de reuniones, banquetes, etc. Plantas bajas y sótanos: recepción, salones, anexos comerciales y servicios. Sótanos de instalaciones y otros de aparcamiento. Finalmente con el tercer cambio llegó el programa definitivo, tuvo lugar cuando los dos núcleos y las vigas de cabeza estaban ya construidos, y la situación de los péndulos determinada. La propiedad decidió destinar el conjunto a uso de oficinas. El pro- 15 grama definitivo quedó en: Dos torres de 20 plantas cada una, para albergar una o dos oficinas por planta. Planta libre de desahogo a la cota +9,45 m. Primera planta, entreplanta y planta baja con diversa opción de uso, bien para oficina o para comercio. Planta de primer sótano. PortalRecepción del conjunto y locales comerciales. Segundo sótano, instalaciones del conjunto. Cuatro sótanos más destinados a estacionamientos de coches. El programa requería una solución con: La máxima flexibilidad en el interior de las torres. La máxima independencia estructural entre las torres, las plantas bajas y sótanos para conseguir el mayor aprovechamiento en cada una de estas zonas, las cuales presentaban unas necesidades especiales diferentes y consecuentes con sus respectivos usos. PONER AQUÍ IMAGEN Nº 3. Planta tipo estacionamiento: solución tradicional Ref: Publicación proyecto y dirección de obra. Nº 4. Núcleos centrales de refuerzo. Ref: www.secretosdemadrid.es Fueron varias las soluciones estructurales analizadas entre las cuales se eligió la adoptada, en forma suspendida, y de la cual se realiza a continuación una crítica comparativa con una solución tradicional convencional. Además de la solución estructural se empleó un nuevo planteamiento, poco usual, en la resolución de la recepción del edificio, situando ésta en el primer sótano con acceso mediante escaleras mecánicas desde la acera pública. De este modo se consiguió una planta baja de uso comercial sin interferencias, solución que permitió aumentar la rentabilidad de una forma importante. Este planteamiento hizo posible crear una recepción de gran superficie e impacto. En lo que a estructura se refiere, la solución tradicional que no se llevó a la realidad constaba de estructura de hormigón armado o metálica para soportes y vigas y pantallas para resistencia contra efectos de vientos. Sin embargo se realizaron sótanos y plantas bajas construidas con pilotaje “in situ”, pantallas con uso de bentonita, en hormigón armado y forjados birreticulares. Se siguió un proceso constructivo es- 16 Nº04. Enero de 2015 Torres con núcleos de hormigón armado, soportando vigas “cabezas” construidas en hormigón armado con armadura postensada. Forjados birreticulares, sujetos me- se necesitarán 6 plantas y media de garaje; la cota máxima de excavación sería -24,45 m, lo que hubiera complicado y encarecido de forma tan importante la edificación que la Es necesario separar los accesos a las dos torres: uno en el Paseo de la Castellana y otro en la calle Génova, lo cual implica una pérdida de fachada comercial que hubiese que- La solución elegida permitiría el acceso por rampas, lo que sería un aspecto básico. El aprovechamiento de 39 plazas por planta, un 62,5% mayor. diante péndulos de secciones 42x42 cm y longitudes 68 m con cables postensados, colgados de las vigas. Los péndulos pasarían a trabajar a compresión. En cuanto a la solución para el estacionamiento de vehículos, la solución tradicional requeriría un acceso por rampas imposible con lo cuál obligaba a ejecutar instalaciones de montacoches, lo que no sería aceptable. El aprovechamiento tan sólo sería de 24 plazas por planta, número reducido por el entorpecimiento producido por la hipoteca de los soportes de las torres. Para acomodar las 156 plazas exigidas por las ordenanzas municipales, hubiera hecho inviable. En lugar de esto la solución elegida permitiría el acceso por rampas, lo que sería un aspecto básico. El aprovechamiento de 39 plazas por planta, un 62,5% mayor aprovechamiento que en la solución convencional; la cota de excavación máxima: sería - 17,95 m. En cuanto a la planta baja cota de acceso, la solución tradicional implicaba que se destinaran 15 metros de fachada a zaguán de automóviles debido a la amplitud del mismo obligado para acomodar la espera de los coches ante el montacargas. Los locales comerciales se deberían fraccionar. PONER AQUÍ IMAGEN dado interrumpida y reducida a 44 metros de longitud útil. Esto supondría menor rentabilidad, peor funcionamiento e imagen del conjunto. Los soportes de las torres de Colón que incidirían en la zona porticada en el Paseo de la Castellana, que ya no podrían quedar liberadas. Las visuales de los coches saliendo de los elevadores, quedarían dificultadas por los gruesos soportes derivados de las torres. Los soportes de las torres recaerían cerca de la línea de fachada comercial con la consiguiente pérdida de control de la misma. Todas las ventajas que obtuvo la solución adoptada hubieran sido convertidas en inconvenientes en la solución tradicional. Es decir: más y mayores gruesos soportes, con “situaciones obligadas” por la estructura superior: Poca diafanidad y visibilidad. Mal aprovechamiento de la planta, como menos superficie útil. Menor valor comercial, en grado importante, así como mucha menor rentabilidad. Finalmente, la solución que se adoptó aportó a la zona de planta baja una serie de virtudes como por ejemplo que sólo se destinan 6 metros de longitud de fachada para el zaguán de acceso de vehículos. Nº 5. Planta tipo estacionamiento: solución adoptada. Ref: Publicación proyecto y dirección de obra. Nº04. Enero de 2015 El hecho de que el zaguán ocupa solamente parte de la fachada del Paseo de la Castellana permite no seccionar la planta baja, lo que es de gran importancia a efectos comerciales. El acceso a las torres permite ser realizado mediante acceso único, lo que es más funcional, económico y de mayor impacto representativo. La fachada comercial es continua, con 60 metros de longitud. La zona porticada en el Paseo de la Castellana queda totalmente liberada de soportes. 17 trarrestar los empujes de viento. Están ubicados próximos al centro de la planta tipo. En cuanto a los soportes una solución tradicional hubiese conllevado su aumento de dimensiones a medida que se refieren a plantas más in- PONER AQUÍ IMAGEN Visuales totalmente desprovistas de obstáculos en la salida por rampa. Los soportes en la planta comercial son independientes de las torres y se sitúan según la mayor conveniencia de las plantas comerciales y solamente para las cargas de éstas. Por tanto son menos en número, menores de dimensión y mejor situados. Ello conlleva gran diafanidad y visibilidad, mejor aprovechamiento de la planta, más superficie útil, más alta valoración comercial. Todo ello genera una rentabilidad muy superior. libertad en la distribución interior y en la composición de fachadas. El aprovechamiento de superficie es máximo, y por tanto mejora el uso y la rentabilidad. Esta estructura suspendida implicó cantidad de ventajas y fue el punto de inflexión en el estudio de rentabilidad y viabilidad de la edificación. La construcción del edificio mediante una estructura tradicional no hubiera sido viable, dada la circunstancias del solar, ordenanzas, programas, etc… Frente a esta imposibilidad se buscaron otras soluciones. La elección de la “suspendida” permitió: Nº 6. Esquema de funcionamiento estructural Ref: Publicación proyecto y dirección de obra feriores, hasta llegar a una dimensión aproximada de 0,60x1,20. No se podían colocar los soportes en el perímetro puesto que las torres vuelan sobre el límite del solar en tres de las fachadas de la planta baja. Estos últimos factores implican una rigidez de planteamiento, arrastrando problemas, tanto en la distribución interior como en la composición de fachadas. Hay pérdida de superficie útil, de viabilidad, de solución Aprovechar al máximo el irregular solar, ofreciendo la única posibilidad económica y razonable para cumplir con los requisitos de la municipalidad, así como posibilitar las plazas necesarias en el estacionamiento de vehículos y la diafanidad en la zona “porticada” en el Paseo de la Castellana. Acceder a las plantas de estacionamiento de vehículos mediante rampas, lo que es fundamental, y no mediante montacoches, lo que es Esta estructura suspendida implicó cantidad de ventajas y fue el punto de inflexión en el estudio de rentabilidad y viabilidad de la edificación. La solución finalmente adoptada conlleva también que la planta primera a cota +9,45 m quedara totalmente libre de todo elemento estructural interior. De el mismo modo en el resto de las plantas tipo del edificio los elementos pantalla que forman el núcleo tienen la doble función de transmisión de cargas a los cimientos y, a la vez la de con- aprovechamiento apareciendo obstáculos distributivos y por último con uso más dificultoso. Menor valoración en venta y más baja rentabilidad. Para evitar este problema se dispusieron péndulos fuera de la fachada. El espacio creado entre los péndulos y el núcleo queda totalmente diáfano, permitiendo la máxima inaceptable. Gran diafanidad y flexibilidad en la planta tipo, que hizo posible modificar y centrar el programa, según exigencias del mercado, incluso después de iniciadas las obras. Obtener condiciones técnicas óptimas y máxima rentabilidad en las plantas comerciales de gran valor 18 Nº04. Enero de 2015 de las estructuras superiores. Mayor aprovechamiento del espacio útil, puesto que los elementos estructurales se reducen considerablemente en sus dimensionamientos. PONER AQUÍ IMAGEN Nº 7. Esquema de construcción de vigas de cabeza y descenso de cimbra por núcleo central de refuerzo. Ref: Publicación proyecto y dirección de obra en la zona y que por la configuración del solar y su reducida superficie hubieran quedado gravemente perjudicadas por la repercusión de unas estructuras tradicionales en las torres, que hubieran resultado de grandes magnitudes. El haber podido obtener el máximo rendimiento estructural, conjugando la transmisión de cargas al suelo, con el contrarresto de efectos debidos al viento y a movimientos sísmicos. El haber podido construir sobre una superficie de suelo, que se ha cedido para uso peatonal, sin incidir en ella. Todo ello se ha conseguido gracias a haber convertido el conjunto en tres edificios semi independientes: Dos torres y el edificio basamental, con estructuras independientes e idóneas, sin más hipoteca sobre el último que los núcleos resistentes de las primeras, al quedar “suspendidas” a un nivel más alto. La solución técnica de estructura “suspendida·” ofrece las siguientes ventajas: Flexibilidad en el planteamiento general, independizando las estructura de las edificaciones “suspendidas” de las construcciones a niveles inferiores, o del propio suelo. Esto hace posible solucionar cada una de las diferentes unidades arquitectónicas, muchas veces de diferente programa y necesidades, con estructuras idóneas y con la mínima repercusión de estructuras ajenas, condicionadas por razones exógenas. Rapidez de ejecución. La obra puede realizarse construyendo simultáneamente las edificaciones altas y las inferiores, atacando varios frentes de trabajo a la vez, lo que acelera considerablemente el ritmo de construcción, y disminuye los gastos generales y promocionales, así como los riesgos de mercado. Flexibilidad de planteamientos interiores al conseguir grandes diafanidades estructurales especialmente en los edificios inferiores, que quedan prácticamente deshipotecados Flexibilidad en el tratamiento de las fachadas, y mayor facilidad para el empleo de sistemas de prefabricación en los cerramientos. El conseguir el máximo rendimiento de la estructura de los edificios “suspendidos” operando con ellas para contrarrestar los efectos de viento y sísmico. Poder conseguir edificaciones “suspendidas” sobre volúmenes de uso público –centros cívicos, estaciones, teatros, etc – que requieren grandes luces estructurales libres, sin apenas incidir en ellos. Igualmente sobre superficie de uso público peatonal, de jardín o parque. En cuanto al proceso constructivo se comienza por la cimentación excavando y construyendo muros de contención y pilotes. Posteriormente se realiza una excavación en la zona central donde se alojan los núcleos de las torres. Una vez finalizada la cimentación comienza la elevación de los núcleos y se dispone una plataforma de trabajo de hormigonado preparación colocación de las armaduras. Esta solución conformaba un encofrado metálico deslizante que se elevaba mediante gatos de trepa montados en barras de trepa apoyados sobre el hormigón fraguado. Nº04. Enero de 2015 se procede a la ejecución del forjado de planta baja que actúa como arriostramiento de los muros pantallas con el fin de proceder a la excavación del resto de las plantas de sótano que se van construyendo de dos en dos actuando de apuntalamiento de los núcleos a medida que se va suprimiendo la coacción de tierras. En la siguiente fase se procede a la ejecución de la zapata de cimentación de 13x13x7 m que conforma el núcleo central de refuerzo formando un empotramiento para contrarestar el vuelco mientras se procede a la excavación para construir análogamente las zapatas de los pilotes y se procede al postensado mediante 8 unidades de cables para asegurar el trabajo conjunto de la zapata y el núcleo. Para finalizar con los trabajos bajo rasante se procedió a recrecer los pilotes para recibir sus cargas totales, construyendo los forjados intermedios bajo rasante y los tres sobre planta baja. Con los trabajos bajo rasante ejecutados se llevó a cabo el montaje y 19 elevación de la cimbra, se trataba de una plataforma metálica izada por gatos de trepa montados en barras y sujetos a perfiles metálicos colocados temporalmente en la parte superior del núcleo a casi 80 metros de altura. Con la cimbra ejecutada se construyeron las mitades inferiores y después las superiores de las vigas radiales de dimensiones exteriores en planta 21,40x19,40 m, canto máximo 5 m y voladizo máximo de 7,20 m. Construidas las partes superiores de las vigas se procedió con la primera fase de postensado dando a esa armadura un tercio de su carga total. Esto sirvió para colgar la cimbra de las vigas radiales con tensores provisionales. Acabada esta actuación comenzó la construcción de los forjados mediante la elevación de los tensores prefabricados y el enhebrado de los cables de postensado sujetos a las vigas perimetrales, a medida que la cimbra avanzaba hacia cotas más bajas se aumentó el postensado a dos tercios de su valor total para Nº 8. Detalle de vigas de cabeza y elemento ciego de fachada Ref: Publicación proyecto y dirección de obra REFERENCIAS Y BIBLIOGRAFÍA: Publicación proyecto dirección de obra. www.secretosdemadrid.es www.skyscrapercity.com y elevar y colocar los cerramientos de fachadas y demás cargas del edificio. Una vez finalizada la elevación de elementos se eleva el postensado al valor de su carga total. El peso total de cada torre incluyendo los cerramientos llega hasta las 9.355 toneladas Durante la obra y después de su terminación, “Torres Colón” han sido objeto de visita para más de 600 técnicos nacionales y extranjeros, de más de 20 nacionalidades distintas. 20 Nº04. Enero de 2015 MOTORES DE COMBUSTIÓN INTERNA. MARCOS VIZOSO FERNÁNDEZ. INGENIERO INDUSTRIAL. El motor de combustión interna es un mecanismo utilizado para convertir la energía química del combustible en energía calórica y esta última en energía mecánica. Se les denominan de combustión interna porque el proceso químico de combustión ocurre en el interior del motor y los gases, producto de éste, al expandirse por el calor generado, ejercen la fuerza que proporciona la potencia mecánica. Y además, para distinguirlo del motor de combustión externa o motor térmico, en el cual la generación de la energía calórica se realiza fuera del motor, por combustión de un combustible, y luego se transfiere a un medio físico termodinámico (por ejemplo, agua), para posteriormente convertirse en potencia útil en el motor propiamente dicho. La potencia es el trabajo realizado por el motor en una unidad de tiempo. Depende de distintos factores, entre ellos la Rc, Vu, la carrera, las rpm. Parte de la potencia se consume en vencer rozamientos. Se distinguen varias clases de potencia: Indicada, efectiva y absorbida. La potencia indicada es la obtenida realmente calculándola del ciclo de trabajo. Se determina a partir de la presión media efectiva (área del rectángulo en ciclo de trabajo). Par motor es el esfuerzo de giro aplicado por la aplicación de la fuerza de la explosión y transmitida al codo del cigüeñal. El par máximo se produce cuando la presión en el interior del cilindro es máxima, esto no se produce al régimen máximo sino mucho antes. La potencia efectiva se genera por medio de este par, se conoce como potencia al freno. La potencia absorbida es la diferencia entre la potencia indicada y la potencia efectiva. Resulta difícil de obtenerla directamente y generalmente se obtiene restando potencia indicada y efectiva, después de haberlas obtenido. Conociendo la potencia absorbida se puede calcula el rendimiento mecánico de la siguiente manera: - Motores de combustión interna rotativos: Los rotativos realizan la transmisión a través de un movimiento rotatorio, como por ejemplo, en las turbinas. Un motor rotativo es en esencia un motor de ciclo Otto, pero en lugar de tener un bloque de cilindros con un cigüeñal rotatorio como en el motor radial, éste permanece fijo y es el bloque de cilindros entero el que gira a su alrededor. En la mayoría de los casos, el cigüeñal está sólidamente fijado a la estructura del avión, y la hélice se encuentra atornillada al frente del cárter. Toda máquina térmica no puede transformar toda la energía que utiliza en trabajo. En general se llama rendimiento a la relación entre la energía recogida y la suministrada. El Rendimiento Termodinámico es la relación entre el trabajo indicado y el equivalente en trabajo del calor gastado para obtenerlo. En un diesel el rendimiento termodinámico es aproximadamente del 45% y en el gasolina aproximadamente del 30%. Los motores de combustión interna pueden estar agrupados en motores rotativos o alternativos. Imagen 1 – Motor rotativo La rotación de la mayor parte de la masa del motor produce un poderoso volante con efecto giroscópico, que suavizan la entrega de potencia y reduce las vibraciones. Las vibraciones eran un serio problema en los motores de pistón convenciona- Nº04. Enero de 2015 les, que obligaban a añadir pesadas hélices. Debido a que los cilindros funcionaban en sí mismos como un volante, los motores rotatorios tienen una relación peso-potencia más ventajosa que los motores convencionales. Otra ventaja es una refrigeración mejorada, dado que el bloque de cilindros al girar producen su propio flujo de aire, incluso cuando el avión se encuentra en tierra detenido. La mayoría de los motores rotatorios tienen los cilindros dispuestos alrededor del eje central, hacia afuera, como en el motor radial, pero hay también motores boxer rotatorios, e incluso monocilíndricos. Al igual que los motores radiales, los rotatorios se construyen con un número de cilindros impar (usualmente 7 o 9), para obtener un orden de encendido coherente, proporcionando un funcionamiento suave. Motores rotatorios con cilindros en número par, son comúnmente del tipo en "doble estrella". - Motores de combustión interna alternativos: son aquellos en los cuales la transmisión de trabajo se efectúa mediante un desplazamiento lineal reciprocante, como en los motores basados en el diseño de Otto [Nikolaus Otto] y Diesel [Rudolph Diesel]. 21 Rendimientos térmicos aceptables, con valores dependientes del tipo de motor y de sus condiciones operativas, que raramente sobrepasan el 50% de la energía disponible en el combustible. Disponibilidad en una amplia ga- ma de potencias, que en la actualidad abarcan desde 0,1 hasta 43.000 CV. Gran cantidad de disposiciones constructivas, que permiten adaptar los motores a los usos más diversos. Con relación a la utilización de los motores de combustión interna alternativos como planta motriz, su extenso campo de aplicación se centra básicamente en dos áreas: motores para automoción y motores estacionarios. En el área de motores para automoción se utiliza en transporte por carretera, maquinarias de obras públicas, maquinarias agrícolas, propulsión ferroviaria, marina y aérea. En el área de motores estacionarios se utiliza en generadores de energía eléctrica (centrales eléctricas y plantas de emergencia), accionamiento industrial (bombas, compresores, etc.) y agrícola (motobombas, cortadoras agrícolas, sierras mecánicas, etc). Según el método de ignición se clasifican en: motores de encendido provocado (Otto) o motores de encendido por compresión (Diesel). - Otto: en los pistones se inyecta una mezcla de gasolina y aire en la fase de admisión a través de la válvula del mismo nombre, que es absorbida por el vacío que deja tras de sí el movimiento descendente del pistón, y que es comprimida en la fase de compresión, mientras sube el pistón. Una vez comprimida la mezcla en la cámara de compresión, se le aplica una chispa en el comienzo del tiempo de explosión, tras el cual el pistón desciende hacia abajo por mediación de la energía liberada en la oxidación de la gasolina, y vuelve a subir de nuevo expulsándose los gases resultantes de dicha reacción del carburante a través de la válvula de escape. Para reducir la barrera de potencial entre los reactivos de la reacción química –gasolina y aire- y el nivel energético del complejo activado –mezcla homogénea de los reactivos- se utiliza la presión El gran desarrollo de los motores de combustión interna alternativos se debe a una serie de características que los colocan en favorable ventaja frente a otros motores, entre las cuales cabe destacar: Alta posibilidad de utilizar dife- rentes tipos de combustibles, en particular, líquidos de elevado poder calórico, característica ésta de gran importancia, porque condiciona la autonomía del vehículo. Imagen 2 – Motor rotativo 22 Nº04. Enero de 2015 del aire inyectado, que a volumen constante y presión creciente –crece al subir el pistón- consigue aumentar su temperatura, como se puede razonar por la ley que Robert Hooke, Boyle y Gay Lussac descubrieron en relación a las propiedades elásticas de los gases comprimidos, quedando la detonación reservada para la chispa, y liberándose una energía motriz eficaz que es igual a la diferencia entre el nivel de los reactivos y de los productos –gases que se expulsan en el tiempo de escape-, a la que se le deben sustraer las pérdidas por rozamientos y calor radiado en todo el motor. Debido al empleo de la chispa y a que la gasolina tiene un poder anti-detonante más bajo que el gasóleo, por ser más fácilmente inflamable, los cilindros de los motores de explosión tienen una cámara de compresión más grande que los motores de combustión de gasóleo, ya que de lo contrario la mezcla explotaría antes de aplicarse la chispa. Este ciclo completo se corresponde con dos emboladas –o movimientos bajasube del pistón- y con dos vueltas del cigüeñal. Imagen 3 – Interior de un pistón -Diesel: aquí no se produce una explosión, sino una combustión. Existen los siguientes ciclos de trabajo diferenciados: Admisión, Compresión, Combustión y Escape. Durante el ciclo de Admisión se abre dicha válvula poco antes del PMS aspirando aire para llenar por completo el cilindro. Cuanto más aire aspire, mejor y más eficiente es la combustión. Así como cuanto más fresco esté el aire mejor, puesto que así es menos denso y entra más cantidad (de hay la razón de ser los radiadores de aire, o intercooler también conocidos como intercambiadores de calor). Una vez se cierra la válvula, comienza el movimiento lineal ascendente del pistón comprimiendo el aire aspirado. Poco antes del PMS comienza a producirse la inyección de combustible (a elevadísima presión), que al encontrarse con un aire comprimido que se ha calentado a mucha temperatura debido a este efecto, se inflama empujando el pistón hacia abajo. Poco antes de llegar al PMI se abre la válvula de escape y al comenzar la carrera ascendente el pistón empuja los gases quemados que son expulsados a elevada temperatura por el escape del mismo modo que en el motor de gasolina. Al igual que en el caso anterior, esto es lo básico y suficiente para entender el funcionamiento del motor diesel, sin entrar en detalles como tipos de inyección (directa, indirecta, con precámara), tipos de bombas (rotativas, lineales), o sistemas alimentación (atmosférico o turboalimentado, o mediante compresor). A igualdad de cilindros y cilindrada el motor de gasoil es más pesado dado que son materiales más resistentes debido los esfuerzos mayores que tienen que soportar. Antiguamente los motores diesel eran mucho más fiables que los de gasolina, siendo en algunos casos prácticamente irrompibles siempre que se realizase el mantenimiento estipulado. Actualmente los motores diesel y gasolina debido a la carga electrónica en ambos son igual de fiables, no siendo uno mejor que el otro. El motor diesel sufre menos desgaste debido a que siempre gira a menos revoluciones que uno de gasolina a igualdad de velocidad y marcha engranada. Esto es debido a Imagen 4 – Interior de un pistón Nº04. Enero de 2015 que el motor Diesel tiene por sus características estructurales una carrera muy larga lo que es contraproducente con las altas revoluciones. Además, y aunque en los últimos años hay ya varios diesel que logran alcanzar con facilidad las 5000 rpm, todavía queda algo de camino en conseguir bombas de inyección capaces de suministrar alta presión a altas revoluciones. De todas formas tampoco interesa demasiado que alcancen altos giros de cigüeñal, porque si funciona n rápidos...¿donde se queda el bajo consumo? El motor diesel se usa sobretodo en camiones y autobuses debido a que tiene un reparto de su fuerza más lineal que un motor de gasolina. En este último la fuerza es mediante una explosión momentánea, mientras que en el diesel la fuerza se produce durante toda la carrera descendente del pistón. Antiguamente se usaban también motores de gasolina para camiones y autobuses, o incluso excavadores o tractores. El mito de quien corre más, si un diesel o un gasolina (inventado desde que existen los TDI, y luego todos los que vinieron detrás) siempre seguirá en el aire. Los diesel corren tanto, no porque tengan alta potencia, sino porque tienen mucho par motor. Tienen sobre todo capacidad de recuperación debido al elevado par motor que les proporciona la sobrepresión atmosférica del turbo, y la alta presión de la bomba. Si a un motor atmosférico de gasolina de 150cv le comparamos con un motor atmosférico de gasoil de la misma potencia, montado sobre un vehículo idéntico en peso, aerodinámica y desarrollos de cambio, ganaría el motor de gasolina debido a su capacidad para coger más revolucio- 23 nes y hacerlo con más facilidad. Si estos dos ejemplos llevasen sobrealimentación, seguiría ganando el gasolina en aceleración pura y dura. Sin embargo en recuperación es posible que el par motor del diesel acabara imponiéndose. Un coche diesel en aceleraciones cortas coge rápidamente velocidad porque tienen desarrollos muy cortos debido a que no cogen más allá de 5000 revoluciones. Los motores de gasolina, por lo general, al ser más ligeros en sus piezas móviles, tienen más facilidad para revolucionarse. Es por ello que siguiendo un patrón estándar un gasolina funcionaría mejor en altas y un diesel en bajas. Esto como digo siguiendo un patrón ideal y estándar, ya que influyen muchísimos apartados en la respuesta del motor: potencia, cilindrada, relación calibre x carrera, cruce de válvulas, sistema de alimentación, peso, desarrollos, aerodinámica, etc. Y normalmente los fabricantes diseñan el motor de cara ya a los resultados que se quieren obtener bustión de la mezcla. Pertenece al grupo de motores diesel por su alimentación y funcionamiento en un ciclo de 2T con 2 carreras alternativas de su embolo que produce un giro de 360º en el árbol motriz. Ha sido diseñado con el fin de obtener un motor ligero y económico pero a la vez lo suficientemente robusto para su empleo en trabajos duros como en agricultura, navegación fluvial y pequeñas embarcaciones de pesca. Aprovechando la simplificación de elementos y como trabaja a presiones inferiores al diesel (Rel. Compresión"9) los elementos constructivos del mismo son más económicos. Tiene una estructura más sencilla y más ligera que el diesel lo que origina un menor peso muerto. No necesita bombas de inyección de gran presión ya que la presión de entrada a suministrar por las mismas es muy inferior con lo cual el trabajo empleado para comprimir el combustible es menor. REFERENCIAS Y BIBLIOGRAFÍA: - http://www.monografias.com - http://www.asifunciona.com Imagen 5 – Tabla comparativa del rendimiento de motor diésel-gasolina - Motor mixto o Sabathe: Este motor generalmente de 2T tiene una función intermedia entre los de explosión y diesel en cuanto a su relación de compresión y forma de realizar el encendido para la com- - http://www.autopista.es - http://www.angelfire.com - http://www.solociencia.com 24 Nº04. Enero de 2015 EL AUTOGIRO DE JUAN DE LA CIERVA. EL PRECURSOR DEL HELICÓPTERO construyó utilizando el fuselaje, ruedas y estabilizador vertical de un monoplano francés de 1911 (Deperdussin), y que constaba de dos rotores de cuatro palas contrarrotatorios. Este primer aparato no llegó a volar, ya que la asimetría en la sustentación hizo volcar el aparato. A este primer intento le seguiría el C-2, en el que intentó resolver la asimetría de sustentación introduciendo el control del paso cíclico, pero las palas del rotor no tenían LUIS MUÑOZ IZQUIERDO. INGENIERO AERONÁUTICO. La idea de volar con un vehículo de ala giratoria es muy antigua. Tanto es así, que por ella pasaba la gran esperanza del hombre de volar hasta que se lograse el vuelo con ala fija con los primeros planeadores. A principios del siglo XX, eran muchos los aparatos de ala giratoria que consiguieron despegar de un modo u otro, pero sería Juan de la Cierva, científico aeronáutico español e ingeniero de caminos, canales y puertos, motivado desde pequeño por el mundo de la aviación, el que lograse en enero de 1923, el primer vuelo seguro y controlado de un vehículo de ala giratoria con la invención del autogiro. Juan de la Cierva quería construir una aeronave segura y menos proclive a los accidentes que las de ala fija conocidas en aquel momento, y la forma en la que lo consiguió se puede observar en la figura 1, correspondiente a un autogiro moderno, donde el rotor es el elemento sustentador, que gira libremente y en auto rotación gracias al flujo de aire incidente por la parte inferior del rotor. Por otro lado, el movimiento de avance lo proporcionaría, una hélice situada en la parte delantera de la aeronave (figura 2), difiriendo de la figura 1, y el mando de la aeronave consistía en un timón de dirección en la cola. Figura 1. Esquema de fuerzas existentes en un autogiro. Pero como en todos los caminos hacia el éxito, de la Cierva tuvo que superar algunos fracasos, que superaría gracias a su tenacidad y perseverancia. En 1920, patentó su invento bajo el nombre de autogiro, se trataba del C-1 (figura 2), que Figura 2. El C-1, primer modelo de Juan de la Cierva. suficiente rigidez como para soportar los momentos de torsión alternativos generados en los encastres de las palas. Su siguiente intento sería el C-3, en el que une las palas del rotor con cables de acero de alta resistencia, y dispone al aparato con un gran elevador en la cola para solventar el problema del par de vuelco al que se enfrentaba debido a la asimetría en la sustentación, que no consiguió resolver a pesar de cuatro reconstrucciones del modelo, ya que aún cuando el aparato se encontraba rodando, éste se inclinaba lateralmente, las palas del rotor chocaban contra el suelo y la integridad del aparato resultaba perjudicada… La citada asimetría de sustentación, tan problemática y demoledora para Juan de la Cierva en aquel momento, se produce debido a que las palas del rotor generan distinta susten- Nº04. Enero de 2015 tación a lo largo de su giro si la aeronave tiene movimiento de avance. En la figura 3 se puede apreciar mas fácilmente este efecto para el caso 25 Debido a este efecto la sustentación producida en el lado derecho del rotor es mayor que en el izquierdo, produciéndose así un par de vuelco capaz de generar la caída del helicóptero. Resolver este problema aerodinámico supuso el éxito del autogiro de Juan de la Cierva, y posteriormente, el desarrollo del helicóptero tal y como se conoce hoy en día. La solución consiste en articular las palas del rotor en el encastre, de manera que estas varían su ángulo de ataque de forma automática a lo largo de su movimiento circular, disminuyendo el ángulo de ataque en el lado de la aeronave en la que se tenía mayor sustentación y viceversa, consiguiendo así, la misma sustentación a ambos lados de la aeronave. Figura 3. Esquema del funcionamiento de un rotor convencional sin control de paso cíclico en vuelo de avance. de un helicóptero, donde V∞ es la velocidad de avance de la aeronave y Ω es la velocidad angular de las palas del rotor. Por lo que, en esencia, cuando las palas se encuentran en el lado derecho del rotor la velocidad relativa del aire con respecto a un punto de la pala es Ω·r+V∞, siendo r la distancia entre el encastre de la pala y el citado punto. Por otro lado, cuando las palas se encuentran en el lado izquierdo del rotor, la velocidad relativa del aire con respecto a un punto de la pala es Ω·r -V∞, esto implica que hay una zona (zona de flujo invertido) en la que las palas reciben el aire por su borde de salida, no produciendo sustentación, además esta zona de flujo invertido (círculo rojo de la figura 2) aumenta a medida que aumenta la velocidad de avance. Esta revolucionaria idea fue implementada en el cuarto modelo de Juan de la Cierva, el C-4, que tras una serie de ensayos aerodinámicos en el túnel de viento del aeródromo de Cuatro Vientos, realizó su memorable vuelo el 17 de enero de 1923, en el aeródromo de Getafe, pilotado por el teniente Alejandro Gómez Spencer. El vuelo de apenas unos 183 metros, validó la idea, y unos días después, el C-4 recorrería cuatro kilómetros en el aeródromo de Cuatro Vientos, en unos cuatro minutos a unos 30 metros de altura. Es así como empieza la cosecha de éxitos de Juan de la Cierva, en la que además de introducir mejoras en el autogiro, le dispone “del despegue por salto”, reduciendo la carrera de despegue. Intenta crear en España una empresa de fabricación de autogiros, pero por falta de financiación establece en Londres la “Cierva Autogiro Company” en 1926 y después le seguiría la “Autogiro Co. Of America” en 1928. Este mismo año cruzó el Canal de la Mancha pilotando un autogiro, hecho que fue publicado y destacado por la prensa internacional. Incluso un autogiro aterrizó en el jardín de la Casa Blanca donde fue recibido afectuosamente el piloto (figura 4). Figura 3. Autogiro PCA-2 construido por PitcairnCierva Autogiro Company volando en la Casa Blanca. Año 1931 Juan de la Cierva murió el 9 de Diciembre de 1936, con 41 años, en un accidente de aviación. Era un vuelo regular Londres-Ámsterdam, en el que, por curiosidades de la vida, el avión de ala fija, un Douglas DC-2, se estrelló debido a entrada en pérdida. La aeronáutica recibía como herencia el autogiro, la aeronave más segura que existe a día de hoy, la menos sensible a las turbulencias y con una corta carrera de despegue y aterrizaje, pero que al no disponer del vuelo a punto fijo, hace que el helicóptero lo sitúe en un segundo plano, utilizándose principalmente para la aviación de ocio. REFERENCIAS Y BIBLIOGRAFÍA: - www.aviacionulm.com - www.gyroclubdelacierva.es - www. baaa-acro.com 26 Nº04. Enero de 2015 IMPLANTACIÓN DE ASCENSORES HIDRAÚLICOS EN REFORMAS DE EDIFICIOS JESÚS ROSADO ROBLES. INGENIERO TÉCNICO INDUSTRIAL Y GRADUADO EN INGENIERÍA MECÁNICA. PONER AQUÍ IMAGEN Imagen 1. Esquema tipo ascensor hidráulico. Fuente: http://www.blog.gmveurolift.es El presente artículo tiene por objetivo describir de forma general las características técnicas y de seguridad para la correcta ejecución y puesta en marcha de un ascensor hidráulico en rehabilitación de edificios. Para explicar de forma clara los cálculos necesarios, estudiaremos un ejemplo ficticio en el que se plantea la instalación de un ascensor hidráulico con un armario de control y mando situado en la planta baja de un bloque de 4 alturas en Madrid. Se parte de un foso 1,3 metros y huída de 3,5 metros de dimensiones reglamentarias. El ascensor dispondrá de 5 paradas (4 plantas más la planta baja). Con la instalación del ascensor se pretende mejorar las condiciones de accesibilidad a las distintas viviendas desde la planta de acceso al edificio con el consiguiente aumento de la calidad de vida de los vecinos así como el valor añadido del propio edificio y con el cumplimiento de la Ley 8/93 de Promoción de la Accesibilidad y Supresión de Barreras Arquitectónicas. Incluiremos las medidas correctoras necesarias para el buen funcionamiento posterior de la actividad para la que su uso está destinado. Para la realización del proyecto será necesario tener en cuenta todo el Reglamento actual que figura en las Ordenanzas Municipales del Ayuntamiento de Madrid en este caso, como a su vez, la correspondiente Legislación Técnica de acuerdo con la Normativa de AENOR EN 81-1 y 2, para ascensores eléctricos o hidráulicos respectivamente. A continuación se plantean una serie de normativas que son necesarias consultar en el caso que nos atañe: Ordenanza de Prevención de Incendios del Ayuntamiento de Madrid ANM 1993\1. Ordenanza por la que se establece el Régimen de Gestión de Control de las Licencias Urbanísticas de Actividades (OGLUA) ANM 2009\16 Real Decreto 1131/1988, de 30 de septiembre, por el que se aprueba el Reglamento para la Ejecución del Real Decreto Legislativo 1302/1986, de 28 de junio, de Evaluación de Impacto Ambiental. Ley 2/2002, de 19 de junio, de Evaluación Ambiental de la Comunidad de Madrid. Decreto 78/1999, por el que se regula el régimen de protección contra la contaminación acústica de la Comunidad de Madrid. Real Decreto 2267/2004, por el que se aprueba el Reglamento de seguridad contra incendios. Real Decreto 1942/1993, de 5 de noviembre, por el que se aprueba el reglamento de instalaciones de protección contra incendios. Real Decreto 1627/1997, de 24 de octubre, por el que se establecen disposiciones mínimas de seguridad y de salud en las obras de construcción. Reglamento Electrotécnico de Baja Tensión. Norma EN 81-2 de agosto de 1998, que regula los ascensores hidráulicos. Ley de Propiedad Horizontal (Ley 51/2003). Real Decreto 314/2006, de 17 de marzo, por el que se aprueba el Código Técnico de la Edificación. Nº04. Enero de 2015 27 El sistema de tracción de esta clase de ascensores se compone de: central hidráulica, cilindro, pistón, bloque de válvulas de control del sistema hidráulico y un sistema de tuberías por donde circula el fluido impulsor, que hoy en día es aceite. Este ascensor, a diferencia del ascensor eléctrico no incorpora contrapeso. En comparación con el habitual ascensor eléctrico, este tipo de ascensores presentan una serie de ventajas e inconvenientes. Ventajas El peso de elevación no sobrecarga la estructura. Desgaste menor debido a la presencia del baño en aceite. Ahorro del cuarto de máquinas en la parte superior del hueco. Arranque y paradas suaves. No precisan de paracaídas para la cabina. Inconvenientes Coste de mantenimiento elevado. Potencia instalada mayor a igualdad de prestaciones con un ascensor eléctrico. Recorrido limitado hasta 27 metros. Dependencia a la temperatura del aceite. Velocidades nominales más bajas (entorno a 0,63 m/s). Para realizar una instalación electromecánica de este tipo, es imprescindible disponer de la información necesaria contra incendios, ruidos y vibraciones. A continuación se indican varios aspectos de cada tipo: Contra incendios Los extintores deberán estar colocados tal como indica el artículo 20.1, punto 4 del CPI-96, situándose el extremo superior de éste a una altura máxima sobre el suelo de 1.7 m. El extintor debe estar debidamente señalizado de modo que pueda ser utilizado de manera fácil y rápida (norma UNE-23 034-88). Asimismo, los extintores deben disponer de una pegatina o chapa que explique de forma clara y escueta su Imagen 2. Instalación típica de un montacargas hidráulico . manejo. También deben estar provistos de un dispositivo de cierre automático que permita la interrupción temporal del chorro, según la norma UNE-23110-96/2. Si sobrepasan los 6 kg deben estar equipados con una manguera de descarga de 400 mm de longitud mínima (UNE-23110-96/2), y ser de color rojo como mínimo en el 95% de su superficie (UNE-23110-96/2). Se debe hacer una revisión de los extintores cada cinco años a partir de la fecha de timbrado de éstos y proceder al retimbrado, con arreglo a la ITC-MIE-AP5 del Reglamento de aparatos a presión sobre extintores de incendios. Contra ruidos y vibraciones: La Ordenanza Municipal para la Protección Ambiente contra la emisión de Ruidos y Vibraciones, exige que cualquier instalación que pueda ser emisor de ruidos cuente con los correspondientes aislamientos, tanto en materia acústica como de vibraciones. Todos los establecimientos deberán cumplir las condiciones acústicas de la edificación que se describen en la Norma Básica de Edificación NBECA88. No podrán instalarse máquinas o motores sobre las paredes sin que estén dotadas de los correspondientes elementos de amortiguación y 28 corrección de ruidos y vibraciones. Todas las máquinas o motores estarán situadas de forma que su envolvente exterior quede a una distancia mínima de 1 metro de los muros. Los aparatos que emitan sonidos deben ser también aislados de manera que el ruido transmitido no exceda el valor máximo autorizado por las ordenanzas. Solución propuesta La solución de ascensor que se propone se corresponde con un ascensor hidráulico para una carga máxima de 450 kg, es decir, para el uso simultáneo de 6 personas en cabina. Las dimensiones exteriores del recinto del ascensor serán de 180 x 160 cm. A continuación se muestra en una tabla las características del ascensor: Nº04. Enero de 2015 posición de cierre, las holguras entre hojas o entre hojas y sus largueros verticales, marcos y umbrales, deben ser lo más reducidos posibles. Esta condición se considera cumplida, cuando estas holguras operativas no superan 6 mm. Anotar que dicho valor debido al desgaste puede alcanzar los 10 mm. Las puertas y sus marcos deben construirse de manera que su indeformabilidad sea garantizada a lo largo del tiempo según dice el artículo 7.2.1 de la Norma EN 81-2. Las puertas con sus cerraduras, deben tener una resistencia mecánica tal que, en posición de bloqueo y como consecuencia de la aplicación de una fuerza de 300 N, perpendicular a la hoja, aplicada en cualquier lugar de una u otra cara, siendo esta fuerza repartida uniformemente Según el artículo 7.2.3.2 de la citada norma EN 81-2, con la aplicación de una fuerza manual de 150 Newton en la dirección de apertura de las hojas de las puertas de deslizamiento horizontal estás deben interrumpir su cierre. El movimiento de las hojas no debe ser superior a la energía cinética de 10 Julios que produce su desplazamiento. También se instalarán células fotoeléctricas con objeto de detectar cualquier obstáculo que impida el cerramiento de las puertas. Si la cabina no está en planta, la puerta de rellano quedará enclavada. Su cerradura se desenclavará para 25 cm de altura inferior y superior de la superficie del rellano. Cálculo de la estructura Para el cálculo de la estructura primeramente se hace una aproximación de la carga que va a tener que soportar la instalación. De esta forma, mediante la comprobación de resistencia, podemos elegir una solución de perfil metálico laminado que se adapte a la situación: Comprobación de Resistencia: Imagen 3. Tabla de características del ascensor hidráulico propuesto como solución para el edificio Es necesario concretar que debido a la situación de interperie del ascensor, las puertas de cabina como las de rellano serán de acero inoxidable. Su superficie será lisa sin endiduras o salientes que puedan provocar enganchones de ropa en caso de evacuación de emergencia. Las aberturas en el hueco, que sirven de acceso a la cabina del ascensor, deben estar provistas de puertas de piso sin perforaciones. En la sobre una superficie de 5 cm2 de sección circular o cuadrada, las citadas puertas deben: a) resistir sin deformación permanente. b) resistir sin deformación elástica superior a 15 mm. c) durante y después de este ensayo, el funcionamiento seguro de la puerta no debe verse afectado. N: esfuerzo de cálculo (tomamos aproximadamente N=12 kN) A: área del perfil laminado fyd: límite elástico minorado por 1,05 del acero De esta forma, con la ecuación anterior, despejamos el área y mirando cualquier prontuario de perfiles, optamos por una solución. Nº04. Enero de 2015 29 PONER AQUÍ IMAGEN Observando el prontuario, llegamos a la conclusión de que el perfil adecuado es un IPE 180. La estructura metálica del ascensor arranca desde el foso y al igual que la estructura de éste, lo hará con cerramiento de pilares Dos IPE 180 en cruz. En la imagen 4, se muestra la disposición de los pilares. Entre dichos pilares se montan a nivel de planta e intermedio entre estas cada 2 metros, otras barras horizontales (travesaños IPE 160) que además de dar rigidez al conjunto, sirven de apoyo al cerramien- Cálculo del peso del vehículo Conocidos los siguiente valores de las masas de las distintas partes del ascensor: Carga máxima del ascensor: 450 kg Masa de la cabina: 350 kg Masa del chasis: 200 kg Masa del operador de puertas: 200 kg Masa total = 450 + 350 + 200 + 200 = 1200 kg Si tomamos como fuerza de la gravedad el valor g=9’8 m/s2 , obtenemos la siguiente carga Q que soporta el ascensor: Imagen 4. Tabla / prontuario de perfiles peso de la cabina creará un momento flector sobre el citado pilar. Este momento flector dará lugar a una reacción horizontal que será absorbida por los travesaños. Realizaremos el estudio sobre el caso más desfavorable, que será sobre aquel travesaño que se encuentre a mayor distancia del empotramiento. Si éste soporta los esfuerzos y deformaciones máximas permitidas, el resto de los travesaños lo cumplirán sin ningún problema. “Según la comprobación de resistencia y observando el prontuario de perfiles metálicos, se llega a la conclusión de que el perfil adecuado para construir la estructura de cerramiento del ascensor hidráulico propuesto es Dos IPE 180 en cruz” to del recinto y guías del ascensor. Las guías se sitúan cada 2 metros y se anclan a los travesaños, con lo que los esfuerzos de estas se transmiten íntegramente a la estructura. Los perfiles y secciones de esta estructura son capaces de soportar todas las cargas que puedan transmitirle los pesos del ascensor y su cerramiento. Q = Masa total ∙ g ; Q = 1200 x 9’8 ; Q = 11.760 Newton Una vez calculado esto, estamos en disposición de representar el caso sobre un diagrama del sólido libre que nos va a facilitar el cálculo del momento flector sobre el pilar. El Como ya se ha comentado anteriormente, la carga Q ejercerá sobre el pilar un momento flector, que denotaremos como Mf, tal que éste creará una reacción horizontal en el travesaño. Calculamos dicho momento: Mf = Q ∙ dist. ; Mf = 11760 ∙ 0’9 ; Mf = 10.584 N∙m ≈ 10’6 kN∙m 30 Nº04. Enero de 2015 nuación en la imagen 6 se muestra un ejemplo de una cimentación que bien podría usarse para el ejemplo que estamos tratando. El diseño y dimensiones de la estructura que se detallan cumplen las determinaciones y directrices técnicas para instalación de ascensores. Imagen 5. Diagrama del sólido libre A parte de esto, será necesario realizar el cálculo de esfuerzos sobre los travesaños y el cálculo en caso de acuñamiento. Otro punto a tener en cuenta es el cálculo de la cimentación sobre la que irá alojada el ascensor. A conti- El diseño se ha realizado con criterios de modelización y normalización de piezas de las mismas dimensiones, tanto en estructura como en panelados o cerramientos, de modo que sean intercambiables y adaptables a cada parte del cuerpo del ascensor. Para el montaje se prevé la adaptación de todos los elementos estructurales modelizados, de la misma dimensión, para abaratar y dar mayor rapidez de ejecución, posible sustitución, reparación o mantenimiento. La estructura se montará mediante soldadura o atornillado, lo que garantiza menores vibraciones y mayor seguridad y durabilidad del conjunto. Sin embargo para los materiales de cobertura y recubrimiento del conjunto se prevén sistemas de atornillado de seguridad, lo que permitirá un mantenimiento, posible sustitución o reparación rápido y eficiente, así como un montaje rápido y eficaz. En el zócalo se opta por la soldadura de los elementos de cerramiento con miras a evitar posibles actos vandálicos. Para el montaje de la maquinaria se respetarán las determinaciones del fabricante, que en este caso reducen considerablemente tanto los elementos de montaje ya prefabricados como los elementos de arriostramiento, sujeción y seguridad sobre los que no hay que actuar, solamen- “Para el montaje de la maquinaria del ascensor se respetarán las determinaciones que indica el fabricante. Estos elementos se reciben completamente montados lo que conlleva una gran economía en los tiempos de instalación.” te montar en obra con una gran economía de tiempos. Imagen 6. Cimentación foso del ascensor Fuente: http:/www.detallesconstructivos.cype.es Como anteriormente se ha descrito, todos los elementos de maquinaria se reciben en obra completamente montados, de modo que solamente hay que proceder a su colocación sin actuar sobre ellos, con la consiguiente economía en tiempos de ejecución y seguridad del resultado final. Estos elementos han pasado un proceso exhaustivo de calidad que garantiza su perfecto funcionamiento durante largos periodos de tiempo incluso sin mantenimiento, aunque éste se aconsejado. Nº04. Enero de 2015 Para el foso del ascensor se opta por un cajón prefabricado sobre hormigón de limpieza en el que ya se incluyen todos los elementos de seguridad y montaje que el grupo del ascensor debe llevar para su instalación; la eficiencia es máxima y su rapidez de ejecución no se puede superar. En cuanto a la normalización estructural se ha preferido aumentar la sección estructural a la mayor de cálculo para facilitar y acortar los tiempos de montaje, con elementos intercambiables, en los que no es ni necesaria la consulta de planos estructurales para su montaje. La eficiencia en el conjunto estructural será muy alta dada la casi total prefabricación de las piezas del conjunto estructural. El espacio requerido para la instalación del ascensor y su montaje se reduce al propio cuerpo del mismo cuyas dimensiones se han detallado previamente, y para la estructura solamente se requiere de acopio en el interior del hueco el ascensor por razones de montaje. 31 Para el acopio de materiales se utilizará el interior del patio, por razones de seguridad no se acopiará en la vía pública, las puertas y maquinaria se distribuirán por cada una de las plantas donde se vayan a instalar. Estructura autoportante atornillada La estructura que emplearemos para terminar nuestro ejemplo de la instalación del ascensor hidráulico tiene todas sus uniones mediante tornillos por lo que no precisa de soldadura. A continuación vamos a detallar las partes comunes de este tipo de estructuras. Cuando en un edificio no existe un recinto donde ubicar el ascensor, la estructura modular autoportante descrita a continuación ofrece la solución ideal. Sus ventajas más importantes son: PONER AQUÍ IMAGEN PONER AQUÍ IMAGEN Imagen 8. Cerramiento exterior de la estructura del ascensor De fácil instalación por ser de módulos atornillables. No precisa soldadura. De gran versatilidad: acabados en chapa lisa, perforada, con vidrio. Admite cualquier revestimiento. De instalación interior o exterior. Diseñada para su ubicación en edificios antiguos. Incorpora presoportes para la fijación de guías. Para instalaciones oleodinámicas o electromecánicas. Instalación desde el interior de la propia estructura. REFERENCIAS Y BIBLIOGRAFÍA: - Departamento de Mecánica IV de Instalaciones electromecánicas de la Universidad Politécnica de Madrid. - www.ascensoresyelevadores.com Imagen 7. Estructura autoportante atornillada - www.camaradeascensores.com 32 Nº04. Enero de 2015 ANÁLISIS DE LA INFLUENCIA DE LA SOBREALIMENTACIÇON EN MOTORES ALTERNATIVOS FERNANDO MARTEL ARANDA. INGENIERO TÉCNICO INDUSTRIAL, ESP. MECÁNICA Los procedimientos de análisis del acoplamiento de grupos compresorturbina para sobrealimentación de motores precisan el uso de características que no siempre son asequibles, y un procedimiento completo sobre las diferentes condiciones operativas del motor. El auge de la web permite adquirir las características propias de grupos visitando directamente las páginas de las casas comerciales. En este documento se presenta una metodología práctica de evaluación del acoplamiento de un conjunto sobrealimentador a un motor determinado mediante el empleo de una hoja de cálculo. El desarrollo de esta metodología se hace analizando el ciclo airecombustible del motor, considerando composición de gases en cilindro y propiedades termodinámicas variables con la temperatura. Figura 2: Grupo compresor (azul) turbina (rojo) para la sobrealimentación de motores con gases de El esquema general consiste en tomar los datos de un grupo determinado, y analizar el motor ficticio de Z cilindros con acoplamiento del grupo en las condiciones de par y potencia máximas, comparando sus resultados por cilindro con los del motor atmosférico. Figura 1: Grupo compresor (azul) turbina (rojo) para la sobrealimentación de motores con gases de escape; Sistema completo. Ref Aguilar del Moral. Hecho este procedimiento general para las dos condiciones extremas, se identifican en la gráfica del turbocompresor dichos puntos. Éstos se unen con una línea y se lleva además a un valor de flujo de aire de Según el resultado, se puede evaluar si la soplante elegida será eficiente para el motor elegido o, si por el contrario, no sirve, necesitando entonces evaluar otro conjunto diferente. Se podrán dar varios casos como los un 20% máximo con relación de presiones. Estas líneas envuelven las condiciones operativas del motor en donde el dispositivo funcionará. Nº04. Enero de 2015 33 PROCEDIMIENTO DE CÁLCULO (a) (b (c) (d) Figura 3: Procedimiento general de evaluación del acoplamiento del grupo al motor presentados en la Figura 4. Si la línea que une los tres puntos indicados (20% flujo másico máximo-par máximo-potencia máxima) está dentro de la gráfica característica, aproximadamente como la Figura 4.b indica, el funcionamiento del grupo se hará para la mayor parte de las condiciones operativas del motor, de forma que se considera correcto el proceso de evaluación, como criterio para la finalización del procedimiento que exige la Figura 3. En caso de darse los extremos 4.a) o 4.c) debe buscarse un grupo superior o inferior, respectivamente. Figura 4: Ejemplos de casos de evaluación del compresor: a) Condiciones por debajo del límite de bombeo; b) Correcto; c) Condiciones por encima del bloqueo sónico; d) Evaluación del acoplamiento sobre las curvas características de las turbomáquinas. 34 Nº04. Enero de 2015 (K). La temperatura de entrada al motor será entonces (Ec 1): Figura 5: Procedimiento general de evaluación del ciclo sobrealimentado para una condición operativa del motor. miento relativo interno. Con ello, se pueden determinar las condiciones Dentro de este procedimiento general, el cálculo para cada condición operativa toma los valores iniciales del motor monocilíndrico, conservando el valor de las pérdidas mecánicas, rendimiento de la combustión, rendimiento volumétrico (o coeficiente de admisión) y rendimiento de calidad. Entonces, la masa de combustible y masa de aire entrante por ciclo (y flujos másicos) se multiplican por Z y por N. Al valor de aire entrante se le suma un valor pequeño de aire de barrido (en torno a un 3% adicional). Estos serán datos conocidos. Entonces se desarrolla el procedimiento presentado en la Figura 5. “Tradicionalmente el análisis y estudio de la sobrealimentación en motores alternativos, se ha basado en procedimientos teóricos muy complejos de difícil aplicación práctica.” Para el análisis de la entrada se tendrá en cuenta el esquema de la Figura 6. Se toma la curva característica del turbocompresor centrífugo, y en ella se marca el valor del flujo de aire que entra al motor. Entonces se busca un valor en dicha curva para dicho flujo a una relación de presiones determinada rC. A ese punto le corresponderá un valor de rendi- de salida del aire del turbocompresor a partir de las condiciones ambientales y la ecuación de las adiabáticas. En caso de desear incorporar un ‘intercooler’, se debe introducir el valor de la eficiencia del intercambiador ξ, de forma que se obtenga la temperatura de entrada del aire a los diferentes cilindros T1 A continuación se analiza la salida y acoplamiento, cuyo esquema general se presenta en la Figura 7. En primer lugar, se evalúan las condiciones y el trabajo disponible de la turbina trabajando a presión constante a la entrada (análisis de disponibilidad en la Figura 7), tal y como se establece en Muñoz & Payri (1989). Nº04. Enero de 2015 Figura 6: Procedimiento de análisis de la entrada al motor. CONCLUSIONES 35 La hoja de cálculo se revela no sólo como una potente herramienta para el estudio y simulación de procesos sino además como un magnifico recurso que asiste al proceso de enseñanza-aprendizaje, en el momento que permite proyectar y ensayar posibles alternativas para encontrar Figura 7: Procedimiento de análisis de la salida del motor y acoplamiento del grupo. la más adecuada, consiguiendo, de esta forma, el desarrollo y adquisición de las competencias y la consecución de los objetivos propuestos. REFERENCIAS Y BIBLIOGRAFÍA: Tradicionalmente el análisis y estudio de la sobrealimentación en motores alternativos, se ha basado en procedimientos teóricos muy complejos de difícil aplicación práctica. Con el fin de facilitar la compresión y manejo de estos sistemas se ha propuesto este algoritmo basado en el uso de una hoja de cálculo. De esta forma, la complejidad del proceso se ve auxiliada con el procedimiento programado. -Arcoumanis, C., 1988, Internal Combustion Engines, Academic Press, UK. -Boyce, M.P., 2002, Gas Turbine Engineering Handbook, 2nd Ed., Gulf Professional Publishing, US. -Cruz Peragón, F., Aguilar Sutil, J.S., Palomar Carnicero, J.M., 2009, Análisis del ciclo de aire-combustible en motores alternativos con ayuda de hoja de cálculo, Actas de las VI Jornadas de Ingeniería Termodinámica, Junio, Córdoba, (aceptado). -Lombardini, 1996, Work Shop Manual CHD Engines, 3rd Edition, p. no 15302.345 -Muñoz, M. y Payri, F., 1990, Motores de Combustión Interna Alternativos, Publicaciones de la ETSII, UPM, Madrid. 36 Nº04. Enero de 2015 TECNOLOGIAS PARA EL RECICLAJE DE AGUA EN LAS VIVIENDAS FERNANDO GÓMEZ ESTRADA. INGENIERO INDUSTRIAL. Es una realidad, de que el crecimiento demográfico mundial ha crecido y crecerá a lo largo de estos años, siendo el agua que consumimos la misma, y como muestran diferentes estadísticas, estamos abusando de ella. Europa empieza a notar los efectos de este consumo incontrolado, y en España ya existen restricciones importantes, ligado a un elevado precio de este bien tan limitado e importante. Ha llegado el momento de un planteamiento global para cambiar los hábitos de consumo, siendo estos, más racionales, más inteligentes, más solidarios y ligados a nuevas tecnologías como la implanta- ción en los hogares de sistemas para la recogida, almacenamiento y segunda distribución de aguas grises y de lluvia. Solo el 2,5% del agua del planeta es agua dulce, en donde la gran parte se encuentra en los cas- quetes polares, embalses subterráneos o de difícil acceso, por lo tanto, existe un porcentaje muy reducido, en torno al 0,26% del agua total del planeta apta para el consumo, siendo esta, la que se encuentra en los lagos, ríos y pozos accesibles, los cuales dependen en su totalidad de las precipitaciones. Este porcentaje cada vez es más reducido ya que el agua que se puede utilizar esta cada vez más contaminada. En los países desarrollados, el consumo medio por persona al día es mucho más de lo necesario, aproximadamente en Europa es de unos 173 litros, mientras que en España unos 140 litros como se puede apreciar en la imagen. Por lo tanto, podemos cambiar nuestra conducta en cuanto al consumo de agua se refiere con un consumo más responsable, y además, con la implantación de nuevas tecnologías sostenibles para la arquitectura e industria basadas en el reciclaje de agua tanto de aguas grises como para el agua de lluvia, y que ayudan a un aumento considerable en el ciclo de vida de la vivienda. Imagen 1. Consumo medio de agua por comunidad autónoma. .Ref: www.iagua.es Desde siempre, el agua que desaparece por el lavabo o por la cisterna ha ido directamente a la red de alcantarillado en la mayoría de los hogares sin percatarnos de que Nº04. Enero de 2015 Por otro lado, el agua de lluvia siempre ha sido un recurso que históricamente ha desempeñado un papel muy importante en cualquier vivienda, por ejemplo, en nuestro país, rara es la vivienda con más de 100 años que no tenga su propio aljibe. Ahora bien, fue a principios del siglo XX cuando aparecieron las canalizaciones donde el agua de lluvia pasó a un segundo plano siendo reservada a situaciones muy especiales. Un incremento demográfico mundial está haciendo que la demanda de agua esté creciendo de forma exponencial, además de que empiezan a haber zonas con una escasez significativa, pudiéndose recuperar la costumbre de aprovechar las aguas pluviales, así como la implantación de nuevas tecnologías en el tratamiento de aguas grises procedentes de cisterna, ducha, lavabos… para usos domésticos tales como lavadora, lavavajillas, la limpieza de casa, la cisterna del inodoro y el riego en general, casos en los que la calidad del agua no precisa ser apta para el consumo humano y donde no es necesario el uso del agua potable. Así pues, las aguas grises y las aguas pluviales pueden ser perfectamente utilizables para el uso doméstico e industrial. Los nuevos sistemas de recogida y aprovechamientos de aguas están empezando a cobrar importancia en los últimos años. En el norte de Europa, a pesar de disponer de modernos sistemas de canalización y potabilización de agua, están incentivando el uso de estas tecnologías, por ejemplo, Alemania comenzó a subvencionar este tipo de iniciativas desde la reunificación, y centenares de miles de viviendas disfrutan actualmente de estos equi- 37 PONER AQUÍ IMAGEN Imagen 2. Evolución futura de la población de España. Ref: INE PONER AQUÍ IMAGEN Imagen 2. Evolución de la población mundial. Ref: www.eumed.net pos. Todo ello a pesar de que son países donde el ahorro de agua no es tan importante como en el nuestro. En España, no existe una inercia que incentive la implantación de estas tecnologías innovadoras, por ello estamos a la cola de Europa. Pero la creciente desertización de España está empezando a provocar una mayor demanda de la tecnología sobre recogida de aguas pluviales, lo que supone directamente una importante oportunidad de negocio. En nuestro país, de forma aproximada y de media, tenemos en precipitaciones unos 640mm (l/m2) con lo cual, instalando un sistema de recogida de aguas pluviales con un rendimiento aproximado del 80% en una casa de unos 100m2, obtendríamos unos 51.200 litros de ahorro de agua para diferentes usos y de forma totalmente gratuita. Son importantes las ventajas sobre la recogida de aguas pluviales. En primer lugar, se trata de 38 Nº04. Enero de 2015 nan con otras fuentes de suministro de agua como por ejemplo la red general en la mayoría de los casos. Esto hace necesario incluir en la instalación un sistema de control que nos indique en cada momento la cantidad de agua almacenada, y que dé entrada a la de la red general cuando sea necesario. PONER AQUÍ IMAGEN Imagen 3. Carácter de la precipitación, año 2013. Ref: Agencia Estatal de meteorología, Ministerio de Agricultura, Alimentación y Medio Ambiente. (EH, extremadamente húmedo; MH, muy húmedo; H, húmedo; N, normal; S, seco; MS, muy seco; ES, extremadamente seco) Por otro lado, del agua que se consume en una vivienda, entre el 65-70% procede del cuarto de baño, donde el 40% es de la cisterna. La instalación de tecnologías de depuración de aguas grises en una vivienda de 4 personas puede conllevar un ahorro de unos 90.000 litros al año. agua debe ser recogida, en cambio otras épocas donde el agua almacenada debe conservarse o incluso se agota, además de, en el caso de España las precipitaciones están distribuidas de forma muy irregular, por lo que el factor meteorológico es muy importante. Es por ello, en donde estas tecnologías se combi- Los componentes de los que constan este tipo de tecnologías es muy sencilla a la vez de eficaz. Además, dependiendo del área geográfica en la que se esté, se pueden instalar distintos sistemas como recogida de pluviales o reciclaje de agua, así como ambos conjuntamente si así se desea, todo ello siempre depende la empresa instaladora y de las opciones que ofrezca a sus clientes. Dentro de las grandes ventajas, estos sistemas de pueden instalar tanto en viviendas para nueva construcción como en viviendas ya Estos nuevos sistemas requieren una pequeña instalación en el hogar para su recogida, tratamiento, almacenamiento y distribución, además si se desea, se puede instalar unos sistemas complementarios de depuración de agua para ser apta para el uso humano donde se tomen las precauciones que sean necesarias y requeridas. Lógicamente, existen épocas del año donde llueve más y el Imagen 4. Porcentaje de precipitaciones sobre el valor medio normal en el conjunto del año 2013. Ref: Agencia Estatal de meteorología, Ministerio de Agricultura, Alimentación y Medio Ambiente. Nº04. Enero de 2015 39 Sistema de reciclaje de agua de lluvia uso como por ejemplo, el riego o para la cisterna. Como se puede apreciar, el sistema de recogida de aguas pluviales consta de: área de captación, que puede ser cualquier superficie impermeable como por ejemplo, el tejado; conductos, donde el agua captada es dirigida al depósito a través de la inclinación del tejado y los canalones; filtros, que evitan que en depósito entren partículas peligrosas que pueda obstruir el sistema; depósitos o aljibes, donde el agua es almacenada para su nueva distribución y los cuales pueden estar en los sótanos de las viviendas o enterrados en los jardines o ; sistemas de control, donde se controla el sistema atendiendo a posibles averías o simplemente alternando el consumo del agua del depósito o de la red general. Como hemos visto esta tecnología se encuentra ante un mercado sin explotar en donde todo apunta que en los próximos años sufrirá un crecimiento importante. Entre las grandes ventajas, nos encontramos ante una idea innovadora con alta captación de personas Sistema de reciclaje de aguas grises El sistema es simple, parte Imagen 5. Esquema del sistema de recolección de agua de lluvia. Ref. www.sitiosolar.com del agua que utilizamos para asearnos, ducharnos, limpieza… y la cual dejamos correr por el desagüe es reconducida hacia un deposito donde es depurada pasando por diferentes etapas, que pueden ser: Una primera etapa de desengrase y desasenado, donde se separan las partículas de mayor tamaño; en una segunda etapa se produce la degradación biológica y decantación, donde se realiza una descomposición biológica de la materia orgánica; y en la tercera etapa se produce el almacenaje y desinfección, que elimina bacterias, virus y protozoos. Pasada toda la fase tratamiento, el agua es conducida para un segundo Imagen 6. Esquema del sistema de reciclaje de aguas grises. Ref. www.totagua.com comprometidas con el medio ambiente y por supuesto, interesadas en reducir su factura en consumo de agua. REFERENCIAS Y BIBLIOGRAFÍA: Imagen 7. Esquema de las distintas etapas de reciclaje de aguas grises según el modelo ecocicle (nº patente: P 200.800.444). Ref. www.totagua.com Www.aemet.es www.totaagua.com Www.sitiosolar.com blog.is-arquitectura.es 40 Nº04. Enero de 2015 EL FRÍO ARTIFICIAL DAVID RUBIO BARBA. INGENIERO TÉCNICO INDUSTRIAL ESP. MECÁNICA la carga térmica, donde se habrá que dimensionar dicho sistema con sus componentes principales (válvula de expansión, condensador, compresor, y evaporador ), refrigerantes no contaminantes y de amplio efecto frigorífico y costes operativos del sistema. Historia Imagen 1. Esquena clásico de un circuito frigorífico con sus principales componentes y elementos de seguridad. Fuente: www.tecnologia-industrial.es Los denominados sistemas frigoríficos o sistemas de refrigeración corresponden a sistemas mecánicos que utilizan propiedades termodinámicas de la materia para intercambiar energía térmica en forma de calor entre dos o más focos, conforme se necesite. Están diseñados principalmente para disminuir la temperatura del producto almacenado en cámaras frigoríficas o cámaras de refrigeración, las cuales pue- den servir para la conservación de productos perecederos, fabricación de hielo, procesos industriales diversos, tratamiento de materiales etc. Para lograr un diseño adecuado de estas cámaras frigoríficas han de tenerse en cuenta una serie de parámetros como las temperaturas de operación: (temperaturas de evaporación y condensación), capacidad del sistema, generalmente denominada en KW definida en función de El inicio de la producción de frío se inició con la utilización de hielo natural, ya que se practicó mucho antes de construirse cualquier máquina térmica. Los griegos y los romanos comprimían la nieve en pozos aislados con pasto, paja y ramas de árboles. La nieve comprimida se convertía en hielo para ser usado en épocas de mayor calor. Otros escritos antiguos describen cómo los egipcios, hindúes y otros pueblos empleaban Nº04. Enero de 2015 Imagen 2. Máquina frigorífica de 1775 Fuente: www.quo.es procedimientos para producir hielo artificialmente, en general parecidos en sus principios. Se llenaban con agua vasijas poco profundas de arcilla porosa u otro material análogo y se colocaban sobre gruesos lechos de paja durante la noche. Si las condiciones atmosféricas eran favorables: frío, aire seco y una noche sin nubes, la pérdida de calor, debida a la evaporación nocturna, originaba la formación de finas capas de hielo en la superficie. El primer método artificial para producir frío fue mediante mezclas de refrigerantes. En 1553 un médico español, aposentado en Roma, Blas Villafranca se ocupaba del enfriamiento del agua y el vino por medio de mezclas refrigerantes, nombrando por primera vez la palabra refrigerar en el sentido de lograr y mantener una temperatura inferior a la del ambiente. En 1607 se descubrió que podía utilizarse una mezcla de agua con sal para congelar el agua. En el siglo XVII, las mezclas refrigerantes son utilizadas en la investigación científica por Robert Boyle (Castillo de Lios Mar 1627 – Londres 1691) y por el astrónomo físico francés Philippe Laire (París 1677 1719), más tarde, en el siglo XVIII, numerosos físicos y químicos em- 41 plean mezclas refrigerantes en el laboratorio. que funcionaba con un ciclo de aire i el fluido no sufría cambio de fase. Estas mezclas permitieron experimentos a bajas temperaturas y así, en 1715, utilizando una mezcla de nieve y nitrato amónico, Fahrenheit establecía el cero de su termómetro. Ferdinand Carré desarrolló un sistema algo más complejo en 1859. Semejante de máquinas anteriores de compresión, que utilizaron el aire como líquido refrigerador, el equipo de Carré contuvo el amoníaco rápidamente que se ampliaba. (El amoníaco en fase liquida en una temperatura mucho más baja que el agua, absorbe más calor.) Los refrigeradores de Carré fueron utilizados extensamente, y la refrigeración de la compresión del vapor se convirtió, y sigue siendo, el método más extensamente usado para enfriamiento. Hasta 1834, no se inventó el primer sistema de compresión de vapor, el ingeniero americano Jacob Perkins inventó la máquina destinada a ser la base de la actual industria de la refrigeración. Su patente, descrita como Improvement in the Apparatus and Means of Producing Ice and in Cooling Liquids, hablaba de una máquina de compresión que trabajaba en un ciclo cerrado. Utilizaba éter que hervía en un evaporador, a baja temperatura y presión, para congelar el agua. Luego el vapor de éter obtenido se comprimía y condensaba a mayor temperatura y presión; finalmente, el éter líquido del condensador se introducía, a través de una válvula de expansión, dentro del evaporador a baja presión, donde la temperatura descendía de nuevo a su valor inicial, completando así el ciclo. No obstante, se considera que la primera máquina con éxito comercial fue inventada por John Gorrie en 1844. La máquina de Gorrie difería de la de Perkins en el hecho de Imagen 3. Croquis de un pozo de hielo romano El amoníaco dio paso al dióxido de azufre y al dióxido de carbono mientras tanto continuaba la búsqueda de refrigerantes más seguros y de mejor rendimiento. Esta búsqueda culminó en 1930 cuando Thomas Midgley, Jr., de Dupont, anunció el primer fluorocarbono, el Freon-12, que condujo a la familia que ha dominado la refrigeración por compresión hasta que a finales de los 80, su efecto sobre la capa de ozono (descubierto por Rowland y Molina en 1974) provocó que internacionalmente se haya acordado la extinción de su uso, en un plazo todavía poco claro, y que esté apareciendo una nueva familia de fluidos frigoríficos. 42 Nº04. Enero de 2015 transferido a la sustancia que pasa por él convirtiéndose en energía de flujo, aumentando su presión y energía cinética impulsándola a fluir. Existen diferentes tipos de compresores como: Imagen 4. Ciclo de refrigeración por compresión Fuente: www.empresaeficiente.com Sistemas de refrigeración por compresión La refrigeración por compresión es un método que consiste en forzar mecánicamente la circulación de un refrigerante en un circuito cerrado creando zonas de alta y baja presión con el propósito de que el fluido absorba calor en el evaporador y lo ceda en el condensador. El funcionamiento de una maquina frigorífica por compresión consiste en desplazar energía térmica en forma de calor entre dos puntos. La refrigeración por compresión se consigue evaporando un gas refrigerante en estado líquido a través de un dispositivo de expansión dentro de un intercambiador de calor, denominado evaporador. Para evaporarse, este requiere absorber calor latente de vaporización. Durante el cambio de estado el refrigerante en estado de vapor absorbe energía térmica del medio en contacto con el evaporador, bien sea este medio gaseoso o líquido. A esta cantidad de calor contenido en el ambiente se le denomina carga térmica. Después de este intercambio energético, un compresor mecánico aumenta la presión del vapor para poder condensarlo dentro de otro in- tercambiador de calor conocido como condensador y hacerlo líquido de nuevo. Este aumento de presión, además, produce un aumento en su temperatura. Para lograr el cambio de estado del fluido refrigerante y producir el subenfriamiento del mismo es necesario enfriarlo en el interior del condensador; esto suele hacerse por medio de aire y/o agua dependiendo del tipo de condensador, definido muchas veces en función del refrigerante. De esta manera, el refrigerante en estado líquido, puede evaporarse nuevamente a través de la válvula de expansión y repetir el ciclo de refrigeración. ·Compresores de tornillo: estos compresores tienen husillos que comprimen el gas a medida que entra en el evaporador. El compresor de tornillo cuenta con un funcionamiento suave y requisitos mínimos de mantenimiento, ya que generalmente estos compresores sólo necesitan cambios en el aceite, el filtro de aceite y el separador de aire/aceite. ·Compresores alternativos: un compresor alternativo utiliza un mecanismo de pistón accionado por descargas con resorte de carga y pasadores para elevar la placa de la válvula de succión de su asiento, permitiendo que la unidad pueda ser utilizada en cualquier relación de presiones. ·Compresores de desplazamiento: Elementos constructivos - Compresor: Un com- presor es una máquina de fluido que está construida para aumentar la presión y desplazar cierto tipo de fluidos llamados compresibles, tal como lo son los gases y los vapores. Esto se realiza a través de un intercambio de energía entre la máquina y el fluido en el cual el trabajo ejercido por el compresor es Imagen 5. Compresor Fuente: www. Forofrio.blogspot.com Nº04. Enero de 2015 43 ratura ambiente, respectivamente. Imagen 6. Evaporador Fuente: www.clubedarefrigeracao.com opuestos, la compresión fuerza dentro el equilibrio de desplazamiento y reduce la vibración en el interior del compresor. ·Compresores centrífugos: comprimen el gas refrigerante a través de la fuerza centrífuga creada por los rotores que giran a alta velocidad. Esta energía se envía a un difusor, que convierte una porción de él en aumento de la presión. Esto se hace mediante la ampliación de la región del volumen de flujo para desacelerar la velocidad de flujo del fluido energético. calor, que en el caso de la refrigeración por lo general se retira del ambiente que lo rodea. Este fluido refrigerante en forma gaseosa, en baja presión y temperatura, saldrá del evaporador al compresor, que comprimirá el fluido, impulsándolo hacia el condensador. En cuanto a tipos pueden ser de placas, tubulares o de tubos con aletas que precisan de un ventilador para la circulación forzada de aire. - Válvula de expansión: su funcionamiento normalmente termostático, consiste en un dispositivo de expansión que tiene la capacidad de generar la caída de presión necesaria entre el condensador y el evapora- - Condensador: Al igual que el evaporador, es un intercambiador de calor , y sirve para disipar al exterior del sistema de refrigeración el calor absorbido en el ciclo. Durante el proceso de compresión, se produce naturalmente el aumento de la temperatura y la presión del fluido refrigerante. Para la continuidad de la refrigeración, es necesario que este gas se enfríe y se condense, transformándose en líquido. El mecanismo de intercambio de calor entre el fluido refrigerante y el condensador se produce haciendo pasar el aire, más frío, alrededor de los tubos del condensador, más caliente, haciendo que el aire absorba el calor a través del proceso de convección natural o estática. En la condensación forzada ( proceso de convección forzado) se utiliza un micro ventilador, cuya principal ventaja es el aumento de la capacidad de intercambio de calor por el movimiento de aire forzado por dicho ventilador en el condensador. Este proceso se aplica por lo Los componentes necesarios para disponer de un sistema de refrigeración por compresión son el compresor, evaporador, condensador, válvula de expansión y refrigerante. - Evaporador: Al ser un intercambiador de calor, su función es transferir el calor del ambiente refrigerado al fluido refrigerante que está circulando. Así, el fluido refrigerante, que está en estado líquido, se convierte en vapor. Mientras tanto, por haber absorbido el calor, el evaporador mantendrá una temperatura adecuada que se requiera en el sistema. El principio que explica su papel en el sistema es que la evaporación de cualquier líquido exige absorción de dor en el sistema. Básicamente su misión se restringe a dos funciones: la de controlar el caudal de refrigerante en estado líquido que entra al evaporador y la de sostener un sobrecalentamiento constante a la salida de este. Para realizar este cometido dispone de un bulbo sensor de temperatura que se encarga de cerrar o abrir la válvula para así disminuir o aumentar el ingreso de refrigerante y su consecuente evaporación dentro del evaporador, lo que implica una mayor o menor tempe- general en los sistemas comerciales Imagen 7. Válvula de expansión Fuente : www.directindustry.com 44 Nº04. Enero de 2015 produce frío aprovechando las propiedades de ciertas sustancias que absorben calor al cambiar de estado líquido a gaseoso. Imagen 8. Condensador Fuente : spanish.alibaba.com pequeños que requieren una mayor capacidad de refrigeración. - Líquido refrigerante: es un producto químico líquido o gas, fácilmente licuable, que se utiliza para servir de medio transmisor de calor entre otros dos en una máquina térmica, y concretamente en aparatos de refrigeración. Los refrigerantes más usados inicialmente eran los clorofluorocarbonos R-12 y R22. Debido a las preocupaciones por sus efectos contaminantes en la capa de ozono, el los años 80 se comenzaron a sustituir por otros refrigerantes menos nocivos. · Calor específico lo más alto posible · Volumen específico bajo para evitar grandes tamaños en las líneas de aspiración y compresión. · La temperatura de condensación (a presión máxima) y ebullición (a presión cercana a la atmosférica) bajas. · No deben ser líquidos inflamables, corrosivos ni tóxicos. Sistemas de refrigeración por absorción En la refrigeración por absorción se A diferencia del sistema de compresión, donde el ciclo se hace mediante un compresor, en el caso de la absorción, el ciclo se basa físicamente en la capacidad que tienen algunas sustancias, como el bromuro de litio, de absorber otra sustancia, tal como el agua, en fase de vapor. No obstante, también se puede conseguir con otras sustancias, como el amoníaco. El ciclo más comúnmente empleado es el de agua-bromuro de litio por tener mayor eficiencia. En cuanto a su funcionamiento, el agua (refrigerante), que se mueve por un circuito a baja presión, pasa al estado vapor en el evaporador. La evaporación necesita calor, que obtiene en un intercambiador en el que refrigera un fluido secundario (normalmente, también agua). Tras el evaporador, el bromuro de litio absorbe el vapor de agua en el La producción de R-12 cesó en Estados Unidos en 1995, empleando el R-134a y ciertas mezclas (que no atentan contra la capa de ozono) en remplazo de los compuestos clorados. El R410a (comúnmente llamado por su nombre comercial Puron®) es una popular mezcla 50/50 de R-32 y R-125 que ha sustituido al R-22. Las características que debe tener un refrigerante son las siguientes: · Punto de congelación inferior a cualquier temperatura que existe en el sistema, para evitar congelaciones en el evaporador. · Densidad elevada Imagen 9. Ciclo de refrigeración por absorción. Fuente: www.wkipedia.org Nº04. Enero de 2015 45 absorbedor, produciendo una disolución de bromuro en agua. Esta solución pasa al generador, donde se separan disolvente y soluto mediante calor procedente de una fuente externa; el agua va al condensador, que es otro intercambiador donde cede la mayor parte del calor recibido en el generador, y desde allí pasa de nuevo al evaporador, a través de la válvula de expansión; el bromuro, ahora como solución concentrada en agua, vuelve al absorbedor para reiniciar el ciclo. Al igual que en el ciclo de compresión, el sistema requiere una torre de enfriamiento para disipar el calor sobrante (suma del aportado por la fuente externa y el extraído de los locales o espacios refrigerados). El fluido caloportador que va a la torre circulará sucesivamente por dos intercambiadores situados en el absorbedor y en el condensador. Comparación de ambos sistemas Ambas máquinas tienen sus ventajas e inconvenientes, los cuales se tratarán de analizar en el siguiente apartado. En las máquinas por compresión, el COP (parámetro de rendimiento), se calcula como el coeficiente entre la energía cedida en el evaporador y el trabajo del compresor, es decir, la energía obtenida entre la aportada. Observando la imagen 6, el COP se calcula de la siguiente forma: COP Calor extraído Trabajo Imagen 10. Ciclo de refrigeración por compresión. Fuente: Instituto para la diversificación y el ahorro de energía O lo que es lo mismo: COP Entalpía 1 Entalpía 4 Entalpía 2 Entalpía 4 Sin embargo, para el ciclo de absorción se calcula con otra fórmula, ya que la energía que se introduce no es en forma de trabajo, si no en forma de calor: COP de energía renovable como instalaciones solares o calderas de biomasa. En la siguiente tabla se pueden ver las ventajas e inconvenientes de cada sistema: Efecto refrigeran te Entrada calor Las máquinas de absorción tienen un rendimiento menor que las de compresión, de hecho, necesitan una temperatura de funcionamiento superior a los 80º C para que el rendimiento no sea demasiado bajo, sin embargo, su principal ventaja reside en que si este calor es de muy bajo coste, puede ser una alternativa mejor que las máquinas de compresión, por ejemplo, utilizando el calor residual en ciclos de cogenerción o recibiendo este calor de fuentes REFERENCIAS Y BIBLIOGRAFÍA: - “La Producción de Frío”. Ed. SPUPV 2000.021. - www. bibliotecnica.upc.es - www.forofrio.com - www.elclub de la refrigeracao.com - www.twenergy.com 46 Nº04. Enero de 2015 CONTROL DE PARÁMETROS Y PRUEBAS DE CARGA E INTEGRIDAD EN PILOTES IN SITU. CARLOS SOTODOSOS MARTINSANZ. INGENIERO TÉCNICO OBRAS PÚBLICAS. Se denomina pilote a un elemento constructivo utilizado para la cimentación de obras, que permite trasladar (por punta) o repartir (por fuste) las cargas hasta un estrato resistente del suelo cuando este se encuentra a una profundidad tal que hace inviable, técnica o económicamente, una cimentación más convencional mediante zapatas o losas de cimentación. Se dice que los pilotes son in situ cuando la ejecución completa se efectúa en su lugar de emplazamiento definitivo. Control de parámetros. La correcta ejecución del pilote incluyendo la limpieza y, en su caso, el tratamiento de la punta son factores fundamentales que afectan a su comportamiento y que deben tomarse en consideración para asegurar la validez de los métodos de cálculo. de la entubación, de los tubos sónicos, etc. - Control del lodo. - Tipos de terreno atravesados. - Control del hormigón. - Niveles de agua. - Armaduras. - Hormigones. - Tiempos de perforación, colocación de armaduras y hormigonado. - Observación de incidencias durante la excavación y el hormigonado. Durante la ejecución se consideran adecuados los controles siguientes, s e g ú n l a no r m a UN E - E N 1536:2000 (tablas 6 a 11): - Control del replanteo. - Control de la excavación. - Control de las armaduras. En el control de vertido de hormigón, al comienzo del hormigonado, el tubo Tremie no podrá descansar sobre el fondo, sino que se debe elevar unos 20 cm para permitir la salida del hormigón. Pruebas de carga y de integri- dad. - ENSAYOS DE INTEGRIDAD Los ensayos de integridad tienen por objeto verificar la continuidad del fuste del pilote y la resistencia mecánica del hormigón. Los pilotes ejecutados “in situ” se controlarán durante la ejecución, confeccionando un parte que contenga, al menos, los siguientes datos: - Datos del pilote: Identificación, tipo, diámetro, etc. - Longitud de entubación en el caso de ser entubado. - Valores de las cotas del terreno, de la cabeza del pilote, de la armadura, Imagen 1. Esquema del funcionamiento del Ensayo de transferencia sónica. Fuente: www.geotecnika.com Nº04. Enero de 2015 1. Ensayo de transparencia sónica. El método de la transparencia sónica para el control de cimentaciones consiste en el seguimiento a todo lo largo del fuste del pilote o de la pantalla, del tiempo que tarda en propagarse una onda de presión (onda sónica) desde un emisor a un receptor que están colocados en posiciones conocidas. Es el método más usual para el control de la integridad de pilotes de gran diámetro y pantallas in situ. El ensayo se realiza introduciendo las sondas emisora y receptora en los tubos que se han instalado en los pilotes o en los taladros que se hayan perforado en el hormigón. Las sondas se introducen por los tubos previamente llenos de agua y descenderán, manteniéndoles a nivel hasta la punta del pilote. Con las sondas en el fondo y colocadas al mismo nivel, se izan registrando a intervalos constantes de profundidad, el tiempo que la onda ultrasónica tarda en recorrer la distancia entre sondas, atravesando el hormigón que las separa. En un hormigón homogéneo, la velocidad de propagación de las ondas de presión es constante y varía, entre 3500 y 4000 m/s dependiendo de la calidad del hormigón. Esta velocidad disminuye en zonas con diferentes características del material como coqueras o inclusiones de terreno. 47 diante un martillo de mano. Estos ensayos permiten controlar pilotes u otros elementos estructurales siempre que la geometría sea cilíndrica o prismática. Ensayo Eco. El impulso mecánico provocado con un martillo ligero de mano genera un tren de ondas que se transmite a lo largo del cilindro. En el hormigón esta velocidad de propagación varía entre los valores de 3500 y 4000 m/s. Cuando hay cambio geométrico o de características del material que constituye el pilote o un cambio importante de la rigidez del terreno, parte de la energía se refleja hacia la cabeza de éste. El método se basa en el análisis de la onda que se refleja (eco) hacia la cabeza del pilote. La onda reflejada permite obtener información de los cambios físicos que se ha encontrado la onda generada con el martillo al propagarse por el pilote. Ensayo de impedancia mecánica. Es un método en el que se activa la cabeza del pilote con una fuerza conocida y analiza la respuesta del pilote a cada una de las frecuencias de activación. La activación puede causarse mediante la acción de un vibrador a distintas frecuencias, o por la acción de un impacto del que se analiza la respuesta a las distintas frecuencias que lo componen. Actualmente el ensayo se mediante un impacto de martillo ligero. En estos métodos impulsionales o dinámicos sin embargo, el pilote es Imagen 2 Esquema del funcionamiento del Ensayo de eco. Fuente: www.geotecnika.com 2. Ensayos de eco y de impedancia mecánica. Los ensayos de eco y de impedancia mecánica se basan en la respuesta dinámica del pilote provocada por una pequeña fuerza axial que se aplica en la cabeza del pilote me- Imagen 3. Esquema del funcionamiento del Ensayo de impedancia mecánica. Fuente: www.geotecnika.com 48 Nº04. Enero de 2015 movilizado con una fuerza dinámica de corta duración. La fuerza aplicada con el martillo y la respuesta en velocidad de la cabeza se analizan en sus componentes en frecuencia mediante un analizador de espectros. Las “técnicas impulsionales” se desarrollaron por la necesidad de disponer de equipos más ligeros y rápidos que los vibratorios. El desarrollo también ha venido asociado a la miniaturización de los componentes electrónicos y a la velocidad de proceso informático. ENSAYOS DE CARGA. Los ensayos de carga tienen por objetivo obtener la capacidad de carga del pilote. 1. Prueba de carga estática escalonada. La prueba de carga estática escalonada consiste en someter al pilote a esfuerzos que se aplican de forma escalonada y creciente. Cada etapa de carga debe mantenerse constante durante un cierto periodo de tiempo, o hasta que el asiento haya virtualmente terminado o alcanzado el límite prescrito. Para llevar a cabo el ensayo es necesario contar con un tren de carga y un sistema de reacción. El tren de carga es el encargado de aplicar al pilote de prueba los escalones de carga previstos, y está formado por un gato la placa de asentamiento y el dispositivo de medida elegido. Durante la prueba se mide el asiento utilizando los dispositivos de auscultación instalados en el pilote. Estos dispositivos están vinculados a una viga de referencia situada a una distancia razonable. El análisis posterior de los datos permite obtener la capacidad resistente del elemento de cimentación. El método de carga estática escalonada es el más indicado para obtener el comportamiento carga- PONER AQUÍ IMAGEN Imagen 4. Esquema del funcionamiento de la Prueba de carga estática escalonada. Fuente: www.geotecnika.com: asiento de un pilote sometido a cargas de hasta 1,50 veces la solicitación del trabajo. 2. Prueba de carga de penetración a velocidad constante. En este tipo de ensayo el pilote es forzado a penetrar en el terreno a velocidad constante, midiendo la fuerza necesaria para ello. El ensayo se mantiene hasta que se alcanza la carga de prueba o el fallo del pilote. El tren de cargas y los sistemas de reacción son los mismos que en la Prueba de carga estática Escalonada. La diferencia radica en la forma de aplicación de la carga. La duración del ensayo no suele ser inferior a 24 horas, sin considerar el tiempo de preparación de la prueba. El ensayo es especialmente útil en suelos cohesivos, en los que los pilotes funcionan principalmente por fuste. 3. Prueba de carga estática bidireccional. El método de ensayo se denomina bidireccional porque la célula Osterberg trabaja simultáneamente en dos direcciones: hacia arriba, contra la resistencia del fuste, y hacia abajo contra la resistencia de la punta. Durante el ensayo, la resistencia por debajo de la célula Osterberg suministra la reacción para movilizar la resistencia de fuste, encima de la célula Osterberg, y al mismo tiempo, la resistencia de fuste proporciona la reacción para movilizar la resistencia de punta. Este principio de funcionamiento permite registrar y separar los datos de resistencia de ambas direcciones y llevar a cabo el ensayo hasta que se alcancen cualquiera de estas circunstancias: - Valor límite de la capacidad de resistencia por fuste. Nº04. Enero de 2015 - Valor límite de la capacidad de resistencia por punta. - Capacidad máxima de la célula de Osterberg instalada. Las principales ventajas del método del ensayo bidireccional son las siguientes: - No se requieren estructuras de reacción, pilotes de reacción o anclajes. - Permite cuantificar de manera independiente la resistencia por fuste y por punta del pilote. - Registros automáticos de los datos. - Altas capacidades de ensayo. - Pilotes en agua, con condiciones de acceso restringido o con nivel de hormigonado muy bajo. - Economía. La eficiencia económica es mayor a medida que la carga aumenta. 49 4. Prueba de carga semiestática. Las pruebas de carga semiestáticas aplican la fuerza de compresión al pilote durante un tiempo muy corto (pruebas rápidas), del orden de 100 ms. Sin embargo, este tiempo es muy superior al correspondiente a las pruebas dinámicas, que suele ser de unos pocos milisegundos. El sistema de aplicación de la carga consiste en una cámara de combustión en la que se produce la ignición controlada de un combustible. La fuerza generada levanta un pistón sobre el que se apoyan unos contrapesos importantes, con pesos del orden del 5-10% de la carga estática de prueba. Por el principio de acción y reacción, una fuerza centrada de igual magnitud comprime el pilote. La instrumentación se basa en dos dispositivos: una célula de carga que mide directamente la fuerza aplicada y un sensor de desplazamientos por láser colocado en la cabeza del pilote. El espacio de trabajo requerido es función de la magnitud de la carga de prueba. El método es rápido y permite realizar un gran número de ensayos al día. 5. Prueba de carga dinámica. Los métodos dinámicos se basan en el estudio de la respuesta del pilote al golpeo en su cabeza con un martillo. Para llevar a cabo estos ensayos se precisa un martillo de impacto que debe tener unas características acordes con el tipo de pilote que Imagen 5. Esquema del funcionamiento de carga estática bidireccional. Fuente: www.geotecnika.com Imagen 6. Esquema funcionamiento de la Prueba de carga semiestática. Fuente: www.geotecnika.com se va a ensayar, de forma que se movilice completamente la capacidad dinámica del pilote. En pilotes prefabricados puede utilizarse el mismo martillo de instalación, mientras que en pilotes in situ se requiere un martillo independiente. El pilote se instrumenta en cabeza con acelerómetros y extensómetros. Una vez hecho el ensayo, la información registrada se analiza para obtener, a partir de la teoría general de ondas de presión, la resistencia del pilote y su integridad. Las técnicas dinámicas ofrecen rendimientos muy elevados: un ensayo dinámico puede realizarse en 15 minutos en un pilote prefabricado, y en 30 minutos, en un pilote in situ. Porcentaje de pilotes a ensa- yar en obra. Dada la vaguedad de la normativa que contempla la realización de estos ensayos no destructivos de ci- Imagen 7. Esquema de las tres fases de funcionamiento de la Prueba de carga dinámica. Fuente: www.geotecnika.com 50 cimentaciones profundas, generalmente el número de pilotes a ensayar se indica en proyecto. A nivel de proyecto, la decisión sobre el tipo de control y número de ensayos a realizar debería tener en cuenta una serie de parámetros como son: la categoría geotécnica de la obra, el tamaño del pilote. Sin embargo, en el documento se considera que realmente el factor más importante debería ser la experiencia y maquinaria de que dispone la empresa de cimentación. La referencia del número de pilotes que se debería ensayar se hace utilizando documentos técnicos a nivel internacional, pliegos de prescripciones técnicas, normas a nivel europeo, etc. A pesar de esto, es difícil indicar un determinado porcentaje, ya que, por ejemplo, en las normas UNE-EN 1536 de pilotes perforados y UNE-EN 1538 de Murospantalla se citan los ensayos no destructivos de cimentaciones profundas, pero sin mencionar cuántos elementos deben ensayarse, dejando a criterio del Director de obra el número de ellos. En el nuevo Código Técnico de la Edificación, el número de pilotes a ensayar se fijará en los “Pliegos de Prescripciones Técnicas Particulares” de los proyectos, aunque se indica en él que al menos no debe ser inferior a 1 de cada 20 pilotes, salvo en el caso de pilotes aislados con diámetro entre 500 y 1000 mm que no debe ser inferior a 10 por cada 20, y si el diámetro es mayor a 1000 mm, a 5 por cada 20 pilotes. Problemas de construcción. Los tipos de defectos que pueden Nº04. Enero de 2015 ocurrir en los pilotes o pantallas son muy diversos y pueden producirse por diferentes causas. Se realiza un repaso sobre las causas más corrientes que provocan los defectos y sobre todo de las posibilidades de detección que presentan los distintos métodos de auscultación. Se trata además de enlazar las causas, con lo que, para un método no destructivo, es un defecto. Los tipos de defectos tan diversos que se describen (roturas en la cabeza, estricciones, cortes, desprendimientos, puntas contaminadas, etc.) pueden ser producidos por diferentes causas en distintos tipos de pilotes, presentando posteriormente las mismas características cuando se realiza una excavación alrededor del pilote o en un sondeo con recuperación de testigo. En referencia a la etapa de hormigonado, se han considerado las causas comunes de defectos relacionados con esta fase, como son las siguientes: - Suministro irregular de hormigón que puede incluso llegar a producir un curado antes de lo previsto dentro del Tremie o en el entorno de la armadura. - Puesta en obra de hormigón mal formulado, con baja trabajabilidad o fácilmente segregable. En caso de utilizar hormigones con poca maniobrabilidad, también se producen defectos en el recubrimiento de las armaduras. - Evolución de la consistencia del hormigón en el tiempo, lo que conlleva una inapropiada trabajabilidad del hormigón durante toda la fase del hormigonado. - Inapropiada técnica de hormigonado con tubería Tremie y hormigón sumergido. - Separación entre Tremies en el hormigonado de pantallas. Inspecciones complementarias y reparaciones. Las soluciones que se pueden adoptar ante un defecto en un pilote son muy variadas. Imagen 8. Fotografía de un fallo en un pilote probablemente debido a deficiencias en el hormigonado o en el vibrado del hormigón. Fuente: www.mandua.com También es necesario realizar un importante control del hormigón utilizado y de la fase de hormigonado, ya que suele ser la causa más importante de defectos. Desde un simple recálculo de la cimentación redistribuyendo las cargas en los otros pilotes íntegros del encepado y permitiendo mayores esfuerzos, hasta la construcción de un pilote colindante o próximo al defectuoso, pasando por las inyecciones de reparación. Cuando se detecta una heterogeneidad, la primera pregunta es si la zo- Nº04. Enero de 2015 na presuntamente defectuosa está a poca profundidad o quedará accesible en algún momento, como en las pantallas. Si los defectos están a poca profundidad, mediante excavación pueden subsanarse con descabezados complementarios, saneos, recrecidos, etc. Cuando no sea sencillo realizar una excavación alrededor por encontrarse profundo el defecto detectado, y se necesite confirmar las características del material que lo compone, se pueden realizar sondeos con recuperación de testigo. Como condicionantes generales, se puede indicar que estos sondeos tienen que realizarse con rotaciones muy lentas a la altura de la heterogeneidad a investigar. Así mismo, habrá que evitar realizar maniobras a las profundidades de inspección, extrayendo en la medida de lo posible todo el espesor de la heterogeneidad en un testigo, entre dos maniobras. La descripción del testigo y valoración del material extraído tiene que co- 51 rrer a cargo del personal especializado, ya que el testigo no representará fielmente el estado del material en la propia heterogeneidad, al haber sido afectado por la propia perforación y extracción. De esta forma, el empleo de agua en la perforación favorecerá la pérdida de finos en materiales ya desvelados de por sí. Para inspeccionar el sondeo en toda su profundidad, y en especial en la zona afectada por la anomalía es muy interesante y da muy buenos resultados (con bajo coste) descender una cámara de TV o de vídeo por el sondeo realizado. Este tipo de inspecciones nos darán mucha información para programar una reparación. Otra prueba que se puede realizar sobre el sondeo realizado es efectuar ensayos de permeabilidad tipo Lugeon. Cerrando con válvulas a distintas profundidades del sondeo es posible analizar la permeabilidad y descarga en profundidad de la anomalía, pudiendo valorarse la continuidad de la anomalía y, en su caso, la inyección que se ejecutará. Las inyecciones se presentan como una técnica que permite tratar un gran número de las patologías de defectos que se detectan con las técnicas no destructivas, aunque, sin embargo, no todo lo solucionan. Hay cortes de pilotes que pueden repararse, por ejemplo, con barras o micropilotes en su interior, y habrá que estudiar cada caso. REFERENCIAS Y BIBLIOGRAFÍA: Textos: - “Cimentaciones de estructuras”, Clarence W. Dunham. Ed: Mc Graw Hill. - Recomendaciones para la Ejecución e Interpretación de Ensayos de Integridad de Pilotes y Pantallas “In Situ”. Monografías del CEDEX. - Código Técnico de la Edificación (CTE). - “Proyecto de Estructuras de H o rm i gó n c o n A rm a d u r a s Industrializadas”. INTEMAC. - Guía Técnica de Seguridad AETESS. - Catálogo Pilotes In Situ. Terratest. - Jornadas Técnicas SEMSIGAETESS 8ª Sesión “Pilotes de Gran Diámetro”. Imágenes: www.insur2010.com www.mandua.com www.geotecnika.com Imagen 9. Fotografía del reconocimiento de la continuidad de un pilote mediante sondeos con recuperación de testigo continuo . Fuente: www.insur2010.com 52 Nº04. Enero de 2015 IMPLANTACIÓN DE PARQUES EÓLICOS FERNANDO ABAD BARRAL. INGENIERO EN ELECTRÓNICA Introducción El mundo necesita un suministro de energía limpia y sostenible cada vez mayor. Necesita energía moderna que promueva el desarrollo sostenible y una mayor prosperidad para todos los habitantes del planeta. Esa energía, en gran parte, la puede proporcionar la energía eólica, la energía del futuro. Pero para ello, es necesario promover la creación de parques eólicos para un eficiente aprovechamiento de la energía del viento. El presente trabajo tiene como objetivo detallar los aspectos técnicos para la implantación de un parque eólico. Para ello se debe analizar la zona bajo estudio, que tiene que venir caracterizada por su alto potencial eólico, teniendo en cuenta su orografía y sus curvas de nivel, así como la rugosidad del terreno y las características del viento y demás aspectos relevantes que se tienen en consideración para el desarrollo de cualquier proyecto eólico. Desde un punto de visto económico, y con el objetivo de conseguir el mayor rendimiento, es necesario realizar una comparativa entre modelos de aerogeneradores en función de la potencia que se debe instalar, teniendo en cuenta sus curvas de potencia, de duración del velocidad, de duración de potencia, etc., y estimando la producción anual de energía y por tanto, el beneficio bruto, en función de las características del viento en el emplazamiento. Desde un punto de vista técnico y empleando software especializado (el software WAsP es un claro ejemplo), se debe analizar la distribución de los aerogeneradores considerando la dirección del viento predominante, aspectos medioambientales (impacto visual y contaminación acústica), efecto de las estelas, y por supuesto, las zonas donde se obtiene un mayor aprovechamiento de la energía cinética del viento. Con ello se logra un compromiso entre la parte técnica y económica del proyecto, tan importante en la era en la que nos encontramos, cuya finalidad es la de maximizar la captación de energía pero sin perder de vista las posibilidades que ofrece el mercado en el diseño de aerogeneradores, seleccionando aquél que presente el mejor binomio rendimiento-coste. Obviamente, se deja para trabajos futuros, profundizar en el estudio económico de este tipo de proyectos, considerando parámetros económicos que estimen la rentabilidad y viabilidad del proyecto y aseguren un beneficio sostenible. Selección del Emplazamiento El proceso para seleccionar un emplazamiento de una central eólica debe hacerse de forma sistemática e implica la ejecución de varias etapas. En primer lugar, es necesario determinar las áreas geográficas candidatas, lo que supone analizar los datos meteorológicos regionales publicados, la accesibilidad desde carreteras, la proximidad de líneas eléctricas, descartando zonas protegidas y teniendo en cuenta las características topográficas. Una vez seleccionadas las áreas candidatas, se analiza en detalle cada una de ellas, investigando la existencia de datos meteorológicos que puedan facilitar distintas fuentes. Por ejemplo, un fuente común de consulta es el Imagen 1. Mapa eólico de la zona bajo estudio. Fuente: “www.atlaseolico.idae.es” Nº04. Enero de 2015 53 Instituto para la Diversificación y Ahorro de la Energía, IDEA, a través de su atlas eólico. Una fase fundamental en todo proyecto eólico es la estimación del potencial eólico de cada emplazamiento. Es de vital importancia medir y documentar las características del viento de un determinado emplazamiento y por ello se deberán obtener los siguientes datos: Velocidad Función media del viento. de distribución de velocidad. Ley de variación de la velocidad del viento con la altura. Intensidad de la turbulencia. Las medidas realizadas de la velocidad del viento en un determinado lugar durante un intervalo de al menos un año suelen estar bien representadas mediante una función de distribución de Weibull, que proporciona información sobre la probabilidad de que la velocidad del viento v supere un cierto valor u, u k P ( v u ) exp c ( 2) donde k>0 es un factor de forma y c>0 un factor de escala. Ambos, vienen definidos desde la estación meteorológica y dependen de la altura al que se realiza la medida. Rosa de los vientos (distribución de direcciones del viento) y distribución de velocidades en cada dirección. Valores extremos de la velocidad del viento y estadísticas sobre ráfagas. Información sobre efectos topográficos en la distribución espacial de la velocidad y la intensidad de la turbulencia. Tabla 1. Información media anual de la estación meteorológica. Fuente: “www.atlaseolico.es”. A partir de la función de distribución de Weibull, derivándola con respecto a u, se determina la correspondiente función de densidad de probabilidad f(u), u k exp (3) c Si se conoce la función de densidad de probabilidad f(u) en un determinado lugar, se puede calcular la probabilidad de que la velocidad v del viento se encuentre comprendida entre dos valores arbitrarios u1 y u2 simf (u ) Imagen 2. Rosa de los vientos de una estación meteorológica. Fuente: Proyecto Ing. Fernando Abad Barral. Por definición, la potencia generada por un aerogenerador es directamente proporcional al cubo de la velocidad del viento. Pv dEc 1 . A.V 3 dt 2 (1) Por ello, es importante que el emplazamiento tenga una velocidad media del viento relativamente elevada, teniendo en cuenta que la velocidad de arranque de una aeroturbina tripala suele estar en torno a los 3 o 4 m/s. k u cc k 1 plemente integrando la densidad de probabilidad en el intervalo deseado. En el caso de la distribución de u2 Weibull, P(u1 v u2 ) f (u)du (4) u1 Todas estas funciones y probabilidades representan las herramientas fundamentales que todo ingeniero debe utilizar en el estudio del emplazamiento. Obviamente, la materia prima es el viento y es necesario garantizar que superará una cierta velocidad durante un determinado número de horas en el periodo de un año. Para calcular el tiempo en horas, en un periodo de un año, durante el cual la velocidad del viento v superará una cierta velocidad uref, basta multiplicar la ecuación de probabilidad (4) por el número total de horas de un año, 8760 horas. 54 Nº04. Enero de 2015 Otro aspecto determinante es la variación de la velocidad con la altura. La capa límite atmosférica es la capa de la troposfera en contacto con la superficie terrestre en la que los efectos de fricción sobre el terreno son importantes y la velocidad del viento aumenta con la altura. Esta variación de la velocidad del viento con la pográficas de éste y por lo tanto existen diferentes grados de rugosidad en función del tipo de terreno. El carácter turbulento del flujo de viento da lugar a fluctuaciones de pequeña escala que hacen que las condiciones de entrada del flujo al rotor no sean uniformes. Unido a esto, el efecto de la interferencia entre aeroturbinas suele ser importante, ya que las utilizadas en la actualidad tienen una potencia nominal típica de entre 500 y 2000 kW, con diámetros de entre 40 y 80 m, y para poder producir energía de forma significativa es necesario agrupar las máquinas en parques eólicos. Por ello, hay que buscar de forma adecuada el emplazamiento de las máquinas, de manera que se aprovechen aquellos lugares con más potencial eólico, situando en ellos el mayor número posible de aerogeneradores, minimizando al mismo tiempo los efectos nocivos asociados a la interferencia. Imagen 3. Perfil logarítmico típico de la velocidad del viento en función de la altura. Fuente: Energía Eólica: Fundamentos y Tecnología. UNED. altura es una característica importante que debe tenerse en cuenta a la hora de diseñar y emplazar aeroturbinas, ya que elevar el rotor de la turbina supone aprovechar un mayor potencial eólico. Obviamente, el aumento de la altura de la torre supone también que el aerogenerador quede sometido a mayores cargas, encareciendo su diseño. El análisis de cómo varia la velocidad del viento se puede realizar a partir de la ecuación del perfil logarítmico de la velocidad. Imagen 4. Campo de vorticidad para el plano central del rotor.. Fuente: “www.dicyt.com” En la ecuación (5), z es la altura a la que se desea determinar la velocidad, z0 es la rugosidad del terreno y Ψ es una función que depende del grado de estabilidad atmosférica (Ψ=0 en el caso de atmósfera neutra). La rugosidad del terreno depende de las características to- Dichos efectos son diversos. La máquina eólica extrae energía cinética del viento, por lo que éste es menos intenso en su estela, dando lugar a que la producción energética de una máquina situada a sotavento de otra disminuya. En la estela el nivel de turbulencia es mayor que en el viento libre, dando lugar a que aumenten las cargas no permanentes sobre la máquina a sotavento, y a que su vida se acorte, fundamentalmente debido al fenómeno de fatiga. Tabla 2. Grado de rugosidad en función del terreno.. Fuente: Energía Eólica; Fundamentos y Tecnología. Existen diversas estrategias para aminorar el efecto de las estelas. Una de ellas consiste en desalinear con la dirección del viento el eje de giro de la turbina que genera la estela. El aerogenerador desalineado produce algo menos de potencia, pero la turbina de aguas abajo no pierde ninguna y sufriría menos por fatiga generada z u 2,5u * ln z0 ( 5) Nº04. Enero de 2015 por la turbulencia, con lo que el efecto neto sobre el parque puede ser beneficioso. Otra estrategia consiste en cambiar el ángulo de paso del aerogenerador que produce la estela. Igualmente, el aerogenerador que crea la estela producirá menos potencia, pero las máquinas aguas abajo se verían menos afectadas. Selección de Aerogeneradores A la hora de realizar un estudio sobre los posibles modelos de aerogeneradores que pueden resultar interesantes para constituir el parque eólico, se deben tener en cuenta diferentes factores. En primer lugar, se debe conocer la potencia total que se desea instalar, que condicionará el numero de aerogeneradores que serán necesarios instalar para alcanzar dicha potencia. En este sentido, es fundamental evaluar si es más rentable instalar un menor número de aeroturbinas con mayor potencia nominal, y por tanto más caros, o por el contrario adquirir un mayor número de aerogeneradores de menor potencia nominal y que resulten más económicos. Evidentemente, se deberá pensar en los costes de mantenimiento y operación de cada aerogenerador y que lógicamente, son proporcionales al número de aerogeneradores instalados. Todo aerogenerador viene caracterizado por su curva de potencia. En la imagen 5 se pueden distinguir los diferentes modos de funcionamiento de la máquina. El rotor permanece parado cuando la velocidad del viento es inferior a la velocidad de arranque, va, o bien cuando la velocidad del viento alcanza valores superiores a la velocidad de parada, vp. El aerogenerador se encuentra en carga parcial cuando la potencia generada es menor que la nominal y se corresponde a velocidades de viento 55 comprendidas entre va y vn, siendo esta última la velocidad nominal del aerogenerador. Finalmente, la aeroturbina se encuentra a plena carga cuando la velocidad del viento está comprendida entre vn y vp, para la cual el aerogenerador produce una potencia aproximadamente constante e igual a la nominal. Es importante conocer los modos de funcionamiento del aerogenerador, ya que en función de las características del emplazamiento será más idóneo instalar uno u otro modelo. El calculo del tiempo en horas durante el cual la velocidad del viento v superará una cierta velocidad uref juega un papel fundamental en la selección de aerogeneradores. Si, según la función de probabilidad de la ecuación (4), se obtiene un mayor número de horas anuales en las que la velocidad del viento, por ejemplo, es de 13 m/s, convendrá instalar un aerogenerador que tenga una velocidad nominal cercana a dicho valor y no superior, ya que en ese caso, nunca alcanzaría la potencia nominal y se obtendría un rendimiento por debajo del deseado. Por tanto, es necesario realizar un correcto dimensionamiento de las necesidades que requiere el parque eólico, sin perder de vista el potencial eólico que presenta y cual es el modelo de aerogenerador que puede obtener un mejor rendimiento. Además de los aspectos puramente técnicos, también es necesario valorar los costes que implicaría instalar cada aerogenerador. Para poder realizar una correcta elección del tipo de turbina se debe llevar a cabo un balance económico en el que se tenga en cuenta los ingresos y costes generados por el parque eólico. Por un lado se detallan los costes de inversión. El coste de inversión de un parque eólico incluye los desembolsos que hay que realizar para desarrollar completamente la instalación, incluyendo la compra de los equipos, la “Los aerogeneradores son la principal inversión, dado que suponen casi las tres cuartas partes del coste total.” construcción del propio parque y todos los conceptos relacionados con la parte burocrática y legal. Imagen 5. Curvas de potencia para diferentes modelos de aerogenerador. Fuente: Proyecto Energía Eólica. Ing. Fernando Abad Barral. Por lo tanto, se debe valorar si los ingresos anuales obtenidos con un modelo de aerogenerador son rentables respecto el número de turbinas que se deben instalar, estimando los costes de operación y mantenimiento. Instalar un menor número de aeroturbinas requiere una 56 Nº04. Enero de 2015 extensión de terreno mucho menor y esto implica un menor impacto medioambiental y una reducción de los costes de conexión a red y de obra civil. Potencial Eólico y Distribución de Aerogeneradores Dentro de un parque eólico, un punto clave para el buen aprovechamiento de la energía del viento es la colocación de los aerogeneradores. Los aerogeneradores extraen parte de la energía cinética del viento y la convierten en energía eléctrica, por lo que aguas abajo de la aeroturbina el viento tiene menor energía que aguas arriba. Este hecho influye en la posición relativa de los aerogeneradores, puesto que en determinadas direcciones del viento éstos se encuentran situados en la estela de otro u otros. Esta situación propicia pérdidas en la generación de energía, por lo que un parque eólico con N aerogeneradores no produce la misma energía que producirían N aerogeneradores aislados con las mismas condiciones de viento. Las pérdidas debidas a su distribución son función del espaciado entre turbinas, de su modo de operación, de la densidad de turbinas en el parque, de la intensidad de la turbulencia y de la rosa de los vientos en el emplazamiento. Una distancia de separación típica entre aerogeneradores es de 8 ó 10 diámetros de la aeroturbina en la dirección del viento, y de 3 en dirección perpendicular a ésta, configuración para la cual las pérdidas son menores del 10%. La velocidad del viento en la estela se recupera al interaccionar con el viento que rodea el tubo de corrien- te que pasa por el rotor. Para realizar una correcta distribución de las máquinas se realizan diferentes estudios mediante software especializado. Uno de los programas más empleados a nivel mundial es WAsP, desarrollado por el Instituto de Investigaciones Científicas DTU RISØ. Este software permite crear un mapa orográfico de la zona, digitalizando sus curvas de nivel e indicando la rugosidad del terreno, tal y como se muestra en la imagen 6. A partir de este mapa, se sitúa la estación meteorológica y se introduce los datos de viento, obteniendo la información del emplazamiento: rosa de los vientos, representación de la función de Weibull y los datos de velocidad de viento. Imagen 7. Datos estación meteorológica en el entorno WAsP. Fuente: WAsP software. Una vez se ha introducido toda la información referente al emplazamiento, es necesario crear el modelo de aerogenerador que ha sido elegido para el proyecto eólico. Es importante indicar todas las características de la máquina para realizar una simulación congruente y Imagen 10. Mecanismo de orientación. Fuente: www.opex-energy.com. Imagen 6. Mapa topográfico creador con el editor de WAsP. Fuente: WAsP software. Imagen 8. Características técnicas del aerogenerador. Fuente: WAsP software. Nº04. Enero de 2015 57 evaluar cual es su mejor emplazamiento en el terreno. Una vez que se ha cargado el modelo de aeroturbina en el proyecto se procede a ubicar los aerogeneradores en el emplazamiento. La manera más eficiente es crearse inicialmente un mallado de la zona de interés en los que se calculan las variables que se precisan en el estudio en un plano paralelo al suelo. El mallado se ha configurado teniendo en cuenta el diámetro de la turbina y considerando que los aerogeneradores deben separarse al menos 3 diámetros. Tabla 3. Datos estadísticos por aeroturbina. Fuente: Proyecto Ing. Fernando Abad Barral. taje de la superficie del terreno alrededor de un punto de interés en el que se supera una determinada pendiente límite (lo ideal es que fuese nulo, lo que indica que el flujo no se desprende), la velocidad, la energía bruta y “El factor de capacidad determina el grado de aprovechamiento de cada aerogenerador. En España, el valor típico de este parámetro está comprendido entre 0,25 y 0,3 para que un aerogenerador sea rentable” Imagen 9. Ubicación de los aerogeneradores en la zona de estudio. Fuente: WAsP software. Los mapas donde se ubican finalmente los aerogeneradores suelen configurarse para que presenten una escala de colores para que al representar la producción energética expresada en GWh/año, se visualicen, en el caso de la imagen 9, de color rojo las celdas que se estiman rentables eólicamente y por tanto, en cada una de ellas se podría instalar un aerogenerador teniendo en cuenta la dirección del viento. Una vez se han ubicado los aerogeneradores es importante analizar el rendimiento de cada aerogenerador, comprobando la energía teórica que produce y sus pérdidas. En la tabla 3 se desglosa la información detallada por turbina de un proyecto eólico. Se indica la elevación a la que se encuentra, el RIX, definido como el porcen- neta que produce y las pérdidas debidas a la interferencia con otras turbinas. De esta manera se puede realizar una estimación de la energía total producida por el parque eólico. Finalmente, se debe calcular el factor de capacidad, que se define como el cociente entre la energía producida por un aerogenerador en un determinado emplazamiento durante un periodo de tiempo y la máxima que podría producir si estuviese funcionando a la potencia nominal durante el mismo periodo. FC E Pn * 8760 (6) Un valor de FC=0,32 se interpreta como que el aerogenerador está funcionando a plena potencia durante un 32% del tiempo. REFERENCIAS Y BIBLIOGRAFÍA: - Sistemas eólicos de producción de energía eléctrica. J.L. Rodríguez Amenedo, J.C. Burgos Díaz.. Editorial Rueda. - Energía eólica: Fundamentos y Tecnología. ETS de Ingenieros Industriales, UNED. - www.waso.dk . The Wind Atlas Analysis and Application Program. 58 Nº04. Enero de 2015 Un proyecto para tener la energía del Sol en la Tierra (ITER) BORJA GAVILÁ GARCÍA. INGENIERO QUÍMICO Y TÉCNICO SUPERIOR EN PREVENCIÓN DE RIESGOS. El proyecto para la construcción de un reactor termonuclear experimental (conocido como ITER) se encuentra en fase activa de confección de piezas. Ya se están levantando en Francia las paredes del edificio que albergará el reactor y los participantes del proyecto discutieron el pasado mes en San Petersburgo los últimos logros en este ámbito. Los recursos se agotan y resulta necesario buscar fuentes de energía alternativa. Los científicos persiguen desde hace décadas la fisión nuclear, lo que podría hacer significar una energía infinita. Este esfuerzo no lo puede realizar ningún país por sí solo y resulta imprescindible la colaboración internacional. Hace 60 años, concretamente el 1º de noviembre de 1952, en el atolón Enewetak (de las islas Marshall) los estadounidenses hicieron explotar la primera bomba de hidrógeno de la historia. Diez años más tarde, la URSS sacudió el planeta con una prueba termonuclear de una poten- Imagen 1. El ITER es un reactor termonuclear experimental que cuenta con la participación de Rusia, la UE, India, China y EE UU cia nunca vista hasta entonces: 50 megatones, lo que equivale a 50 millones de toneladas de explosivo. Desde entonces, las cargas termonucleares forman parte del arsenal de los ejércitos más importantes del mundo. Sin embargo el proceso termonuclear en sí, no es únicamente un arma de terrible capacidad destruc- tora, sino también un genio bueno que podría salvar a nuestra civilización. Las reservas naturales de energía de la tierra desaparecen delante de nuestros ojos. Eric Galimov, miembro de la Academia de Ciencias de Rusia (RAN), está convencido de que "las reservas de petróleo, gas y uranio durarán aproximada- Nº04. Enero de 2015 aproximadamente unos 100 años, por eso es necesario buscar fuentes alternativas de energía. La humanidad necesita la energía nuclear, solo que tiene que ser segura y estable. La síntesis termonuclear controlada, que utiliza la energía atómica basándose en la fusión de núcleos ligeros, por ejemplo el hidrógeno o sus isótopos: el deuterio y el tritio, es una fuente infinita. La reacción nuclear y la termonuclear tienen en común la enorme cantidad de energía que desprenden. La diferencia es que la segunda es unas cuatro veces mayor. Pero si la bomba de hidrógeno se creó y se probó rápidamente, la re- 59 solución del problema de la reacción termonuclear controlada es algo que intentaron los mejores científicos de la URSS y los EE UU y en lo que siguen trabajando prestigiosos equipos de científicos. Colaboración internacional A comienzos de los 70 se comprendió que la construcción de un reactor termonuclear tan solo era posible gracias mediante una amplia colaboración internacional. En septiembre de 1985, la URSS propuso a una serie de países desarrollar conjuntamente el reactor ITER (Reactor Termonuclear Experimental Internacional). A comienzos de los 90 científicos de Imagen 2. Desarrollo de las obras del ITER. Rusia, EE UU, Japón y Europa hicieron un boceto del proyecto. En julio de 1992, avalado por el Organismo Internacional de Energía Atómica, un grupo internacional de trabajo compuesto por físicos e ingenieros en el que había especialistas de Canadá y China, llegó a la realización técnica del proyecto. El principal objetivo del proyecto ITER era la demostración científica y técnica de la posibilidad de obtener energía a partir de la reacción de síntesis (fusión) de los isótopos de hidrógeno, deuterio y tritio. La potencia termonuclear prevista del reactor ITER es de alrededor de 500 MW con temperaturas del plasma de 100 millones de grados. 60 Nº04. Enero de 2015 En noviembre de 2006 todos los participantes del proyecto ITER: la Unión Europea, Rusia, Japón, EEUU, China, Corea e India, firmaron un acuerdo para la creación de una organización internacional de energía termonuclear, con el fin de llevar a cabo el proyecto ITER. La etapa de construcción del reactor comenzó en 2007. La participación de Rusia en este proyecto consiste en el diseño, fabricación y entrega a las instalaciones, que se encuentran en la ciudad francesa de Cadarache, de parte del equipamiento tecnológico fundamental, así como una aportación monetaria que será de alrededor de un 10% del coste total de construcción. La misma participación tienen EE UU, China, India, Corea y Japón. Esta previsto que la construcción, cuyo coste inicial se valoró en 5.000 millones de euros, termine en 2016. Sin embargo la suma propuesta subió paulatinamente hasta alcanzar el doble de la original, mientras que aproximadamente 500 millones de watios, juegan un papel fundamental. Actualmente en San Petersburgo, en la sede del Instituto Efremov, de investigación de instrumental electrofísico, se llevan a cabo pruebas del equipamiento especial para el ITER. La agencia rusa del ITER comunicó que espera tener los resultados para finales de noviembre. Evgueni Velijov, presidente del Centro de investigación "Instituto Kurchakovski" y miembro de la Academia de Ciencias de Rusia, comunicó que el país está cumpliendo con éxito sus obligaciones con el proyecto. Imagen 4. El criostato es una de los componentes principales del ITER.. Fuente: iter.org la fecha de inicio de los experimentos se desplazó hasta el año 2020. Los especialistas rusos, que fueron los primeros en conseguir realizar un proyecto de construcción termonuclear real cuasi-estacionario con una potencia térmica calculada de A finales de julio de 2009, el entonces Presidente Dmitri Medvédev subrayó los trabajos realizados en fusión termonuclear, en un encuentro con periodistas que tuvo lugar en el antiguo centro de secreto de pruebas nucleares "Arzamas-16" en las afueras de Nizhni Nóvgorod. "La síntesis termonuclear", señaló Dmitri Medvedev, "es un proyecto Imagen 3. El SCTV puede ser transportado fácilmente por aire, mas o carretera.. Fuente: iter.org a largo plazo cuya aplicación comercial se espera obtener para el 20402050. El escenario más probable de dominio de la energía termonuclear presupone tres etapas: el dominio de los procesos de quema prolongada de vida larga de la reacción termonuclear, la demostración práctica de la producción de energía eléctrica y la creación de una central termonuclear industrial". Según declaraciones de Evgueni Velijov, académico ruso, “es muy difícil que la primera central termonuclear se cree antes de 25 años. Para 2050 debería comenzar la explotación comercial de la energía termonuclear con una potencia de 1 GW en Rusia y para finales de siglo se deberían producir 100 GW de esta energía, lo que supone más del 40 % de la potencia energética rusa actual”. Mientras tanto, el todopoderoso genio termonuclear sigue escondido y mientras esté sin domar deberá Nº04. Enero de 2015 61 El sistema de imán esta formado por 18 superconductores toroidales y 6 bobinas de campo poloidales, un solenoide central, y un conjunto de bobinas de corrección que confinan magnéticamente, forman y controlan el plasma dentro de la cámara de vacío . Bobinas adicionales serán implementadas para mitigar el ELM, que son explosiones altamente energéticas cerca del borde del plasma que, si se deja sin control, hacen que pierda parte de su energía. Imagen 5. Los 48 elementos del sistema generan un campo magnético alrededor de 200000 veces mayor que el de la tierra. guardarse en un "refugio" seguro. ITER se basa en el concepto de "tokamak" de confinamiento magnético, en el que el plasma está contenido en una cámara de vacío en forma de rosquilla. El combustible una mezcla de deuterio y tritio, dos isótopos del hidrógeno se calienta a temperaturas superiores a los 150 millones de ° C, formando un plasma caliente. Los fuertes campos magnéticos se utilizan para mantener el plasma lejos de las paredes; éstos son producidos por bobinas superconductoras que rodean el recipiente, y por una corriente eléctrica impulsada a través del plasma. Las diferentes partes que forman el dispositivo son las siguientes: Criostato El criostato es una gran estructura El poder de los campos magnéticos necesarios para confinar el plasma en el recipiente de vacío ITER es extrema. Para una máxima eficiencia y para limitar el consumo de energía, ITER utiliza imanes superconductores que pierden su resistencia cuando se enfrían a temperaturas muy bajas. de acero, acero que rodea la cámara de vacío y superconductores magnéticos, proporcionando un ambiente a muy bajas temperaturas de vacío. Se compone de una sola construcción de pared cilíndrica, reforzada por nervaduras horizontales y verticales. El criostato mide 29,3 metros de altura y 28,6 metros de ancho. El material superconductor tanto para el solenoide central y las bobinas de campo toroidal está diseñado para lograr un funcionamiento a alta campo magnético (13 Tesla), y es una aleación especial hecha de niobio y estaño (Nb3Sn). Las bobinas de campo poloidales y las bobinas de corrección usan una aleación de , niobio-titanio (NbTi) Cuenta con infinidad de aberturas, algunas tan grandes como cuatro metros de diámetro, que permiten acceder a al sistema. Se utilizan grandes fuelles entre el criostato y el recipiente de vacío para permitir la contracción y expansión térmica en las estructuras. El criostato está completamente rodeada por una capa de hormigón conocida como la BioShield. Por encima del criostato, el BioShield es de dos metros de espesor. Imanes Manta La manta cubre las superficies interiores de la cámara de vacío , proporcionando protección al recipiente y los superconductores de los flujos de calor y de neutrones de la reacción de fusión. Los neutrones se retrasan en la manta en la que su energía cinética se transforma en energía térmica y se recoge por los refrigerantes. En una planta de energía de fusión, esta energía se utiliza para la producción de energía eléctrica. 62 Nº04. Enero de 2015 Para los fines de mantenimiento en el interior de la cámara de vacío, la pared manta es modular. Se compone de 440 segmentos individuales, cada uno de 1x1.5 metros y un peso de hasta 4,6 toneladas. Cada segmento tiene una primera pared desmontable que se enfrenta directamente al plasma y elimina la carga de calor de este, y un escudo manta semipermanente dedicado al blindaje de neutrones. La manta ITER es uno de los componentes más críticos y técnicamente desafiantes en ITER. Debido a sus propiedades físicas únicas, el berilio ha sido elegido como el elemento para cubrir la primera pared. El resto de la manta escudo será hecho de cobre de alta resistencia y acero inoxidable. Imagen 6. Solenoide central. En una etapa posterior del proyecto ITER, se utilizaran nuevos materiales para probar la producción de tritio. Se requerirá una central de fusión futura para conseguir la producción de grandes cantidades de energía. Diagnóstico Un amplio sistema de diagnóstico se instalará en la máquina del ITER para proporcionar las medidas necesarias para controlar, evaluar y optimizar el rendimiento de plasma en el ITER y para fomentar la comprensión de la física del plasma. Estos incluyen mediciones de temperatura, densidad, concentración de impurezas y de partículas y energía tiempos de confinamiento. El sistema estará compuesto por cerca de 50 sistemas de medición individuales procedentes de toda la gama de técnicas de diagnóstico de plasma modernas, como el láser, rayos X, cámaras, monitores de neutrones de impureza, espectró- Imagen 7.. Módulos manta de protección. metros de partículas, medidores de presión y análisis de gases y fibras ópticas. Imagen 8. Alrededor de 50 sistemas se encargaran de la medición. Nº04. Enero de 2015 63 ANÁLISIS DE LOS RIESGOS BIOLOGICOS EN LA EDIFICACIÓN: ANIMALES E INSECTOS I DANIEL MERCHÁN GUERRERO. INGENIERO DE EDIFICACION. ra. Tiene hábitos alimenticios carnívoros, comiendo desde otros insectos a la comida de los humanos. Nº de Imagen. Explicación. Si la imagen no es original nuestra debemos poner: Ref: el origen, la web, el libro, etc. Continuando a partir del anterior artículo en el que se expusieron las plantas y hongos más perjudiciales para la salud de los trabajadores en el ámbito de la construcción y restauración, además de las medidas preventivas a llevar a cabo, en el presente artículo se pretende continuar, aumentando la lista ya propuesta con los insectos y animales. Hay que tener en cuenta que las avispas, al contrario que las abejas, no mueren al picar, por lo que podemos recibir varias picaduras de un mismo ejemplar. Estos insectos, debido al veneno que inyectan al morder producen pápulas de unos 10ml de diámetro, con dolor quemante y escozor. El mayor grupo de riesgo a la picadura de avispas son las personas alérgicas al veneno de la avispa, ya que pueden llegar a producir incluso la muerte. Los efectos más graves son cuando las picaduras se producen en cuello, cabeza y cara. Además la gravedad depende del núme- AVISPAS La Véspula Germánica Es originaria del Mediterráneo, abarcando Europa, Norte de África y zonas templadas de Asia. Posteriormente ha sido introducida en América, Australia y nueva Zelanda, siendo considerada como una plaga. Posee un cuerpo con bandas amarillas y negras, presentando un abdomen abultado con poca cintu- 2. Véspula Germánica o avispa común. farodevigo.es ro de picaduras, edad y exposición anterior a ellas. Debido a su tamaño, No es posible la medición cuantitativa del número de avispas que puede haber en una zona, pero si es posible una deducción del número aproximado de ellas si se descubre un nido o avispero en las inmediaciones al lugar de trabajo, ya que se estima por lo general que en cada nido puede haber más de 250 nuevas reinas y hasta 10.000 Obreras. A la hora de concretar los ambientes y condiciones para su crecimiento, hay que tener en cuenta que la Véspula germánica es un insecto social, por lo tanto tiene su lugar de reunión alrededor de flores, plantas, junto a fuentes de agua como son 64 Piscinas o pozos. Y principalmente cuando encuentran un foco de comida (comidas al exterior, etc.). Una fuerte atracción sienten las avispas hacia el ruido de motores o bombas que generen electricidad (grupos electrógenos) los cuales son muy comunes en el sector de la construcción. Normalmente se establecen en grietas de paredes, árboles agujereados o en los falsos techos de las casas. No siendo agresiva normalmente con el ser humano, aunque se vuelve más violenta en otoño cuando se acerca el fin de su ciclo, teniendo también comportamientos agresivos contra otros animales. Bajo estas pautas de comportamiento, cualquier trabajo en exteriores sobre todo a los cercanos a fuentes de agua en las fechas de máxima actividad del agente. Además de la identificación visual de estos insectos, también es posible determinar su presencia en el lugar de trabajo por la identificación de sus nidos o avisperos: Son de color gris de unos 90 cm. de máximo, aunque lo normal es que sean de menos de 10 cm. Se ubican, por lo general, en las esquinas del techo de los edificios. Muchas veces, los panales son colgantes, y otras tantas son subterráneos. Hay numerosas estrategias para su control y eliminación, estando La utilización de las trampas para avispas en el exterior es un método muy eficaz para matarlas, consiste en un recipiente donde se introduce un atrayente que produce un potente cebo líquido para estos insectos, contiene un agujero por donde se introducen las avispas, buscando el cebo caen en el líquido y se ahogan. Las colocaremos cerca de nosotros para reducir el riesgo Nº04. Enero de 2015 de picadura o en lugares donde asiduamente se encuentren. Es la mejor solución. Por otra parte, aunque menos recomendable, como en general los biocidas, Se pueden usar utilizar repelentes para avispas, de composición química o natural, es una forma de mantenerlos alejados, pero no de matarlos. Estas sustancias activas que se encuentran en los repelentes resultan desagradables para las avispas que se alejan al mínimo contacto. Los podemos encontrar en cremas y lociones para utilización cutánea y también en líquidos o spray ubicándolos en los lugares de paso o de molestia de estos insectos. Hay unos productos específicos que se rocían en barbacoas, bordes de piscinas o plantas, pero hay que destacar que suelen ser activos químicos, con piretrinas o permetrinas, lo que puede constituir un peligro para las personas más débiles o alérgicas. ABEJAS La Apis mellífera pertenece a la familia de los himenópteros, (del griego hinen=membrana), insectos de alas translúcidas y membranosas, como la avispa y la hormiga. Vive en todas partes del mundo, salvo en regiones donde el inviernos es demasiado frio. Existen numerosas especies de abejas, pero las que llamamos abejas de miel son las más comunes. Nacen todas de un huevo minúsculo puesto y depositado por la reina en un alvéolo. Poseen varios tonos de amarillo, naranja y negro; cabeza antena y patas de color negro. La obrera mide entre 1,5 y 2 cm. de largo. Al ser una especie social, esta constituida por tres castas o clases: 3. panal de abejas. http://www.defondos.com/ reinas, zánganos (machos) y obreras (hembras estériles). Las colonias cuentan con entre 20.000-50.000 abejas. La función principal de las obreras es la de alimentar las larvas, pero también se ocupan de guardar las reservas de miel que serán utilizadas por todos los miembros de la colonia en situaciones adversas. El panal, constituido por los nidos de las abejas es también construido por las obreras, con muchas celdas de cera. La vida de las obreras no pasa de 45 días. Por otro lado la reina pone los huevos de la colonia, poniendo diariamente entre 1500 y 2000 huevos. Las obreras también se ocupan de proteger los huevos y larvas; los zánganos se limitan a copular a la reina. Los efectos sobre la salud humana de las abejas se hace evidente en sus picaduras: la picadura de la abeja más común en primavera y verano, ya que hay más polen y las abejas están más activas. La reacción habitual de una picadura es un dolor intenso en el momento, formándose una pápula (levantamiento rojizo de la piel con un punto central donde picó el insecto.) Nº04. Enero de 2015 Puede haber edema progresivo en las 24 horas siguientes y luego una sensación de picor tremendo durante los próximos días. El verdadero problema surge cuando el individuo, que recibe la picadura, tiene alergia a los himenópteros (abejas o avispas). El 10% de la población padece reacciones ante la picadura de un himenóptero, aunque sólo una pequeña parte experimenta una reacción sistemática grave, es decir, un cuadro de anafilaxia. En España, según los datos de la sociedad española de alergología e inmunología clínica (SEAIC), alrededor de 800.000 personas son alérgicas al veneno de estos insectos. La tasa de mortalidad se estima en un 0,4% por millón de habitantes, lo que significa que entre 15 y 20 personas podrían morir cada año por ésta causa. Por último, Los casos de alergia a veneno de himenóptera deben ser valorados por el médico de la empresa si da lugar. Se indicará un tratamiento específico. 65 No es posible realizar una medición rápida de la población a la que se está expuesto de abejas, se puede tener en consideración que el riesgo de picadura aumenta si los trabajos se realizan en las condiciones propicias para su mayor actividad. (Época del año, temperaturas, cercanía a vegetación en flor…). Otra manera de intuir el aumento de riesgo es el descubrimiento de un panal, en el que de promedio pueden habitar unas 20.000 abejas. Pueden ser encontradas en casi todo el territorio nacional. Están inactivas durante casi todo el año, pero entre los meses de mayo y septiembre (siendo julio y agosto los meses con mayor incidencia) las abejas aumentan su actividad y por ende el número de picaduras. Esto es debido, en primer lugar a las altas temperaturas que ponen en gran actividad a estos insectos y al florecimiento de la mayoría de las plantas. Con éstas premisas se pueden delimitar en gran medida como afectados los trabajos en exteriores con vegetación en flor en las cercanías. Por lo tanto, Si se descubre un panal cerca debemos acotar la zona para que nadie se acerque y llamar a las autoridades competentes para que se hagan cargo del problema. En el caso de realizarse el daño, si el aguijón permanece en la piel (algo normal en las abejas), cepillar o raspar la zona hacia los lados con la uña o con una tarjeta de plástico. No intentar extraerlo con las pinzas pues se inyectará más veneno al cuerpo. Ésta acción inmediata es debida, a que el aguijón se queda clavado en el tejido junto con parte del intestino de la abeja, y si es así, la glándula del veneno continuará contrayéndose periódicamente hasta inocularlo todo. A continuación refrescar la zona con una compresa fría para reducir el dolor y la hinchazón. Mantener la compresa durante 10 minutos hasta que el dolor se atenúe y dejar reposar la zona afectada. También se puede frotar la zona con un algodón con bicarbonato, vinagre de vino o con desodorante, que ayudará a neutralizar el veneno y a disminuir la sensación de quemazón. Durante las horas siguientes se debe ingerir algún analgésico. En caso de presentarse uno de los siguientes síntomas, acudir sin demora al centro médico más cercano o llamar a emergencias: dificultad para tragar o respirar, vómitos o náuseas, mareos, malestar general, hinchazón de muñecas o tobillos. 4. Momento justo en el que una abeja pierde su aguijón después de picar a un humano. abc.es Las protecciones o el control a su exposición pasa por no tocar el panal ni molestarlas, acotar la zona de trabajo si hay evidencias de su 66 Nº04. Enero de 2015 Presencia. Por último, si disponemos de operarios alérgicos, es necesario disponer de unos monos de trabajo de manga larga, adrenalina inyectable, antiinflamatorio en aerosol y pinzas para extraer el veneno. Anidan en cualquier parte donde hayan depósitos de agua en estancada, sobre todo si se hallan bajo sombra, como son: macetas, depósitos, cubos, floreros, charcos, y demás objetos q contengan agua. MOSQUITOS El Aedes albopictus o mosquito tigre, es un mosquito es de fácil identificación debido a su coloración negra con ornamentación blanca en tórax y abdomen, patas a bandas negras y blancas y una conspicua línea blanca longitudinal central en tórax y cabeza. Comprende unas longitudes que van de unos 5 a 10 mm. la hembra posee una trompa fina y alargada (como la mayoría de especies de mosquitos), la probóscide, que a modo de estilete o lanza, utiliza para picar y extraer sangre de vertebrados, en especial mamíferos y aves, que aprovecha para el desarrollo de los huevos. Los machos de la especie, se alimentan de néctar. Las enfermedades que puede transmitir Aedes albopictus son muy raras o han sido erradicadas en Es- 5. Picadura de mosquito tigre que ha producido alergia cutánea. http://farm4.static.flickr.com/ Por lo tanto, en zona urbana, éste mosquito habita cerca de los puntos de agua de origen humano. Basándose en éstas condiciones de vida del mosquito, estarán afectados los trabajos en interiores y exteriores, sobre todo si están cerca de depósitos grandes de agua al aire libre, como fuentes. mentarse En caso de pocadura, aplicar sobre la zona afectada corticoides en crema, que deben formar parte del botiquín básico para el verano. Pero atención, no se deben utilizar antihistamínicos en crema, pues producen alergias y sensibilizaciones con frecuencia. Hay que evitar siempre el rascado de la zona y si las picaduras son múltiples o producen mucho picor, se pueden aplicar compresas frías y/o tomar antihistamínicos por vía oral. (Recordar que los antihistamínicos necesitan receta médica). Si se toman ésta medidas, no se debe consumir alcohol (En el caso que aparezcan síntomas como dolor de estómago, fiebres, desmayos, confusión, dificultades para respirar u opresión de garganta o pecho, quiere decir que el afectado tiene muchas posibilidades de ser alérgico a las picaduras de mosquitos. Si el trabajador padece uno de estos síntomas, es importante acudir a una farmacia para obtener los consejos de su farmacéutico o incluso ir di- “la reciente introducción y expansión del mosquito abre la posibilidad para la aparición de posibles brotes de infección a personas inmunodeprimidas. ” paña, pero la reciente introducción y expansión abre la posibilidad para la aparición de posibles brotes de infección a personas inmunodeprimidas. Las enfermedades que pueden ser potencialmente transmitidas por Aedes albopictus son: La fiebre amarilla, el dengue, la encefalitis equina del este, el virus del Nilo Occidental y la fiebre Chikungunya. El control de los mosquitos tigre se basa en la gestión del medio y los métodos químicos. La eliminación adecuada de los residuos sólidos y la mejora de las prácticas de almacenamiento de agua, entre ellas la cobertura de los envases para evitar que los mosquitos hembra pongan sus huevos son medidas que deben fo- rectamente a urgencias, ya que cuanto más se deje la extensión de la alergia y la reacción del cuerpo provocada por ésta, más agresivo tendrá que ser el tratamiento. En los casos graves, los corticoides son usados como complemento a la administración de adrenalina subcutánea y la difenhidramina endovenosa, que suelen responder como tratamientos de urgencia. No hay Nº04. Enero de 2015 Considerando que los mosquitos son insectos estacionales y que el territorio español es proclive a su cría debido al clima cálido, evitar de manera absoluta la presencia de éstos insectos de cría es imposible, ya controlar los focos de cría resulta imposible y que son insectos capaces de desplazamientos. Por ello podría recomendarse: Eliminar en lo posible los focos de cría, como son los depósitos de agua estancada al aire libre en las cercanías, uso con extrema precaución de insecticidas, ropa de trabajo de manga larga, uso de repelentes en aparatos portátiles que ahuyentan mosquitos en zonas de 4,5x4,5 metros, suficientes para algunos puestos de trabajo. ARAÑAS La Loxosceles Rufescens o araña reclusa del mediterráneo, es una pequeña araña de 10 a 15 mm, color marrón y una mancha característica en el cefalotórax en forma de violín. La Loxosceles rufescens es la única que puede encontrarse en España, aunque es originaria de Sudamérica. 67 Es una araña poco agresiva, aunque si puede llegar a morder si se la provoca. Son de hábitos nocturnos y se esconden en sitios oscuros. Además, Debido a que no forman poblaciones si no que viven de forma aislada, no es necesario medir la población de Loxoles Rufenses. El peligro de la Loxosceles rufescens radica en el veneno inyectado por su mordedura. El veneno actúa localmente en la zona de la mordedura, desencadenando una inflamación intensa que puede llegar incluso a la necrosis. La Loxosceles rufescens no puede ser considerada una araña doméstica. Habita normalmente en las zonas cálidas de la península ibérica, ya que necesita al menos una temperatura ambiente de 15 ºC para poder vivir a la intemperie. Por otra parte, no es inusual encontrarla en viviendas buscando el calor necesario en los meses de más frío. Suele habitar en lugares estrechos, como falsos techos, detrás de cuadros, huecos de carpintería, debajo de mobiliario, etc. Por lo tanto, serán de especial riesgo, los trabajos 7. Necrosis producida por la picadura de una araña reclusa marrón. emedicinehealth.com que discurran en obras de restauración y rehabilitación en interiores. Generalmente, la forma más eficaz de controlar su población es la del uso de trampas pegajosas en lugares estrechos u oscuros y por donde se crea que puedan circular éstas arañas. Si la picadura es muy grave, se recomienda reposo en la zona de la picadura, con asepsia del punto de inoculación, analgesia según dolor, toxoide antitetánico si el trabajador no está vacunado, antihistamínicos, y antibióticos en caso de infección. Para su prevención se puede recomendar poco más que el uso de guantes y realizar inspecciones en lugares oscuros y solitarios. REFERENCIAS Y BIBLIOGRAFÍA:¡ Frutos García García, José. Biología y control de plagas u r b a n a s . E d i t INTERAMERICANA McGAWHILL.1994. - Zuheir I. Fakhri, D. Zannini, J.A. Rioux y B. Juminer, David A. Warrell. Capítulo de Riesgos biológicos. Enciclopedia de seguridad y salud en el trabajo. Edit. Chantal 6. Araña reclusa. Única araña realmente peligrosa que puede afectar a los trabajadores en España. http://sevilla.abc.es/ 68 Nº04. Enero de 2015 Y EL MES QUE VIENE... PILAS de Combustible. Análisis de los riesgos biológicos en la edificación: ANIMALES E INSECTOS II Sistemas de cogeneración: EL CICLO COMBINADO El FRACKING y la bajada del precio del petróleo Introducción al mecanizado por ULTRASONIDOS Nº04. Enero de 2015 69 Y EL MES QUE VIENE... RECALCES profundos para cimentaciones superficiales FTH La revolución de las redes COMBUSTIBLES FÓSILES Curado de fibra de carbono en AUTOCLAVE en la industria aeroespacial ALCALÁ DE HENARES Patrimonio de la humanidad B7 ISSN 2386-639X 9 772386 639006 04