IT e Infraestructura energéticamente eficiente para centros de datos y salas de servidores Pie de imprenta Responsabilidad: consorcio PrimeEnergyIT Project, 2011 Coordinación del proyecto: Dr. Bernd Schäppi, Austrian Energy Agency, Viena Solamente está permitida la reimpresión por partes y su referencia debe ir detallada. Impreso en papel blanqueado sin cloro. Toda la responsabilidad del contenido de esta publicación es de los autores. No refleja necesariamente la opinión de la Unión Europea. Ni la AECI, ni la Comisión Europea son responsables del uso que se puede hacer de la información que contiene este documento. Tecnología energéticamente eficiente y reducción de costes en los centros de datos y salas de servidores El consumo de energía en centros de datos y salas de servidores ha aumentado notablemente a lo largo de la última década. La aparición de equipos más potentes y de servicios de tecnología informática más complejos ha impulsado la demanda de energía. Puesto que los costes de infraestructura y energía en los centros de datos se han convertido en un factor esencial en la instalación y gestión de la tecnología informática, se han desarrollado una serie de tecnologías cuyo fin es aumentar la eficiencia energética. La irrupción de nuevo hardware y de diversas opciones de gestión energética apoyan estas estrategias de ahorro de energía. En general, el potencial de ahorro de energía en los centros de datos y las salas de servidores es muy elevado y en muchos casos puede superar el 50%, dependiendo de la tecnología informática y de las infraestructuras específicas de cada caso. En el pasado, las medidas de ahorro de energía se concentraron en hallar soluciones eficientes para el suministro de energía y la refrigeración. Más recientemente, también se han considerado algunas medidas relativas a la eficiencia del hardware de la tecnología informática. Los estudios actuales demuestran que la eficiencia de estas medidas ha desembocado en una reducción 1 significativa de la demanda de energía, tomando como referencia el escenario habitual de una empresa [Koomey 2011]. Sin embargo, el potencial de ahorro de energía restante se mantiene elevado y las nuevas tecnologías permiten un despliegue más eficaz de las opciones de ahorro. Esta guía informativa ofrece una breve visión general de las tecnologías actuales que apoyan la eficiencia energética, tanto para la tecnología informática como para la infraestructura, concentrándose principalmente en la tecnología informática. Abarca todas las tecnologías informáticas esenciales en el centro de datos, incluyendo servidores, almacenamiento de datos y equipos de red. Entre los distintos métodos de eficiencia se incluyen el diseño de un sistema eficaz, la gestión de la energía desde el hardware hasta el nivel del centro de datos, así como diversos métodos de consolidación y virtualización. Las recomendaciones para realizar las mejores prácticas hacen hincapié en la necesidad de tener en cuenta las mejores opciones en la gestión y en el aprovisionamiento. También se incluyen una serie de lecturas recomendadas. Esta guía informativa proporciona una fuente de información básica para los administradores de la tecnología informática y de las infraestructuras que les ayudará a alcanzar la eficiencia tanto en la energía como en los costes. Esta guía informativa ha sido elaborada como parte del proyecto internacional PrimeEnergyIT (www.efficient-datacenters.eu) que se lleva a cabo en el marco del programa de la UE, Energía Inteligente para Europa. 1. Koomey, J. (2011): Growth in Data center electricity use 2005 to 2010, Analytics Press, Oakland, CA, August 1, 2011 3 Sumario 1 La supervisión del consumo de energía en salas de servidores y centros de datos 6 1.1 1.2 Conceptos de supervisión 6 9 2 2.1 Equipamiento del servidor Eficiencia energética y gestión de la energía en el servidor y a nivel del componente Dispositivos de medición 2.1.1 Eficiencia de la CPU 2.1.2 Eficiencia de la fuente de alimentación 2.2 Gestión de la energía en el rack a nivel del centro de datos 2.2.1 Planificación de la capacidad y gestión de la energía 2.2.2 Limitación de la energía 2.3 Opciones específicas para la gestión de la energía en servidores blade 2.3.1 Chasis en blade y componentes en blade 2.3.2 2.4 Sistema blade: problemas de energía y refrigeración La virtualización del servidor 2.4.1 Las posibilidades de ahorro de energía de la virtualización 2.4.2 Herramientas y requisitos para la planificación de la virtualización 2.4.3 La gestión de la energía en entornos virtualizados: la migración al servidor virtual 2.4.4 La refrigeración y la infraestructura en los sistemas virtualizados 3 3.1 Equipos para el almacenamiento de datos Dispositivos de almacenamiento 3.1.1 Sistemas basados en cinta 3.1.2 Unidades de disco duro (HDDs) 3.1.3 Unidades de estado sólido (SSDs) 3.1.4 Unidades de disco duro híbrido (HHDs) 3.2 Elementos de almacenamiento 3.2.1 Unidades de gran capacidad y factores de forma pequeños 3.2.2 Matrices Masivas de Discos Inactivos (MAIDs) 3.2.3 Niveles RAID eficientes 3.2.4 Almacenamiento horizontal en niveles, virtualización del almacenamiento y thin provisioning 3.2.5 La consolidación en las capas de almacenamiento y fabric layers 3.2.6 La deduplicación de datos 4 10 10 12 13 14 14 16 16 17 19 21 22 23 24 25 28 28 28 29 31 31 32 32 32 32 33 34 34 4 4.1 36 36 36 37 37 38 38 40 41 42 42 Equipos de redes La estructura técnica y operacional 4.1.1 El modelo funcional 4.1.2 Los atributos de la red 4.1.3 El equilibrio entre el rendimiento de la red y el consumo de energía 4.2 La mejora de la eficiencia energética 4.2.1 La fusión de las clases de tráfico (consolidación I/O) 4.2.2 La consolidación de la red 4.2.3 La virtualización de la red 4.2.4 La selección de los componentes y de los equipos 4.2.5 La conmutación a nivel básico 5 5.1 Refrigeración y fuentes de alimentación en centros de datos y salas de servidores La refrigeración en las salas de servidores 5.1.1 Sistemas split y sistemas portátiles 5.1.2 Medidas para optimizar la eficiencia energética en las salas de servidores 5.2 La refrigeración en centros de datos medianos y grandes 5.2.1 Aspectos generales 5.2.2 Ajustes de temperatura y humedad 5.2.3 La eficiencia de los componentes: refrigeradores, ventiladores, unidades de renovación del aire 5.2.4 La ventilación natural 48 49 49 5.2.5 La refrigeración basada en rack / en filas 5.3 44 44 44 45 46 46 47 48 La fuente de alimentación y el UPS en los centros de datos 5 1 La supervisión del consumo de energía en las salas de servidores y en los centros de datos Carlos Patrao, Universidad de Coímbra 1.1 Conceptos de supervisión La supervisión del consumo de energía en las salas de servidores y en los centros de datos es un elemento esencial para detectar las posibilidades de ahorro de energía y evaluar la efectividad de las medidas de eficiencia. Los conceptos de supervisión se deberían diseñar de manera cuidadosa para asegurar que se recopilan los datos adecuados, apoyando así una serie de medidas eficaces. Es necesario tener en cuenta los siguientes aspectos[1]: •Precisión y resolución adecuada de los datos •Desglose de la recopilación de datos, capacidad para recopilar datos procedentes de todos los dispositivos deseados •Facilidad de uso y de integración de los datos a través de los diversos dispositivos y tiempos de ejecución •Escalabildad para la implementación en masa y capacidad de multisitios •Adaptabilidad a las nuevas necesidades de medición •Opciones de análisis de datos e integración con los sistemas de control Se deben aplicar los siguientes modelos típicos para la supervisión: Supervisión mínima–La realización periódica de mediciones sobre el terreno con un equipo portátil es un método que se lleva a cabo principalmente en instalaciones muy pequeñas. Se recogen algunos datos de la información del fabricante (entrada de alimentación, etc.). Para la aplicación de este método no es necesario realizar ninguna inversión en infraestructuras y en equipos de medición instalados de manera permanente. Supervisión avanzada–Los datos se registran en tiempo real empleando equipos instalados de manera permanente que no están apoyados necesariamente por herramientas online. Es posible que existan modificaciones limitadas a la infraestructura. Supervisión de tecnología punta–Los datos se recopilan en tiempo real mediante el uso de sistemas de registro automatizados/ permanentes, con la ayuda de un software online con gran capacidad de análisis. En la mayoría de los casos, es necesario realizar modificaciones en la infraestructura y recurrir a la ayuda de personal técnico especializado. El sistema de supervisión debe contener el número adecuado de «nodos de información» (o puntos de supervisión) para que puedan proporcionar la información requerida y sea posible realizar un análisis completo del consumo de energía. En las instalaciones más grandes la selección de los «nodos de información» debería comenzar por los subsistemas más representativos (por lo que se refiere al consumo de electricidad). La Figura 1.1 muestra los subsistemas más importantes en los que hay que supervisar el consumo de energía. Estos subsistemas también se pueden considerar «nodos de información» o «puntos de supervisión». •Capacidad para detectar problemas y notificarlos a los operadores de los centros de datos Gastos de inversión y amortización • Fig.1.1 Simple schematic with the key datac entre subsystems[Source:ASHRAE[2]]. 6 La recopilación, el procesamiento y la evaluación de datos es un proceso que habitualmente está soportado por las herramientas de software. Por ejemplo, el Save Energy Now Program (Departamento de Energía de los Estados Unidos) ha desarrollado una suite de herramientas llamado «DC Pro». Esta suite de herramientas proporciona un proceso de evaluación, diversas herramientas para realizar mediciones comparativas y rastrear el rendimiento, así como una serie de recomendaciones. Se puede conseguir de manera gratuita. http://www1.eere.energy.gov/industry/datacenters /software.html OTROS EJEMPLOS DE HERRAMIENTAS DE SOFTWARE ÚTILES SON: •Herramienta para el consumo de energía: http://estimator.thegreengrid.org/puee •Herramienta de información del PUE www.thegreengrid.org/en/Global/Content/T ools/PUEReporting •Hoja de cálculo sobre estadísticas y escalabilidad métrica del PUE http://www.thegreengrid.org/library-and- RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS La comprensión adecuada de los objetivos generales para la supervisión de la energía es un elemento esencial en el diseño de un concepto de supervisión efectivo. Los objetivos más comunes pueden ser: •Evaluación del consumo total de energía por parte de la tecnología informática y de la infraestructura •Análisis de la tendencia del consumo de energía a lo largo del tiempo •Conocimiento de la demanda instantánea de energía por parte de los equipos clave de la instalación •Facturación •Cálculo de los índices de eficiencia energética y de los indicadores de eficiencia energética El concepto software/hardware en la supervisión de la energía proporcionará las siguientes capacidades (Fuente ASHRAE): •Recopilación de datos fiables y almacenamiento de datos con la precisión y los índices adecuados •Normalización de los datos procedentes de diversos dispositivos, interfaces y protocolos •Almacenamiento de datos durante largos periodos de medición •Análisis y visualización de los datos en forma de tablas y gráficos •Adaptación de la arquitectura a la expansión del centro de datos tools.aspx?category=MetricsAndMeasurements&rang e=Entire%20Archive&type=Tool &lang=en&paging=All#TB_inline?&inlineId=sign_in •Medición Eficiente de los Centros de Datos DCiE Los aspectos más importantes que se deben tener en cuenta cuando se elijan los dispositivos del sistema de supervisión son, entre otros, el alcance, la resolución y la precisión de los instrumentos. y del PUE http://www.42u.com/measurement/pue-dcie.htm 7 Tab.1.1 Ejemplos de dispositivos de medición de la energía Nombre Ejemplo Medidor portátil Descripción Métodos de supervisión Los medidores portátiles de corriente abarcan una amplia gama de Supervisión mínima y productos, que van desde los medidores múltiples manuales de una avanzada. fase hasta los sofisticados analizadores de corriente trifásicos con capacidad para registrar y activar. La mayoría de ellos incluyen una pantalla integrada donde el usuario puede acceder a los datos medidos o registrados. Fuente:ChauvinArnoux Medidor de panel Los medidores de panel normalmente se encuentran instalados de manera permanente en los sistemas UPS de medición del conmutador, en los generadores o en otros dispositivos. Estos medidores contienen una pantalla que muestra las mediciones instantáneas y las variables acumulativas, como el consumo total de energía. Se pueden instalar para medir el consumo de energía general o individual de los dispositivos. Estos medidores se pueden utilizar para la supervisión más práctica y de alta tecnología. Los medidores de facturación los utilizan habitualmente las compañías eléctricas, los propietarios y otras personas que facturan a sus clientes. Casi nunca se utilizan en sistemas de monitorización de los centros de datos, pero pueden proporcionar datos acerca del consumo general de energía de la instalación. En algunos casos, las compañías eléctricas pueden proporcionar acceso al puerto de comunicación digital, que ofrece la capacidad de adquirirla y almacenarla en una base de datos, permitiendo así realizar un análisis futuro (por ejemplo, cada 15 minutos). Se puede utilizar en todos los métodos. FuenteChauvinArnoux Medidor de facturación Fuente:Itron Unidades inteligentes de distribución de corriente Fuente:Raritan Medición de corriente integrada en el servidor Las unidades de distribución de alimentación (PDUs) inteligentes o en rack proporcionan una medición activa que permite una optimización de la energía y una protección del circuito. Las PDU en rack proporcionan datos de consumo de energía que permiten a los gestores de los centros de datos tomar decisiones informadas sobre el equilibrio de la carga y el tamaño adecuado de los entornos de la tecnología informática con el fin de reducir el gasto total de la propiedad. Los PDU pueden estar equipados con sistemas de control remoto en tiempo real a nivel de unidad y con sistemas individuales de salida que monitorizan la alimentación de corriente, la tensión, el factor de potencia de energía y el consumo de energía (kWh) con un grado de precisión en la facturación de ISO / IEC + / - 1%. Los usuarios pueden acceder y configurar las PDUs en rack a través de una página web segura, de SNMP o de interfaces Telnet Medición de corriente integrada en el servidor Transductor de corriente Se pueden emplear en todos los métodos. Supervisión mínima y avanzada. Normalmente llamamos transductor de corriente a un equipo sin Se pueden utilizar en pantalla que está conectado de forma permanente a un equipo de todos los métodos. conmutación, como los medidores de panel. Estos dispositivos a menudo los utilizan los sistemas de supervisión para conseguir mediciones de corriente procedentes de varios puntos del centro de datos. Fuente:ChauvinArnoux 8 1 La supervisión del consumo de energía en las salas de servidores y en los centros de datos 1.2 Dispositivos de medición Lecturas recomendadas Se puede encontrar una gran diversidad de tipos de dispositivos de medición para computar algunas variables esenciales, como el consumo de energía, la temperatura, el caudal de salida y la humedad. ASHRAE (2010): Mediciones de Consumo en Tiempo Real en Centros de Datos, ASHRAE– Sociedad americana de Calefacción, Refrigeración e Ingenieros de Aire acondicionado,2010. ISBN:978-1-933742-73-1 En la tabla 1.1 se recogen algunos ejemplos de dispositivos para la medición de energía (en la página 8, izquierda).Si desea más información, consulte las fuentes que se indican en la siguiente sección o acuda al «Informe sobre Evaluación de la Energía» que podrá encontrar en la página web de PrimeEnergyIT. Stanley, J. y Koomey, J.: The Science of Measurement: Improving Data Centre Performance with Continuous Monitoring and Measurement of Site Infrastructure, Stanley John and Koomey Jonathan, octubre de 2009 www.analyticspress.com/scienceofmeasurement.html Ton, M. y otros (2008): DC Power for Improved Data Centre Efficiency, Ton, My, Fortenbery, Brian and Tschudi, William, Ecos Consulting, EPRI, Laboratorio Nacional Lawrence Berkeley, marzo 2008 http://hightech.lbl.gov/documents/data_centres/dcdemofi nalreport.pdf The Green Grid (2008): Green Grid Data Centre Power Efficiency Metrics. Libro Blanco #6, The Green Grid, Libro Blanco #6. 30 de diciembre, 2008 http://www.thegreengrid.org/Global/Content/ white-papers/The-Green-Grid-Data-Centre-PowerEfficiency-Metrics-PUE-and-DCiE Rasmussen N. (2009): Determining Total Cost Of Ownership for Data Centre and Network Room Infrastructure, Neil Rasmussen, APC de Schneider Electric, Libro Blanco #6 – Revisión 4 http://www.apcmedia.com/salestools/ CMRP-5T9PQG_R4_EN.pdf Rasmussen N. (2010): Avoiding Costs From Oversizing Data Centre and Network Room Infrastructure, Neil Rasmussen, APC de Schneider Electric, 2010. Libro Blanco #37–Revisión 6 http://www.apcmedia.com/salestools/SADE5TNNEP_R6_EN.pdf Schneider Electric (2011): Página web de aprendizaje electrónico (EnergyUniversity) que proporciona la última información y formación sobre conceptos y mejores prácticas sobre eficiencia energética. www.myenergyuniversity.com Webinar: The Data Centre in Real Time: Moni- toring Tools Overview & Demon“ http://www.42u.com/webinars/Real-TimeMeasurement-Webinar/playback.htm Referencias [1]Stanley, J. y Koomey, J. (2009): The Science of Measurement: Improving Data Centre Performance with Continuous Monitoring and Measurement of Site Infrastructure. Octubre de 2009. [2]ASHRAE (2010): Mediciones de Consumo en Tiempo Real en Centros de Datos, ASHRAE– Sociedad americana de Calefacción, Refrigeración e Ingenieros de Aire acondicionado, 2010. ISBN:978-1-933742-73-1. 9 2 Equipos servidores Bernd Schäppi, Thomas Bogner, Hellmut Teschner, Austrian Energy Agency , Los equipos servidores consumen aproximadamente el 30–40% de la energía que se utiliza en los centros de datos y en las salas de servidores. Por tanto, es una de las áreas principales donde se deben aplicar medidas efectivas de ahorro de energía. Los equipos habituales de un servidor en las salas de servidores y en los centros de datos más comunes incluyen servidores en rack, servidores en blade, así como servidores de pedestal y servidores multinodo. La capacidad de eficacia energética es alta y, dependiendo del tipo de 2.1 Eficiencia energética y gestión de la energía en el servidor y a nivel del componente sistema de la tecnología informática y de las medidas que se apliquen, se puede conseguir un ahorro de energía del 20-60% o incluso más. Los métodos principales para mejorar la eficiencia energética son realizar una selección del hardware que sea energéticamente eficiente, una gestión de la energía a todos los niveles, desde el componente de hardware hasta el sistema en su totalidad y, por último, aunque no menos importante, una consolidación y virtualización del hardware. El siguiente capítulo proporciona información sobre tecnologías que ahorran energía y ofrece una serie de opciones que abarcan desde el componente y hasta el nivel del sistema. Los problemas de eficiencia energética y las posibles medidas para mejorarlos se proporcionan desde el servidor hasta el nivel del rack y del centro de datos. Incluye dos secciones específicas que tratan sobre la tecnología del servidor en blade y la virtualización del servidor como posibles estrategias eficientes. En los cuadros se incluyen algunas recomendaciones específicas sobre las opciones más destacadas. Tab.2.1 Energy Star Idle Power Criteria C a tegumberof installed p r o c e s s o r s Tab.2.2 Concept of SERT assessment tool 10 ManagedserverBa seIdleW) La eficiencia energética de los servidores ha mejorado notablemente en los últimos años, debido principalmente al desarrollo de una gestión efectiva de la energía respecto a los componentes de hardware. En la actualidad, la eficiencia energética del servidor se evalúa y se declara en base a los requisitos de la Energy Star y a los parámetros energéticos de la SPEC (SPEC: Corporación de Evaluación y Funcionamiento Estándar). Los requisitos actuales de la ENERGY STAR en cuanto a los servidores de las empresas [1] estipulan cuáles son los criterios de eficiencia energética para los servidores en rack y de pedestal que contienen hasta 4 zócalos de procesadores. Los requisitos definen cuáles son los niveles máximos de consumo de energía en Modo Inactivo para servidores socket de 1 y 2 CPU, así como los criterios para alcanzar la eficiencia en el suministro eléctrico y las características de la gestión de la energía (véase Tabla 2.1 y Tabla 2.4). Los criterios que se establecen en el modo inactivo son principalmente útiles, ya que son un indicador eficiente para las condiciones medias de carga baja próximas a la operación inactiva. Estas cargas bajas en los servidores (por ejemplo <15%) todavía son muy comunes, aunque el objetivo general debería ser la consolidación del hardware para conseguir niveles de carga más elevados. La eficiencia energética del servidor en cargas de trabajo superiores y en los sistemas consolidados aparece reflejada en la cota energética de referencia del SPEC, aunque se concentra más en la eficiencia relacionada con la CPU y con las cargas de trabajo intensas de la CPU (véase información abajo). En la actualidad, la SPEC está desarrollando una Herramienta de Evaluación de la Eficiencia del Servidor (SERT) que abarca todos los componentes principales del hardware del servidor [2] y estará disponible en invierno 2011/2012. La herramienta SERT podrá evaluar la eficiencia del servidor basándose en diversas referencias parciales de la CPU, de la memoria, del almacenamiento y del sistema (Tabla 2.2). Esta herramienta ayudará a los gestores de la tecnología informática a la hora de seleccionar un hardware que sea energéticamente eficiente para las aplicaciones específicas La SPECpower_ssj2008 [2] fue la primera referencia estándar que realizaba una evaluación de la eficiencia energética de los servidores de volumen. Esta referencia señala principalmente a la eficiencia de las CPU y, de ese modo, proporciona una buena evaluación respecto a las cargas de trabajo intensivas de las CPU. Sin embargo, esta referencia solo la publican los fabricantes de cierto hardware específico. La Figura 2.1 presenta un ejemplo de los resultados de SPECpower en un servidor de volúmenes. El típico gráfico SPEC proporciona información sobre el rendimiento medio por vatio a lo largo de una serie de cargas, así como diversos valores para los diferentes niveles de carga. De ese modo, los servidores se pueden comparar según los distintos niveles de carga, desde un estado inactivo a un rendimiento del 100%. Cuando se desee adquirir uno, se debería solicitar a los proveedores toda la información completa de SPECpower (que también contiene información detallada de su configuración). Además, se debería tener en cuenta que los productos muchas veces se examinan en configuraciones bajas. Powerconsumptionline LoadPerform scale (f 4 Fig.2.1 SPEC power diagram and key information Recomendaciones para las mejores prácticas Criterios de eficiencia energética y referencias para la selección del hardware •Si fuera posible, utilice los criterios de referencia de Energy Star para la adquisición de un servidor. En los casos de los servidores que operan en cargas bajas, los requisitos de Energy Star Versión 1 para el modo inactivo pueden servir como indicadores razonables de la eficiencia. Se pueden utilizar los requisitos para el suministro de electricidad en cualquier tipo de equipo. •Solicite a los fabricantes la referencia SPECpower_ssj2008(y la SPEC-SERT en cuanto esté disponible). Por lo que se refiere a SPECpower, debe tener en cuenta los siguientes puntos: ■ Es una referencia que se concentra en la CPU y, por tanto, representa principalmente a las cargas de trabajo intensas de la CPU. ■ Los servidores pueden haber sido examinados en una configuración muy baja (por tanto, compruebe la configuración). ■ Para llegar a una interpretación robusta, no solo debe tener en cuenta la puntuación general (operaciones totales por vatio), sino también los datos de referencia detallados. 11 2.1.1 La eficiencia de la CPU Las CPUs son los componentes de los servidores que consumen más energía. Por tanto, los modelos de CPU energéticamente eficientes que tengan una gestión efectiva de la energía pueden ayudar enormemente a alcanzar dicha eficiencia. El consumo de energía de la CPU depende del voltaje específico y de la frecuencia del reloj. La gestión de la energía en la CPU o al nivel del núcleo se basa, por tanto, en el Voltaje Dinámico y Escalamiento de la Frecuencia (DVFS) o en el apagado de los núcleos. El consumo de energía de las CPUs muchas veces se compara en base a la Potencia de Diseño Térmico (TDP) que indica la potencia máxima que necesita disipar un sistema de refrigeración en un servidor. Sin embargo, la TDP solo proporciona información limitada, ya que la eficiencia total también depende en gran medida de la gestión de la energía. Los fabricantes ofrecen versiones específicas de CPUs de baja potencia que en la práctica permiten realizar un ahorro notable de energía, siempre y cuando se puedan cumplir los requisitos de rendimiento. La eficiencia energética de las CPUs depende en gran medida de la implementación efectiva de la gestión de la energía. Los sistemas operativos comunes soportan la gestión de la energía en base a las especificaciones de la ■«Alto rendimiento» (adecuado para servidores que funcionan en un nivel de utilización muy elevado y necesitan proporcionar un rendimiento máximo, independientemente del gasto de energía) ■«Modo ahorro de energía»/«Uso mínimo de energía»(aplicado a servidores que funcionan a niveles de utilización bajos y tienen más capacidad de rendimiento de lo que realmente necesitan. El uso de este modo puede proporcionar un incremento en el ahorro de energía) ■« Potencia y rendimiento equilibrado» G7(3.07GHz,IntelXeonX5675) 1,000 2,000 3,000 Performance to Power Ratio 4,000 0 250 4,020 4,073 100% 1,214 90% 90% 1,135 80% 4,003 80% 1,049 70% 3,853 70% 951 60% 3,653 60% 854 50% 3,285 50% 738 40% 2,829 40% 620 30% 2,305 30% 484 20% 1,681 20% 335 10% 955 10% 175 Active Idle 500 750 1,000 1,250 734overallssj_ops/watt 3,197overallssj_ops/watt 100% Respecto a la configuración del hardware a la hora de su adquisición, es importante comprobar los requisitos de rendimiento concretos que deben cumplir los componentes de hardware. G5(2.66GHz,IntelXeonL5430) Performance to Power Ratio 0 La figura 2.2 muestra los efectos positivos de la gestión de la energía de la CPU moderna en resultados de referencia (SPECpower) para el servidor familiar HP Pro- Liant DL 380: la proporción de potencia inactiva se ha reducido notablemente de la generación G5 a la G7 de este modelo de servidor específico. En el caso del servidor DL 380, la potencia inactiva (sin carga) fue un 33% (170 vatios) más baja que cuando funcionaba a plena carga (253 vatios). En el caso del G7, es aproximadamente un 75% inferior que cuando funciona a máxima potencia. Esto demuestra que la tecnología del nuevo servidor es mucho más eficiente desde el punto de vista energético cuando se encuentra en carga baja o en operación inactiva, gracias a la gestión de la energía a nivel de CPU. Por otra parte, el rendimiento del ordenador en el modelo de servidor específico ha aumentado de manera notable. Interfaz Avanzada de Configuración y Energía (ACPI) para estados de rendimiento de los procesadores y consumo de potencia (P-states) y estados de gestión térmica (C-states). Los nuevos controles del sistema y de los componentes permitidos por ACPI Vs 3 proporcionan unos motores de gestión de la energía de nivel superior que permiten un ajuste más nítido de la potencia y del rendimiento basándose en la demanda. En muchos modelos de servidor recientes se pueden aplicar perfiles de potencia predefinidos. Por ejemplo: Active Idle 0 25 50 75 100 125 150 175 200 225 Average Active Power(W) 0 50 100 150 200 Average Active Power(W) 250 Fig.2.2 Example of SPEC power-benchmark for different server generations (G5, G7 Server from HP) [SPEC(2010,www.spec.org)] 12 2 Equipos servidores Los diversos tipos de cargas de trabajo del servidor definen una serie de requisitos distintos relacionados con el rendimiento del hardware que se deben tener en cuenta para lograr una configuración eficiente del hardware. En la Tabla 2.3 se muestra un indicio aproximado de los requisitos de rendimiento del hardware en las diversas cargas de trabajo. 2.1.2 Eficiencia de la fuente de alimentación El programa Energy Star para servidores [1] ha establecido una serie de requisitos sobre la eficiencia de la fuente de alimentación que define niveles para cargas del 10%, 20%, 50% y 100%. El 80 PLUS Certification Scheme [80PLUS] también establece una serie de requisitos de eficiencia energética para la fuente de alimentación de los servidores, pero excluye el nivel de carga del 10%. A efectos prácticos y de contratación, se recomienda pedir fuentes de alimentación que alcancen el menos el nivel 80 PLUS Gold, que se corresponde con el 88% de eficiencia a una carga del 20% y con un 92% de eficiencia a una carga del 50%. Los servidores rack estándar, que normalmente operaban a cargas bajas, a menudo están equipados con fuentes de alimentación redundantesy excesivamente provisionadas. Esto da lugar a una importante pérdida de energía debido a la existencia de un punto de operación muy bajo del equipo. Por tanto, es esencial contar con una fuente de alimentación de tamaño adecuado. Para ello, se puede contar, por ejemplo, con la ayuda de las herramientas de configuración online ofrecidas por los fabricantes y con herramientas para realizar una evaluación de la limitación de energía. Algunos fabricantes (por ejemplo, las series de servidores HP ProLiant G6 y G7) proporcionan características de hardware específicas que permiten superar las pérdidas innecesarias en las fuentes de alimentación redundantes. Este tipo de hardware ofrece un modo de operación que soporta el uso de una sola fuente de alimentación hasta que la carga sobrepase cierto umbral. La segunda fuente de alimentación permanece inactiva, manteniendo la redundancia. Este modo proporciona una redundancia a plena potencia en caso de que se produzca un fallo en la fuente de alimentación o en un circuito. Tab.2.4 Efficiency requirements for power supplies in the Energy Star programme and the 80 PLUS initiative PowerSupplyTypRatedOutputer 13 2.2 La gestión de la energía en el rack a nivel del centro de datos Yendo más allá de los componentes de hardware y las unidades de servidores, la administración de energía a nivel del sistema también es importante para optimizar la eficiencia energética. Como ya indicamos anteriormente, la mayoría de los servidores se utilizan con cargas de trabajo modestas y, por tanto, existe un enorme potencial de ahorro de energía que se logra mediante la consolidación del hardware (véase el capítulo siguiente) o mediante la gestión de la energía a nivel del sistema. En cuanto al nivel de los componentes, la gestión de la energía en los niveles superiores ajusta el rendimiento y el consumo de energía a la demanda real y se apaga o desactiva los recursos si no son necesarios. La Tabla 2.5 muestra los diversos métodos de gestión de la energía a diferentes niveles [WP TGG 33]. Algunas de las opciones se detallan en las secciones siguientes y en los últimos capítulos. 2.2.1 Planificación de la capacidad y gestión de la energía El software de administración del servidor proporciona herramientas esenciales para un funcionamiento seguro del servidor, pero también para la gestión holística de la energía. Las herramientas de administración del servidor pueden ayudar a reducir eficazmente el consumo de energía, ya que facilitan la implementación de las políticas de energía a través del sistema de servidores y proporcionan funciones como aprovisionamiento, supervisión y administración de la configuración que pueden servir de gran ayuda a la eficiencia del sistema. Las principales características comunes son: • aprovisionamiento • supervisión • despliegue • administración de la configuración • actualización de control • gestión de la energía • gestión de la carga de trabajo Todos los proveedores de hardware más importantes ofrecen potentes herramientas de administración del servidor. IBM (Systems Director) y HP (Systems Insight Manager, incluyendo Insight Dynamics) ofrecen una amplia serie de soluciones de gestión capaces de integrar los sistemas de terceros. Fujitsu (Server ViewSite) ofrece productos con funcionalidades básicas que se pueden integrar en las consolas de administración establecidas de otros proveedores. DELL está utilizando el Altiris Total Management Suite. Sun y Acer ofrecen consolas procedentes de sus propios entornos. Suites de Gestión de la Energía (por ejemplo, IBM Energy Manager) Entre muchas otras características, este tipo de herramienta soporta una supervisión y recopilación de datos sobre el consumo de energía, una gestión de energía incluyendo el establecimiento de opciones de ahorro de energía y limitación de potencia, así como una automatización de las tareas relacionadas con la energía. Esta última incluye la configuración de dispositivos de medición tales como las PDU y los sensores, el establecimiento de los umbrales, la creación y el ajuste de las políticas de energía, el cálculo de los costos de energía. Para más información sobre suites de gestión de energía, consulte más abajo. Tab.2.5. Power management options from component to data centre level Component Level System Level •S-states •CPU (Package/core C-states, •Platform-based power management P-states,T-states,Thermal throttle) •Other components (D-states,L-states) •Workload schedulers •Fan speed control 14 Rack Level Data centre Level •System or node management •Application / load balancing •Chassis management •Application / load balancing •Facilities and equipment monitors •Data de-duplication,etc. •Multi-rackmanagement,dynamic consolidation 2 Equipos servidores Herramientas de planificación de la capacidad (por ejemplo, HP Capacity Planner) Los planificadores de capacidad, entre otras características, ayudan a los administradores de la tecnología informática mediante una utilización cada vez mayor del servidor, lo que reduce el consumo de energía y mejora el rendimiento de la aplicación. Permiten la recopilación de datos de utilización de núcleos de CPU, memoria, red, disco I/O y potencia. Además, ayuda a llevar a cabo la planificación de la carga de trabajo o los cambios en el sistema y a realizar la evaluación del impacto en la utilización de recursos. También evalúa las tendencias para predecir las necesidades de recursos. Para más información sobre las herramientas de planificación de la capacidad, véase más abajo. Basándose en los registros de utilización, la herramienta de HP, por ejemplo, proporciona una buena base sobre la que aplicar medidas de consolidación mediante la evaluación de la demanda de recursos para aplicaciones combinadas. La Figura 2.3 muestra el ejemplo de una comparación de la utilización de dos sistemas donde se indica que se ha alcanzado el pico de rendimiento máximo en diferentes momentos y la carga media sólo aumentaría moderadamente en caso de que se produjera una consolidación del hardware. 3,0 2,5 2,0 Peak utilization of system 2 Peak utilisation of system 1 1,5 1,0 0,5 0,0 21Feb 28Feb 6March 13March Time System1 System2 Allocation Fig.2.3 Comparison of CPU utilization for “system 1” and “system 2” 15 2.2.2 Limitación de la energía La asignación activa de una capacidad de alimentación se conoce como limitación de la energía. Los administradores de la tecnología informática pueden especificar límites de energía a los servidores dependiendo de las necesidades de potencia real. Una limitación dinámica de la energía reduce la demanda máxima de potencia del sistema y, por tanto, optimiza el suministro de energía más allá del nivel normalmente soportado por los configuradores de energía que ofrecen los fabricantes. Los ahorros concretos conseguidos en la práctica dependen del nivel de limitación. Las limitaciones se deberían fijar de tal manera que los picos de potencia se limiten pero el rendimiento de computación no se vea visiblemente afectado. Una limitación optimizada precisa de una evaluación de la carga de trabajo y del patrón de consumo de potencia. En cuanto a las cargas de trabajo relativamente uniformes, se pueden establecer limitaciones en la carga media del servidor sin que ello afecte significativamente a su rendimiento. Como regla general, las limitaciones no deben ser inferiores a un término medio entre el consumo de energía mínimo y máximo de los servidores. Algunas herramientas de gestión también ofrecen la opción de especificar el tiempo de limitación que define diversas limitaciones durante distintos períodos del día, dependiendo del patrón de carga, del gasto de electricidad, etc. RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS 2.3 Opciones específicas para la gestión de la energía en los servidores blade La tecnología de servidores blade se ha implementado tanto en los centros de datos como en las salas de servidores. El mercado de servidores blade ha sido el segmento de mercado de más rápido crecimiento en los últimos años y por ello es importante que la tecnología sea lo más eficiente posible. Los chasis en blade (véase la Figura 2.4.) suelen incluir 7, 14 o más módulos de servidor en blade, uno o más módulos de gestión, así como interfaces de KVM. Los chasis soportan módulos de servidor, de almacenamiento y de red y pueden ser optimizados para tipos de usuarios y aplicaciones específicas. En comparación con los servidores en rack estándar, la tecnología blade permite la reducción de algunos componentes de hardware, como fuentes de alimentación, redes I/O y cableados que son compartidos por varios servidores en el compartimento común. justifiquen el gasto financiero y ambiental. Planificación y gestión de la energía continua eficiente • Utilice las herramientas de administración del servidor para la planificación de la capacidad, para supervisar la carga de trabajo y la potencia y para la gestión específica de la energía. Las descripciones y las recomendaciones detalladas sobre el uso de las funciones de la gestión de la energía se suministran con la documentación técnica que se recoge en las suites de administración del servidor. • Utilice la función de equilibrio de carga y de la aplicación para optimizar el uso de los recursos de hardware. • Use la limitación de potencia para mantener la demanda de energía en los niveles deseados dentro de todo el sistema. • Aproveche los niveles óptimos de versatilidad del hardware de tecnología informática. Evalúe el nivel de versatilidad de hardware justificado teniendo en cuenta las repercusiones que se esperan para la empresa como consecuencia de las incidencias en el servicio que se puedan producir en cada servicio desplegado. • Retire los servicios no utilizados y elimine completamente el hardware. Analice las opciones que existan de eliminar servicios de valor empresarial bajo mediante la identificación de aquellos servicios que no Fig.2.4 Blade chassis 16 Las principales ventajas de los sistemas en blade son: • Alta densidad de computación y poca demanda de espacio • Reducción del tiempo de mantenimiento y actualización del sistema gracias a la sustitución con conexión en caliente de los módulos y de las funciones de gestión integrada • Una eficiencia energética ligeramente superior en comparación con los servidores en rack, siempre y cuando se haya optimizado la gestión de la energía y de la refrigeración Fig.2.5 Dual-node blade server 2 Equipos servidores Sin embargo, si se implementan blades de alta densidad, eso se traducirá en una fuerte demanda de infraestructura y refrigeración. Una densidad de computación elevada aumenta la densidad de potencia hasta los 10-25 kW/rack. En consecuencia, el nivel estándar de refrigeración en los centros de datos y salas de servidores a menudo no es suficiente y será necesario establecer unos conceptos específicos de refrigeración. Por tanto, la eficiencia energética de una solución en blade también depende en gran medida del diseño general del sistema. Los conceptos de nodo doble y multinodo en parte se basan en una filosofía parecida a la de los servidores blade. En el concepto de multinodo, se combina un número fijo de unidades de servidor (normalmente 2 ó 4) en un chasis montado en rack. Los servidores, que son parecidos a los blades, comparten fuentes de alimentación y ventiladores, aunque existen algunas opciones de expansión. De ese modo, la tecnología multinodos es un método que sirve para implementar una densidad de computación superior a un precio comparablemente bajo, a menudo diseñado para pequeñas y medianas empresas. Sin embargo, también se pueden encontrar servidores especiales de nodo doble y alto rendimiento, por ejemplo, en sistemas blade que combinan dos nodos de servidor en un blade. Los principales beneficios de los sistemas estándar de nodo doble y múltiple son: • Menor coste y demanda de espacio en comparación con los servidores estándar en rack • Un consumo de energía ligeramente inferior gracias a la posibilidad de compartir fuentes de alimentación y ventiladores 2.3.1 Chasis en blade y componentes en blade Las fuentes de alimentación más grandes suelen ser más eficientes. Por tanto, la aplicación de un menor número de fuentes de alimentación más grandes en los sistemas blade puede aumentar la eficiencia energética en comparación con los servidores de rack. Sin embargo, la eficiencia en la práctica depende también de la demanda de energía en relación con la capacidad de la fuente de alimentación. La figura 2.6 muestra la curva de eficiencia de una fuente de alimentación de platino [80PLUS 2011] de 2990 W de potencia nominal de un chasis en blade que indica una eficiencia de entre el 92% y 95% en toda la gama de carga. Las fuentes de alimentación eficientes para los blades deben alcanzar niveles de eficiencia energética superiores al 90%, entre el 20% y el 100% de carga. En el caso de los productos de servidores blade y multi-nodo de nueva generación, algunos fabricantes ofrecen varios modelos de fuente de alimentación con una potencia nominal diferente que permiten el correcto dimensionamiento, dependiendo de la demanda de potencia. La selección de la fuente de alimentación es compatible con los configuradores de potencia. En principio, la existencia de menos fuentes de alimentación y más eficientes, de ventiladores más eficientes y la posibilidad de ampliar las opciones de gestión de la energía en el chasis blade ofrecen una mayor eficiencia energética en comparación con los servidores en rack. Sin embargo, en la práctica, la eficiencia depende en gran medida de la configuración del chasis, así como del uso que se haga de las opciones de administración. Efficiency of the Power Supply 100% 90% 80% 70% 60% 50% 40% 30% RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS Selección de tecnología en blade basándose en unos criterios de decisión claros 0% 25% 50% 75% 100% 125% Loading (%o fRated Output Power) Fig.2.6 Blade power supply efficiency • Definir y evaluar las principales razones para implementar la tecnología blade en el centro de datos. Por ejemplo, restricciones de espacio. • Evaluar los beneficios que se esperan en comparación con la tecnología en rack y comprobar si las expectativas son realistas. • Comprobar si la virtualización puede ser una solución alternativa, teniendo en cuenta los objetivos definidos. • Evaluar el coste total de propiedad (TCO) esperado y la eficiencia energética en comparación con otras opciones (en base a la información proporcionada por los proveedores). 17 Dell M610 Blade server R6101U rack server Performance to Power Ratio 1,000 0 2,000 Performance to Power Ratio 3,000 4,000 0 3,093 overallssj_ops/watt 1,000 2,000 3,000 4,000 2,938overallssj_ops/watt 100% 3,885 100% 3,739 90% 3,911 90% 3,725 80% 3,873 80% 3,697 70% 3,733 70% 3,572 60% 3,502 60% 3,337 50% 3,158 50% 2,999 40% 2,754 40% 2,623 30% 2,255 30% 2,125 20% 1,653 20% 1,549 10% 940 10% 868 Active Idle Active Idle 0 1,000 2,000 3,000 4,000 Average ActivePower (W) 0255075100125150175200225250 Average ActivePower (W) Fig.2.7 SPECpower_ssj2008 for a Dell M610 Blade server and R6101U rack server. The blade system includes 16 blades with identical processor configuration as the rack server (2xIntelXeon5670, 2.93GHz).SPEC (2010,www.spec.org) El chasis que está configurado con sólo unos cuantos blades será, sin ninguna duda, menos eficiente, debido a la sobreprestación de la capacidad de refrigeración, de potencia y de red. Para realizar una comparación aproximada de la eficiencia energética de los servidores en blade, se puede tener en cuenta un sistema plenamente configurado en blade. En la figura 2.7 aparece esta comparación aproximada basada en los datos de eficiencia energética publicada por Dell. En 2010, esta compañía ha publicado datos SPEC-power (SPECpower_ssj2008) de sistemas en blade y de servidores en rack comparables (www.spec.org). Los resultados SPEC muestran un rendimiento máximo de 3.885 ops/vat en el sistema de servidor en rack, lo cual indica que el rendimiento por vatio o la eficiencia energética en carga máxima es un 4% mejor en el sistema en blade que en la solución en rack. La diferencia aumenta hasta aproximadamente un 8% en las cargas bajas (10% de carga) y a un 11% en un estado de operación inactiva. Aunque esta sencilla comparación no se debe interpretar con demasiado optimismo (ya que SPECpower solo analiza una parte de la eficiencia del servidor), sugiere que los sistemas en blade, incluso cuando están configurados plenamente y optimizados para su análisis, solo muestran una eficiencia energética ligeramente mejor que los servidores en rack estándar, especialmente en cargas elevadas. La diferencia es todavía más significativa en los niveles de carga baja que indican una gestión de la energía total mejorada en el sistema en blade con baja carga. Por tanto, las soluciones en blade parece que ofrecen únicamente una capacidad limitada para incrementar la eficiencia energética si la comparamos, por ejemplo, con la virtualización. Asemejándose a los servidores en rack, también existe la opción de combinar el hardware en blade con la virtualización, lo cual permite alcanzar una notable mejora en la eficiencia energética. Las dificultades relacionadas con las densidades de calor elevado en el rack y a un nivel inferior se detallan más adelante, en la sección 2.3.2. Los chasis en blade modernos contienen un hardware y un software de administración que, en combinación con los controladores de acceso remoto en los servidores en blade, permiten realizar un inventario de la potencia y una gestión de la potencia de cada uno de los blades. Las tarjetas de administración específicas soportan un hardware y un inventario de la demanda de energía de los diferentes blades. El controlador de acceso remoto transmite la información de la potencia prevista a la tarjeta de gestión del chasis que confirma la disponibilidad de potencia procedente del nivel del sistema, basándose 2 Equipos servidores RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS Considerar los criterios de contratación en la selección de un hardware en blade energéticamente eficiente en un recuento de la potencia total del chasis. El CMC puede establecer políticas de energía a nivel del sistema y el consumo real en cada módulo de servidor se controla asegurando que el consumo de potencia instantánea no exceda de la cantidad establecida. Las funciones básicas de la gestión de energía en el modo automático normalmente no son visibles para el administrador del sistema. Sin embargo, las prioridades de cada módulo del servidor también se pueden configurar manualmente seleccionando, por ejemplo, que los blades de menor prioridad sean los primeros en entrar en cualquier modo de ahorro de energía. En el chasis en blade, se puede utilizar la limitación dinámica de potencia, incluso de forma más eficaz que en los servidores de rack estándar, ya que la limitación de potencia dinámica se puede especificar a través de varios servidores. Se pueden fijar límites de potencia de manera dinámica ajustados por el administrador y por el procesador de servicios. Los blades que operan con cargas de trabajo más ligeras reciben menores limitaciones. Como la intensidad de la carga de trabajo y la dinámica normalmente son diferentes en los distintos blades, se alcanzan los picos de potencia en momentos distintos. En consecuencia, el límite global del chasis puede ser inferior en comparación con la suma de los límites individuales de cada blade. HP ha calculado el ahorro de energía y la reducción de coste total de propiedad en un centro en blade, donde el diseño del suministro de energía se basa en la limitación de la potencia. El gasto de aprovisionamiento de energía y de potencia máxima se redujo aproximadamente un 20% en comparación con la estrategia donde no se aplicaba una limitación de la potencia [HP2011]. Definetheworkloadsandexpected•Definir los niveles carga de trabajo y de carga •Definir las cargas de trabajo y los niveles de cargas de trabajo esperados que se deben ejecutar en los sistemas blade. • Comparar los costes y la eficiencia energética de los sistemas en blade de los distintos proveedores. • Solicitar a los proveedores información respecto a los productos. ■ El Coste Total de Propiedad (TCO). ■ La eficiencia energética global (por ejemplo, SPECpower_ssj2008, SPEC-SERT en cuanto estén disponibles). ■ Los componentes de hardware con eficiencia energética como, por ejemplo, eficiencia y tamaño correcto de las fuentes de alimentación. ■ Las herramientas de gestión que permitan especialmente una administración de la energía y una optimización del diseño del sistema. • Seleccionar equipos de energía que ofrezcan la mayor eficacia según los tipos de carga de trabajo y los niveles que quiera alcanzar y según las opciones adecuadas de gestión de la energía. 2.3.2 Sistema en blade: problemas de energía y enfriamiento En la práctica, el diseño de sistemas de servidores en blade eficientes es a menudo un desafío subestimado, sobre todo si se aplican los grandes sistemas de alta densidad. Los principales desafíos son: • Una capacidad de enfriamiento suficiente y un diseño de refrigeración adecuado para hacer frente a las densidades de alta temperatura • Una capacidad de potencia y una distribución suficientes (la capacidad de la PDU local, el cableado de alimentación, etc.) Los conceptos tradicionales de refrigeración a menudo sólo permiten 2-3kW/rack, que es 10 veces menor que la potencia de un rack en blade completamente lleno. Esto significa que los conceptos estándar de refrigeración de los centros de datos y las salas de servidores a menudo no son apropiados para los sistemas en blade más grandes y tienen que ser modificados. RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS El uso de las herramientas de gestión para optimizar la eficiencia energética de los sistemas en blade • Utilice las herramientas de gestión y los dispositivos de red y de potencia inteligentes para supervisar el consumo de energía y de la carga en su sistema en blade. • Analice todas las opciones para equilibrar y gestionar las cargas y el consumo de energía dentro y a través del blade, de los chasis y de los bastidores. • Use la limitación de potencia o las funciones de equilibrio de la energía del chasis en blade. • Haga una estimación de primer orden de la demanda de capacidad de alimentación / refrigeración basándose en las calculadoras de energía que ofrecen los fabricantes La Tabla 2.6 muestra las opciones más habituales para el diseño de las distintas densidades de blade en función de los requerimientos de la empresa y de limitaciones tales como la capacidad de infraestructura y de refrigeración. Los distintos niveles de densidad de los blade permiten las siguientes opciones respecto a los conceptos de refrigeración [Rasmussen 2010]: • Dar a conocer la carga de calor del chasis en blade en los distintos racks: los chasis en blade individuales están montados en diversos racks para difundir la carga de calor. Por este concepto, el porcentaje de chasis en blade respecto a la totalidad del sistema tiene que ser muy bajo. • Dedicar la capacidad de enfriamiento: El exceso de capacidad de refrigeración está dedicado específicamente a los blades. Además, en este método, el porcentaje de blades que haya en el sistema tiene que ser relativamente bajo, ya que sólo se utiliza la capacidad de refrigeración existente. • Instalar un sistema de refrigeración suplementaria: se proporciona refrigeración adicional para racks en blade. La densidad de potencia por rack puede alcanzar los 10 kW. Este método permite una buena utilización del espacio y una eficiencia elevada. • Definición / diseño de un área de alta densidad: hay un área específica en el centro de datos que está dedicada a los blades (Línea o zona de alta densidad). Alta eficiencia y una elevada utilización de espacio. Densidad de hasta 25 kW. El área tiene que ser planificada y rediseñada. • Diseño del centro de alta densidad: racks en blade de alta densidad en todo el centro de datos. Un enfoque extremo y poco común, que en la mayoría de los casos se traduce en gastos significativos y notable infrautilización de la infraestructura. En los centros de datos existentes, muchas veces se marcan ciertos límites para el despliegue de la tecnología en blade que están definidos por la infraestructura específica. Por ejemplo, un sistema estándar de piso elevado no puede permitir una densidad de potencia superior a los 5 kW por rack. La especificación adecuada de potencia y densidad de calor es un requisito importante para realizar el diseño de un sistema que ahorre energía, espacio y dinero. Otro punto esencial que está relacionado con la eficiencia energética a nivel del sistema es evitar el exceso de provisión de infraestructura y de refrigeración. Las especificaciones de la densidad deberían tener en cuenta tanto la variabilidad espacial como la temporal como, por ejemplo, las diferentes densidades locales de potencia en los centros de datos con respecto a los racks en blade y a los racks estándar y la variación a lo largo del tiempo allá donde pueda aumentar la densidad. Por tanto, la densidad de potencia debe especificarse en el rack o en el nivel de línea. En el caso de los sistemas más grandes, el nivel de línea es más apropiado, ya que la distribución de la refrigeración y de la potencia se basa principalmente en las filas. En la medida de lo posible, se recomienda que las especificaciones de densidad se definan para un rack o para una fila. No se deberían realizar modificaciones durante el tiempo de funcionamiento del rack o de la línea específica. Por tanto, la implementación de una nueva tecnología con un nivel de densidad diferente se debe realizar en un rack o en una línea nueva. Sin embargo, también existen alternativas a este enfoque que permiten realizar alguna variación de la densidad de potencia instalada en los racks o en las líneas: • Adición de módulos UPS de conexión en caliente • Uso de PDUs en rack intercambiables en caliente • Adición de capacidad de refrigeración con dispositivos montados en rack. Tab.2.6 Configuration of blade systems a track level and related requirements for cooling [after Rasmussen2010] N o C h a s s i s / r a c k Spreadingload acrossracks 20 Dedicatingcooling capacity Additionalcooling Highdensityarea Highdensitycentre 2 Equipos servidores Para la definición de las densidades de las filas, se recomienda definir una relación máxima con un pico de potencia media de 2 en los diseños típicos en línea. Allá donde los racks específicos superen el doble del promedio de potencia, la carga de tecnología informática debe ser redistribuida dentro de la línea o a otras líneas. En general, obviamente, lo más lógico es distribuir los racks de más alta densidad en la línea. Se pueden utilizar sistemas de gestión de energía y refrigeración para definir las reglas del despliegue de la capacidad instalada como, por ejemplo, permitiendo que un rack supere la potencia media si la demanda de energía de un rack vecino es significativamente inferior a la media. Una cuestión importante es cómo afrontar los subsiguientes desarrollos en relación con la necesidad futura de una extensión de la tecnología informática. Evidentemente, no es recomendable implementar desde el principio una infraestructura que cubra su capacidad máxima futura, ya que esto supondría un exceso de capacidad y un gasto elevado en un período de tiempo más largo. En general, se recomienda instalar todos los conductos y el cableado teniendo en cuenta la posibilidad de una plena expansión de la capacidad, pero también debe instalar la energía y los equipos de refrigeración en las etapas posteriores sobre la base de la demanda específica. Este enfoque permite preparar toda la infraestructura básica del edificio y, a la vez, poner en práctica el equipo específico según la demanda de energía y refrigeración de la tecnología informática cuando sea necesario. 2.4 La virtualización del servidor La virtualización del servidor ofrece un enorme potencial de ahorro de energía. La tecnología permite la consolidación de las cargas de trabajo en un hardware menos físico, lo que reduce notablemente la energía y la demanda de refrigeración. La virtualización en general ofrece una serie de ventajas para el diseño efectivo de sistemas de tecnología informática en las salas de servidores y en los centros de datos. Algunos ejemplos incluyen: • La reducción de los requisitos de hardware y de espacio mediante la implementación de máquinas virtuales (MV) que se pueden ejecutar de forma segura en un hardware compartido, aumentando la utilización del servidor del 5-15% al 60-80%. • La optimización de la prueba y el desarrollo: aprovisionando rápidamente las pruebas y el desarrollo de los servidores mediante la reutilización de los sistemas preconfigurados, mejorando la colaboración y estandarizando los entornos de desarrollo. • La reducción del coste y la complejidad de la continuidad del negocio (alta disponibilidad y soluciones para la recuperación de incidendias) mediante la encapsulación de sistemas completos en archivos únicos que se pueden replicar y realmacenar en cualquier servidor de destino. Algunas plataformas de virtualización establecidas como VMWare, Microsoft Hyper-V y Citrix XEN ofrecen muchas características adicionales, como alta disponibilidad, recuperación de fallos, programación de los recursos distribuidos, equilibrio de carga, funciones automatizadas de copia de seguridad, gestión de la energía distribuida, VMotion para servidores, almacenamiento y red, etc. Las principales opciones tecnológicas para la virtualización del servidor incluyen: • Partición física • Virtualización basada en un sistema operativo subyacente • Virtualización de aplicaciones, por ejemplo Microsoft Terminalserver, Citrix XenApp • Virtualización basada en el hipervisor: ■ VMware ESX ■ Citrix / código abierto: XenServer 5 ■ Microsoft Hyper-V Teniendo en cuenta que el mercado está dominado por unos pocos productos, el siguiente capítulo se centra en los productos basados en un hipervisor: VMware ESX, Microsoft Hyper-V y Citrix XEN. El mercado de las principales plataformas de virtualización VM-Ware ESX/ESXi/Vsphere4, HyperV Microsoft y Citrix XEN ofrece soporte a los sistemas operativos estándar invitados. También ofrecen consolas de administración a entornos de servidores más pequeños, así como administración a nivel de centro de datos. En 2001, VMware fue el primer producto que salió al mercado. Su arquitectura es anterior a los sistemas operativos y a los procesadores de virtualización como Intel VT y AMD-V. VMware ESX/VSphere4 ofrece una serie de potentes herramientas de administración, como VMotion para máquinas virtuales entre servidores, almacenamiento VMotion, almacenamiento del exceso de aprovisionamiento, virtualización del escritorio y de la red, tecnología de seguridad virtual, y dispone de una plataforma de virtualización de escritorio completa a través del centro de datos hasta llegar a la computación en nube. Microsoft Hyper-V Server contiene el hipervisor de Windows, el modelo Windows Server y la virtualización de los componentes. Presenta un tamaño compacto y un gasto mínimo. Se conecta a los entornos de tecnología informática existentes, aprovechando los parches, el abastecimiento, la administración, las herramientas de apoyo, y los procesos instalados. Algunas de las características clave de Microsoft Hyper-V Server 2008 R2 son la migración en vivo, el soporte del volumen del clúster compartido y el procesador de ampliación, así como el soporte de memoria para los sistemas host. La migración en vivo se integra con Windows Server 2008 R2 ® Hyper-V™. La migración en vivo con Hyper-V™ puede mover máquinas virtuales en operación sin pérdidas de tiempo asociadas. Dependiendo de las necesidades del usuario, Citrix XenServer puede ofrecer una solución económica de implementar la virtualización, ya que algunos elementos básicos, como el hipervisor básico, la resistente arquitectura de gestión distribuida 21 y las herramientas de gestión y conversión XENServer son gratuitas. Las características avanzadas de gestión y automatización, como los servicios virtuales de aprovisionamiento, la conmutación virtual distribuida, XenMotion, la migración en vivo, las capturas de memoria y reversión en directo, los informes de rendimiento y el equilibrio de carga de trabajo dinámica hacen que el XenServer se coloque a la altura de los otros dos productos. Sin embargo, estas características no son más que una parte de las ediciones comerciales avanzadas. BMC Software, Eucalyptus Systems, HP, IBM, Intel, Red Hat, Inc. y SUSE anunciaron la formación de una Alianza de Virtualización Abierta, un consorcio cuyo compromiso es fomentar la adopción de tecnologías de virtualización abierta, incluyendo Kernel Virtual Machine (KVM). El consorcio es un complemento de las comunidades existentes de código abierto que gestionan el desarrollo del hipervisor KVM y la capacidad de gestión asociada, que están impulsando rápidamente una serie de innovaciones tecnológicas para las aplicaciones de virtualización tanto de los clientes de Linux como de Windows ®. El consorcio tiene la intención de acelerar la expansión de soluciones a terceros en torno a KVM y prestará asesoramiento técnico y ejemplos de las mejores prácticas. 2.4.1 Las posibilidades de ahorro de energía de la virtualización La virtualización es una de las tecnologías más efectivas para la reducción de la demanda energética en los centros de datos y en las salas de servidores. La consolidación del hardware de los servidores mediante la concentración de la carga de trabajo en un menor número de servidores físicos a menudo permite un ahorro energético del 40% al 80% y a veces más, dependiendo del caso específico. La tecnología actual ofrece la posibilidad de implementar la virtualización con factores de consolidación de al menos 10-20, dependiendo de los sistemas y los requisitos específicos. La Figura 2.8 muestra el ejemplo de consolidación de un servidor mediante la virtualización en el Ministerio Alemán de Medio Ambiente. Las medidas específicas que se tomaron permitieron un ahorro energético de alrededor del 68%. El proyecto pretendía lograr una reducción del hardware a dos servidores físicos que ejecutan VMware ESX [4]. Otro ejemplo tomado de IBM [5] para un proyecto de virtualización de tecnología de servidores en blade sugiere un ahorro energético de más del 90% si se cumplen todas las medidas pertinentes a nivel de hardware y de infraestructura. Estos ejemplos ilustran que la consolidación de la virtualización es una de las principales opciones para aumentar de forma notable la eficiencia energética en los centros de datos. Sin embargo, tal y como sucedía con los otros métodos basados en la tecnología informática, el potencial de ahorro total sólo se puede alcanzar si la infraestructura, incluyendo la fuente de alimentación y la refrigeración, se dirige en paralelo. Fig.2.8 Reduction of energy demand by virtualization in a case study [4] 22 2 Equipos servidores 2.4.2 Herramientas y requisitos para la planificación de la virtualización La virtualización en los centros de datos se debe basar en una estrategia de virtualización que incluya una evaluación e identificación de los candidatos del servidor adecuados. Para realizar dicha evaluación, es necesario recopilar datos sobre el rendimiento, la utilización del sistema, los plazos de fin de servicio, el área de negocio y la especificación de la aplicación. Una vez que han sido identificados los candidatos a la virtualización, se analizan las especificaciones de aplicación y la carga de la máquina. Se lleva a cabo una evaluación del rendimiento para evaluar, entre otros, los siguientes requisitos que sirvan como base para la selección de hardware: • Rendimiento de la CPU • Memoria requerida • Intensidad del disco I/O • Necesidades de red • Configuración del sistema operativo Por lo general, se pueden consolidar varias aplicaciones a un único servidor físico, que es inmune a fallos del hardware y las interrupciones de energía, al mismo tiempo que posee la capacidad de equilibrar la carga. Para lograr este objetivo, los servidores host pueden contener dos fuentes de alimentación, los discos duros reflejados y tarjetas de interfaz de red asociadas. En el caso de una solución de almacenamiento centralizado, se puede utilizar una red de área de almacenamiento (SAN) con capacidad total de tolerancia a los fallos. La migración de la máquina virtual entre servidores físicos puede soportar el equilibrio de carga adicional. Dependiendo del tipo de carga de trabajo, se puede considerar un margen de consolidación de 10:01-20:01. En cuanto a los requisitos de memoria, muchos entornos de virtualización ofrecen la característica de memoria sobre el aprovisionamiento. Por medio de esta función, el total de memoria asignada a todas las máquinas virtuales puede exceder la capacidad de memoria física disponible en un factor de 2 a 3. La virtualización casi nunca se lleva a cabo con la única intención de ahorrar energía. Así, aunque normalmente se garantiza un ahorro en alta energía, los proyectos de virtualización que gozan de mayor éxito generalmente requieren una planificación minuciosa, que también incluye los cálculos de la ROI (rentabilidad de la inversión) y el TCO. Una vez identificados los factores de coste más relevantes, se calcula el gasto total de propiedad para la implementación del nuevo servidor virtual. Se puede realizar un cálculo del ROI a corto plazo y largo plazo para evaluar los costes relacionados con el tiempo. La clave para realizar con éxito un cálculo del ROI está en entender los gastos de la virtualización. Los gastos más evidentes en los proyectos de virtualización son el hardware, el software (incluyendo licencias) y el trabajo. La virtualización puede suponer la compra de servidores nuevos y más potentes, de la actualización del almacenamiento, de redes y seguridad, etc. Los gastos en preparación y dirección del personal son un problema adicional. Todos estos aspectos tienen que ser facturados en el cálculo del ROI. En el mercado se pueden encontrar diversas herramientas de software que soportan la planificación de la virtualización, así como el cálculo del ROI y el TCO. Por ejemplo, el kit de herramientas de Evaluación y Planificación (MAP) de Microsoft soporta la planificación de la migración, incluyendo el cálculo del TCO y del ROI. El kit de herramientas MAP es una herramienta que realiza inventarios, evaluaciones e informes capaces de analizar los entornos de la tecnología informática en las migraciones y en la virtualización de varias plataformas sin necesidad de recurrir a agentes de software. Los informes de la evaluación de la disposición y del inventario de MAP Fig.2.9 Example of a ROI/TCO Calculator from VMWare [6] 23 generan una serie de recomendaciones de actualización específicas para la migración a los sistemas operativos Windows Vista y Windows Server 2008, así como para su virtualización. Ofrece recomendaciones sobre cómo se pueden consolidar los servidores físicos en un entorno virtualizado Microsoft Hyper-V. Además, la herramienta Integrated Virtualization ROI de Microsoft es compatible con el cálculo del ahorro potencial en gastos de energía con la tecnología Hyper-V antes de su despliegue. Esta herramienta proporciona soporte para examinar la producción y el desarrollo de los servidores actuales, las oportunidades de virtualización de las aplicaciones y del escritorio mediante la cuantificación de los posibles ahorros, de los beneficios a nivel de servicio, de las inversiones y del ROI. La metodología de TCO / ROI que ofrece VMware (disponible como herramienta en línea) permite comparar los ahorros en TCO, las inversiones necesarias y los beneficios empresariales de las soluciones de virtualización. Se basa en una serie de técnicas financieras estándar, en los datos de campo y del cliente de VMware, así como en métricas del usuario. Basándose en los datos específicos del usuario, se calculan valores clave como el ahorro, la inversión, el ROI, los ahorros en NPV (valor actual neto), las oportunidades de TCO y los períodos de amortización. Cuando no están disponibles los datos específicos del usuario, se proporcionan los datos estadísticos de la industria, pudiendo ser utilizados para realizar los cálculos. 2.4.3 La gestión de la energía en entornos virtualizados: la migración al servidor virtual Las soluciones actuales de software para la virtualización de servidores soportan la migración de máquinas virtuales y una paralización temporal de los hosts con el fin de reducir la demanda de energía. Un ejemplo que proporciona estas funciones es VMwareVsphere4 (Gestión de la energía distribuida, DPM). DPM supervisa el uso de los recursos de las máquinas virtuales en ejecución en el clúster. Si existe un exceso de capacidad, DPM recomienda mover algunas máquinas virtuales entre los hosts y poner algunos hosts en modo reposo con el fin de ahorrar energía. En caso de que hubiera una capacidad insuficiente, DPM vuelve a activar a los hosts que se encuentran en espera. La gestión de la energía se puede utilizar en modo manual o automático. En modo automático, las máquinas virtuales se migran y los hosts entran o salen automáticamente del modo de espera. La configuración automática se puede cambiar en función de cada host y la gestión de la energía también se puede activar a través de una tarea programada. El objetivo de VMware DPM es mantener a la utilización de hosts ESX en el clúster dentro de un rango deseado. DPM debe cumplir los siguientes requisitos para ser una solución eficaz de ahorro de energía: • Hacer una evaluación precisa de la demanda de recursos de la carga de trabajo. La sobreestimación puede dar lugar a un ahorro de energía por debajo de los niveles ideales. La subestimación puede conducir a un rendimiento deficiente y a incurrir en una serie de violaciones de los recursos DRS a nivel de SLAs. • Evitar que los servidores se enciendan y apaguen con demasiada frecuencia, incluso cuando las cargas de trabajo en ejecución sean muy variables. • Tener una rápida capacidad de reacción ante un aumento repentino en las demandas de la carga de trabajo para que no baje el rendimiento cuando se encuentra en modo de ahorro de energía. • Realizar una selección de los hosts apropiados que deben encenderse o apagarse. Apagar un host importante que afecta a numerosas máquinas virtuales puede violar el rango de utilización de destino en uno o más hosts pequeños. • Llevar a cabo de forma inteligente una redistribución de las máquinas virtuales después de que los hosts se enciendan y apaguen por medio de un aprovechamiento sin fisuras del DRS. RECOMMENDACIONES PARA LAS MEJORES PRÁCTICAS Evaluación y selección efectiva de las soluciones de virtualización . • Desarrollar una estrategia y evaluación de virtualización de los servidores para seleccionar buenos candidatos para la virtualización. • Evaluar las necesidades que afectan al rendimiento de la CPU, a la memoria, a la intensidad de disco I/O, a los requisitos de red, a la configuración del sistema operativo. • Considerar la proporción de virtualización adecuada y la combinación de cargas de trabajo (01:06-1:20 dependiendo de las características de la carga de trabajo). • Revisar los productos de los distintos proveedores por lo que respecta a las características necesarias para sus propósitos específicos, considerar las políticas de las licencias, las características de administración de energía y el precio. Los diversos productos principales que hay en el mercado ofrecen diversas ventajas en función de las necesidades de las aplicaciones específicas. • Hacer cálculos del TCO y del ROI con el fin de determinar los beneficios de la reducción de gastos para el suministro de energía y la refrigeración. Los modelos proporcionados por los proveedores serán reajustados según las necesidades de cada organización específica. • Examinar las opciones de gestión de la energía que permitan la migración VM y el cierre temporal del hardware del servidor. • Considerar los requisitos modificados para el suministro de refrigeración y energía (la demanda reducida y el cambio dinámico de la energía y la refrigeración) y comprobar las opciones de un rediseño para la refrigeración. 24 2 Equipos servidores La forma básica de usar DPM es encender y apagar los hosts ESX basándonos en los patrones de utilización típicos durante un día de trabajo o durante una semana. Por ejemplo, algunos servicios como el correo electrónico, el fax, intranet, y las consultas en la base de datos se utilizan con mayor intensidad durante las típicas horas de oficina, de 9 a.m.-5 p.m. En otras ocasiones, los niveles de utilización pueden bajar considerablemente, dejando infrautilizadas a la mayoría de las máquinas. Su trabajo principal durante estas horas puede ser realizar copias de seguridad, archivar, atender las solicitudes en el extranjero, etc. En este caso, la consolidación de las máquinas virtuales y el cierre de los hosts que no sean necesarios reducen el consumo de energía. Se pueden utilizar los siguientes métodos para ajustar manualmente la actividad del DPM: • Aumentar el objetivo de la demanda- capacidadproporción: para ahorrar más energía aumentando el uso del host (consolidando más máquinas virtuales en pocos hosts) el valor del objetivo demanda-capacidad-proporción podría aumentar respecto a la configuración por defecto (Por ejemplo del 63% al 70%). • Uso de VMware DPM para obligar el encendido de todos los hosts antes de las horas de oficina y luego apagar selectivamente los hosts después del período de máxima carga de trabajo. Este sería un enfoque más proactivo que evitaría cualquier impacto en el rendimiento al esperar que VMware DPM encienda los hosts como respuesta a los picos repentinos que existen en la demanda de carga de trabajo. La utilización de los recursos de cada host ESX se calcula en base a la demanda / capacidad de cada uno de los recursos (CPU y memoria), donde la demanda es la suma total de los recursos que necesitan las máquinas virtuales en ejecución y la capacidad es la cantidad total de los recursos actualmente disponibles en el host. Así, la gestión de la energía de los hosts se ejecuta en función de la utilización de los recursos de memoria de la CPU y del host comparado con el rango de utilización definido. Con cada host que se ha evaluado y recomendado su apagado, DPM compara los costes, teniendo en cuenta una estimación de los riesgos asociados con una proyección conservadora de los beneficios en cuanto al ahorro de energía que se pueden obtener. BEFORE Constant loads>Stable cooling AFTER 2.4.4 La refrigeración y la infraestructura en los sistemas virtualizados La virtualización, aunque reduce significativamente la demanda general de energía, especialmente en sistemas más grandes, puede producir un aumento de la densidad de potencia del rack. Además, la gestión de la energía mediante la migración de máquinas virtuales conduce a una dinámica de cambio espacial de la potencia y de la densidad de calor, aumentando así la demanda de energía y de enfriamiento a nivel local. Es necesario emplear los conceptos adecuados de alimentación y refrigeración para satisfacer la demanda de los entornos virtualizados y para evitar la existencia de puntos calientes. Si la potencia total y la capacidad de refrigeración no se adaptan a la demanda de energía, el PUE se agravará después de la virtualización. La virtualización puede reducir la carga de enfriamiento en un centro de datos a niveles muy bajos, lo cual puede causar efectos negativos. Por tanto, es crucial contar con el tamaño adecuado de energía y de enfriamiento para la explotación de las posibilidades de ahorro de energía. También es esencial reducir las pérdidas fijas, teniendo en cuenta las siguientes medidas: • La reducción de la escala de potencia y capacidad de refrigeración para que coincida con la carga • Las bombas de inversor y los ventiladores VFD que son controlados por la demanda de refrigeración • El uso de equipos con mayor eficiencia • La arquitectura de enfriamiento que implica vías de aire más cortas (por ejemplo, en hilera) • La capacidad del sistema de gestión para adaptar la capacidad a la demanda • Los paneles de obturación para la mezcla de aire en el rack AFTER Migrating high-density loads>Unpredictable cooling Fig.2.10 Heat density before and after virtualization [5] 25 En un entorno convencional basado en una sala tradicional con piso elevado, la refrigeración se puede configurar de tal modo que enfríe de forma adecuada los puntos calientes, reordenando los azulejos del piso ventilados. Sin embargo, los cambios en los requisitos debido a la migración dinámica de servidores virtuales también requieren soluciones dinámicas de refrigeración. Una solución a este problema sería colocar las unidades de refrigeración dentro de las filas y equiparlas para que detecten y respondan a los cambios de temperatura. La colocación de las unidades de refrigeración cerca de los servidores permite que haya vías de aire cortas entre la refrigeración y la carga. La variación de la potencia dinámica en los entornos virtualizados es una razón importante para decantarse por la refrigeración en fila o en rack. RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS Gestión de la energía eficiente de los sistemas virtualizados: • Poner en marcha una política estricta para la implementación y administración de los servidores virtualizados. Evitar la proliferación de servidores sin control. • Utilizar las herramientas de migración de las máquinas virtuales para cerrar el hardware en los momentos de carga baja. Usar ajustes de energía automáticos para el arranque y desarrollar su propia configuración personalizada en una etapa posterior basándose en los patrones normales de funcionamiento. • Reducir la refrigeración según la demanda y, si es necesario, implementar equipos para lograr una refrigeración dinámica local. Atender a la demanda de cambios espaciales dinámicos. • Adaptar los procesos de la tecnología informática y los flujos de trabajo concernientes al despliegue de máquinas virtuales, a los procesos de recuperación / copia de seguridad de datos, a la administración de parches y los problemas de disponibilidad. 26 Resulta esencial disponer de información precisa sobre la demanda de energía y sobre la capacidad de refrigeración para responder a los cambios en los perfiles de carga a través del tiempo. La gestión de la capacidad proporciona instrumentación para la supervisión en tiempo real y el análisis de la capacidad de potencia, enfriamiento y espacio y permite el uso eficaz y eficiente en todo el centro de datos. De ese modo, se puede identificar cuáles son las zonas de capacidad disponible o peligrosamente baja. Los sistemas de la capacidad deben ser capaces de afrontar los siguientes problemas: • Un cambio en la densidad de la carga y en la ubicación: la virtualización puede crear puntos de acceso por ejemplo, mediante la migración de VM. • Cambios dinámicos en el sistema: el mantenimiento de la estabilidad del sistema puede llegar a ser un problema si hay muchas partes que están haciendo cambios sin una coordinación centralizada. • Interdependencias: la virtualización hace que las dependencias compartidas y los efectos secundarios en la relación entre la capacidad de energía, la refrigeración y el espacio sean más complejos. • Aprovisionamiento ajustado de energía y refrigeración: durante la virtualización, la carga de energía y la refrigeración baja y sube de nuevo cuando se crean nuevas máquinas virtuales. Esto puede se puede solucionar con el uso de sistemas escalables de energía y enfriamiento. 2 Equipos servidores Lecturas complementarias HP (2011): HP Power capping y HP Dynamic power capping para servidores ProLiant. Hewlett Packard Development company. SPEC (2011):Server Efficiency Rating Tool (SERT) TM Design Document. 3er borrador. Standard Performance Evaluation Cooperation Rasmussen, N (2010): Strategies for deploying blade servers in existing data centres. Libro blanco 125. APC Schneider Electric 80 PLUS (2011): fuentes de alimentación 80 PLUS. www.plugloadsolutions.com Schäppi B. y otros (2009) Energy and cost savings by energy efficient servers. IEE E-Server best practice cases. Manual 2009 IBM (2011) Server Management suite, Module Active Energy Manager www-03.ibm.com/systems/software/director/aem/ HP (2011) Server management suite «Systems Insight Manager» www.hp.com VMware DPM: Information Guide: VMware Distributed Power Management Concepts and Use. www.vmware.com VMware TCO:VMware ROI TCO Calculator, Visión general y análisis.roitco.vmware.com Referencias [1] EPA (2010): Energy Star ENERGY STAR ® Requisitos del programa para servidores informáticos (versión1.1) [2] SPEC (2010): SPEC power and performance. Benchmark methodology 2.0. Standard Performance Evaluation Cooperation [3] 80 PLUS (2011): fuentes de alimentación 80 PLUS. www.plugloadsolutions.com [4] Schäppi B. y otros (2009): Energy and cost savings by energy efficient servers. IEE E-Server best practice cases. Manual 2009 [5] BITKOM (2010): Bitkom/Beschaffungsamt des Bundesministeriums des Innern, Leitfaden Produktneutrale Leistungsbeschreibung x86-Server, 2010 [5] Comtec Power: Overcoming the Challenges of Server Virtualization. www.comtec.com [6] VMware TCO: VMware ROI TCO Calculator, Visión general y análisis.roitco.vmware.com 27 3 Equipos para el almacenamiento de datos Marcos Dias de Asuncao, Laurent Lefevre, INRIA La información está en la base de cualquier negocio, pero el almacenamiento y la disposición de toda la información necesaria para dirigir las empresas de hoy se ha convertido en un verdadero desafío. Como se espera que las necesidades de almacenamiento de las organizaciones crezca en una proporción de 44 entre 2010 y 2020 [1], las estrategias para alcanzar un alto rendimiento nunca ha sido tan populares. La constante caída en el precio por MB de almacenamiento han conducido a un escenario donde es más sencillo y menos costoso añadir capacidad extra que buscar alternativas para evitar duplicaciones de datos y otras ineficiencias. Sin embargo, como el gasto que supone suministrar energía y enfriar los recursos de almacenamiento se 3.1 Dispositivos de almacenamiento 3.1.1 Sistemas basados en cinta convierte en un problema, la ineficacia es algo que ya no se acepta. Los estudios demuestran que las grandes corporaciones se enfrentan con la difícil tarea de proporcionar suficiente capacidad de energía y refrigeración, mientras que las medianas empresas se enfrentan al desafío de encontrar espacio suficiente para sus sistemas de almacenamiento [2]. Como el almacenamiento de datos absorbe una gran parte de la energía consumida por los centros de datos, es crucial crear sistemas de almacenamiento más energéticamente eficientes y elegir las soluciones adecuadas cuando se implementa la infraestructura de almacenamiento. Este capítulo analiza unas cuantas tecnologías que apoyan la eficiencia energética de las soluciones de almacenamiento de datos. Además, proporciona recomendaciones sobre las mejores prácticas que, además de utilizar las soluciones tratadas, pueden mejorar la eficiencia energética de la infraestructura de almacenamiento en las empresas y los centros de datos. Algunas soluciones de almacenamiento, tales como los sistemas de discos, incluyen unidades que proporcionan capacidad de almacenamiento bruto y componentes adicionales que pueden interactuar con el almacenamiento bruto y mejorar la fiabilidad general. Nos referimos a los componentes del medio individuales que forman el almacenamiento bruto, como los dispositivos (por ejemplo, cargadores de cinta, unidades de disco duro y unidades de estado sólido). Las soluciones compuestas de almacenamiento, tales como los productos conectados a la red, se conocen como elementos de almacenamiento. Cuando hablamos de programas para mejorar la eficiencia energética de las soluciones de almacenamiento, estos son principalmente los dos niveles en los que se aplican la mayoría de las técnicas. Por tanto, en primer lugar presentamos los conceptos de eficiencia energética de los dispositivos individuales y, a continuación, analizamos cómo se utilizan y se combinan estas técnicas con el fin de mejorar la eficiencia energética de los elementos. 28 Las cintas muchas veces se califican como uno de los tipos de medios de almacenamiento de datos más rentables a largo plazo. Sin embargo, los análisis [3] [4] indican que: • En ciertos escenarios de almacenamiento a largo plazo, tales como los centros de datos de tamaño medio donde se archivan y se realizan copias de seguridad de datos, las unidades de disco duro puede resultar, por término medio, 23 veces más caras que las soluciones de cinta y suponer un coste de energía y refrigeración 290 veces mayor que las cintas. • La consolidación de datos empleando sistemas basados en cinta de archivos puede reducir considerablemente los costes operacionales de los centros de almacenamiento. Las bibliotecas de cintas que poseen gran capacidad de almacenamiento pueden sustituir a las islas de datos a través de la consolidación de las operaciones de copia de seguridad, reduciendo así los gastos de infraestructura y, posiblemente, aumentando su eficiencia energética. Las cintas, que tienen un ciclo de vida de archivo de 30 años y gran capacidad de almacenamiento, son una solución atractiva para los centros de datos que requieren una copia de seguridad y de archivo a largo plazo. Por tanto, para un entorno que cuente con múltiples niveles de almacenamiento, los sistemas basados en cinta siguen siendo las soluciones más energéticamente eficientes cuando necesitamos archivar a largo plazo y tenemos una tasa reducida de recuperación de los archivos comprimidos. Existen soluciones de biblioteca de discos que tratan de minimizar el impacto del consumo de energía de las unidades de disco mediante el uso de técnicas tales como la ralentización de discos. Estas tecnologías las analizaremos más adelante. 3.1.2 Unidades de disco duro (HDDs) Las HDDs ha sido el medio preferido para el almacenamiento de datos no volátil, ya que ofrece una capacidad de escritura y un tiempo de recuperación rápidos. Los componentes móviles, tales como los motores y los brazos del actuador absorben la mayor parte de la energía que consumen los discos duros (véase figura 3.1). Para mejorar la capacidad de volumen de datos de los discos duros, los fabricantes han aumentado la velocidad a la que giran los platos, con el consiguiente incremento en el consumo de energía. Los platos que giran a una velocidad de 15K rpm son los más comunes en las HDDs actuales de gran capacidad. Se emplean diversas técnicas para mejorar la eficiencia energética de las HDDs, incluyendo el almacenamiento de datos en ciertas regiones de los platos para reducir el esfuerzo mecánico al recuperar los datos, controlando la velocidad de rotación de los platos, y reduciendo el consumo de energía durante períodos de inactividad. Existe una técnica muy común, denominada ralentización del disco, que consiste en hacer girar los discos a menor velocidad y colocarlos en una zona de seguridad después de un período de inactividad configurado por defecto. Por otra parte, en vez de detener los discos por completo, algunas unidades hacen girar los discos a una velocidad variable en función de la lectura / escritura de carga. La tecnología PowerChoice de Seagate [5] es un ejemplo de ello, donde el número de componentes desactivados aumenta a medida que la unidad llega a ciertos umbrales de inactividad. Los estados de inactividad intermedios ofrecen tiempos de recuperación que generalmente son más cortos que la recuperación de un disco que se encuentra en estado de ralentización. La Tabla 3.1 muestra que el consumo en modo de espera es aproximadamente un 50% menor que el consumo en estado de inactividad. Estas estrategias pueden permitir un ahorro sustancial en los sistemas RAID y en las matrices masivas de discos inactivos (MAIDs). Como la ralentización de los discos puede mermar el rendimiento, los fabricantes exploran otras Algunas HDDs implementan múltiples estados de inactividad y espera. Luego, se llevan a cabo diversas acciones cuando aumenta el período de inactividad (por ejemplo se desactiva inicialmente el servosistema, luego se aparcan los cabezales y, más tarde, se ralentizan los discos). Tab.3.1 Power Choice technology profile for a Constellation 2.5-Inch drive State Power(W) PowerSavings*(%) RecoveryTime(sec.) DefaultTimertoEnter Idle 2.82 0 0 n/a Idle_A 2.82 0 0 1sec. Idle_B 2.18 23 0.5 10min. Idle_C 1.82 35 1 30min. Standby_Z 1.29 54 8 60min. *Powersavingsestimatesandrecoverytimesarepreliminary;figuresbasedonSeagateConstellationSAS2.5-inchharddrive. 29 técnicas tales como tamaños de caché más grandes y comandos de lectura / escritura en cola. Además, para beneficiarse de técnicas tales como la ralentización y velocidad de giro variable, se han propuesto proyectos en el sistema operativo y a nivel de aplicación para aumentar la duración de los períodos de inactividad del disco. Algunos de estos métodos consisten en reprogramar las solicitudes de acceso a los datos mediante la modificación del código de la aplicación o del diseño de los datos. También existen técnicas menos invasivas que proporcionan personalización del compilador que reprograman las solicitudes de acceso a los datos en la compilación sin necesidad de modificar el código fuente de la aplicación. Aunque estas técnicas pueden reducir el consumo de energía, también se ha argumentado que los ciclos frecuentes de encendido-apagado pueden reducir la vida útil de los discos duros. Como los motores y los actuadores son los responsables de la mayor parte de la energía consumida por las unidades de disco duro, una manera de conseguir que las unidades sean más eficientes desde el punto de vista energético es el uso de Factores de Forma Pequeño (SFFs). Como los discos duros de 2,5 pulgadas son aproximadamente un cuarto del tamaño de las grandes unidades de disco duro (3,5 pulgadas, ver Fig. 3.2.), se puede rediseñar un chasis diseñado con un volumen suficiente para 16 unidades de 3,5 pulgadas con el fin de albergar hasta a 48 unidades de disco duro de 2,5 pulgadas sin aumentar el volumen global. Los discos duros de alto rendimiento de 2,5 pulgadas ofrecen una reducción en el consumo de energía, ya que los motores y los actuadores son más pequeños y, por tanto, también emiten menos calor. Fig.3.2 Picture of a 2.5-inch HDD atop a 3.5-inch HDD (from wikipedia) Los fabricantes afirman que, en el caso de las unidades de disco duro Tier-1 de 2,5 pulgadas, la IOPS / W puede ser hasta 2,5 veces mejor que si la comparamos con las unidades Tier-1 de 3,5 pulgadas [6]. Además, se necesita menos potencia para la refrigeración, debido a la menor producción de calor y la reducción de las necesidades de espacio. La Tabla 3.2 muestra la potencia aproximada consumida por los dos modelos de unidades de disco duro de alto rendimiento fabricadas por Seagate. Es evidente que el factor de forma pequeño consume sustancialmente menos energía. Cuando se activa, consume aproximadamente un 46% menos de energía que su homólogo de 3,5 pulgadas, mientras que esta diferencia puede llegar a 53% cuando el disco está inactivo. Teniendo en cuenta el gasto en energía anual de sólo 24 unidades, basándonos en el consumo de energía activa y a un precio de 0,11 € por kWh, la diferencia entre unidades de 3,5 pulgadas y discos duros de 2,5 pulgadas sería de unos 140 € al año. En los centros de datos que poseen sistemas de almacenamiento con cientos o miles de discos, el ahorro puede ascender a miles o decenas de miles de euros. Tab 3.2 Power consumption of two of Seagate’s high performance HDDS Specifications FormFactor Cheetah15K.7300GB*Savvio15K.2146GB* 3.5“ 2.5“ – Capacity 300GB 146GB – Interface SAS6Gb/s SAS6Gb/s – SpindleSpeed(RPM) 15K 15K – PowerIdle(W) 8.74 4.1 53%less PowerActive(W) 12.92 6.95 46.2%less *Dataobtainedfromthespecificationsheetsavailableatthemanufacturer’swebsite. 30 Difference 3 Equipos para el almacenamiento de datos 3.1.3 Las unidades de estado sólido (SSDs) Las SSD están equipadas, entre otros componentes, con paquetes de memoria flash y un controlador responsable de realizar diversas tareas. Las SSD se basan en una memoria flash NAND que emplean uno de los dos tipos de células de memoria en función del número de bits que puede almacenar una célula. El flash de células de nivel simple (SLC) almacena un bit por célula y las memorias con célula de nivel múltiple (MLC) a menudo pueden almacenar 2 ó 4 bits por célula. La mayoría de las SSD asequibles se basan en MLC, mientras que los dispositivos de gama alta suelen estar basados en SLC. Tab.3.3 Comparison of Seagate‘s Pulsar enterpriseSSDs and Savvio 15K HDDs Las SSDs son más eficientes y fiables, debido a la ausencia de piezas mecánicas, tales como motores y actuadores. Además, generan menos calor y pueden ser empaquetadas en pequeños recintos, lo que disminuye el espacio y las necesidades de refrigeración. La Tabla 3.3 presenta una comparación simple entre una SSD Pulsar de la compañía Seagate y un disco duro SAS 15k rpm de alto rendimiento. La SSD consume aproximadamente un 87% menos que el disco duro de 15K RPM en modo activo, y alrededor de un 82% menos en modo inactivo. En la práctica, sin embargo, el ahorro de energía dependerá de cómo las soluciones de almacenamiento empleen el SSD y los discos duros y de las características de la carga de trabajo que se apliquen a los equipos de almacenamiento. 3.1.4 Unidades de disco duro híbrido (HHDs) Specificati ons Savvio15K.273GB* PulsarSSD50GB* Difference Las HHD están equipadas con grandes buffer hechos con memorias flash no volátiles que tienen como objetivo minimizar la escritura o la lectura de datos en los discos. Se han utilizado varios algoritmos para el uso de la memoria intermedia [7]. Al proporcionar un buffer de gran tamaño, los discos pueden permanecer en reposo durante períodos más prolongados. Esta memoria flash adicional puede reducir la energía consumida por las soluciones de almacenamiento mediante la reducción de la potencia que consumen los motores y los brazos mecánicos. Estas unidades pueden presentar potencialmente requisitos más bajos de energía en comparación con los discos duros, pero las ofertas de almacenamiento en la empresa son limitadas. RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS Tenga en cuenta las ventajas que ofrecen las diversas tecnologías de almacenamiento en la contratación y en diseño del sistema • Las cintas tienen la mejor eficiencia energética para el almacenamiento a largo plazo. • Las unidades de disco duro actuales tienen discos que giran a diferentes velocidades, con el consiguiente ahorro de energía a velocidades más bajas. • Los estados múltiples inactivos implementados por los discos duros permiten un considerable ahorro de energía cuando se emplean en soluciones de almacenamiento compuestos, tales como matrices de discos y matrices masivas de discos inactivos. • Aunque son más caras, las SSD resultan mucho más eficientes que los discos duros. • Plantéese usar las SSDs como una capa de almacenamiento de alto rendimiento 31 3.2 Elementos de almacenamiento Esta sección describe una serie de técnicas a nivel de dispositivo que se pueden utilizar y combinar para mejorar la eficiencia energética de las soluciones de almacenamiento compuestas, tales como sistemas de disco, almacenamiento de conexión directa y almacenamiento en red (es decir, elementos de almacenamiento). También se analizan algunos conceptos específicos del nivel de elementos de almacenamiento. 3.2.1 Unidades de gran capacidad y factores de forma pequeños En el caso de las aplicaciones que no requieren almacenamiento de alto rendimiento, por lo general resulta más eficiente desde el punto de vista energético utilizar las unidades con mayor capacidad. Las típicas unidades de disco SATA consumen hasta un 50% menos energía por terabyte de almacenamiento que los discos de Canal de Fibra [8]. Tal y como dijimos anteriormente, las carcasas SSF pueden ahorrar espacio en los centros de datos y reducir la huella energética mediante el uso de HDDs de 2,5 pulgadas más energéticamente eficientes. A modo de ejemplo, utilizando la referencia estándar de la industria del Consejo de Desempeño del Almacenamiento (SPC) de SPC1C, Dell comparó dos sistemas de discos, uno con discos duros de 3,5 pulgadas y otro con discos duros de 2,5 pulgadas [9]. Los resultados mostraron que, además de que ofrece un rendimiento 93% superior a la matriz con unidades de 3,5 pulgadas, el sistema que estaba equipado con unidades de 2,5 pulgadas consumía un 40% menos energía. 3.2.2 Matrices Masivas de Discos Inactivos (MAIDs) MAID es una tecnología que utiliza una combinación de memoria caché y de discos inactivos para afrontar las necesidades de servicio, haciendo girar los discos solo cuando sea necesario. La detención del giro en las unidades de disco a las que se accede con menos frecuencia puede reducir el consumo de energía (ver Figura 3.3). Fujitsu, por ejemplo, permite a los clientes especificar horarios y fijar períodos en los que las unidades deben ralentizar su giro (o apagarse) según la política de carga de trabajo o de copia de seguridad. La cantidad de energía que pueden ahorrar las prestaciones del MAID depende de la aplicación que utilice los discos y de la frecuencia con la que se accede a los discos. Los criterios que se utilizan para decidir cuándo las unidades deben ralentizar su giro (o ponerse en modo de espera) o deben aumentarlo, tienen un impacto en el ahorro de energía, así como en el rendimiento. Cuando se conciben inicialmente, las técnicas de MAID permiten que las unidades de disco duro se enciendan o se apaguen, lo que podría incurrir en considerables reducciones del rendimiento de aplicación si se requieren datos de una unidad que ha ralentizado su giro . Sin embargo, las técnicas de MAID de segunda generación permitirán realizar una Gestión Inteligente de la Energía (IPM), con diferentes modos de ahorro de energía y rendimiento. MAID 2.0, tal y como se llama a menudo, presenta múltiples modos de ahorro de energía que alinean el consumo de energía con las diferentes necesidades de QoS. El usuario puede configurar el equilibrio entre los tiempos de respuesta y el ahorro de energía. Los modos múltiples de ahorro de energía, por ejemplo, utilizan los diversos estados de disco duro inactivo descritos anteriormente. Otras técnicas de conservación de energía para los sistemas de disco son la Concentración de Datos Populares (PDC) [10] y otros mecanismos de asignación de archivos [11]. El fundamento de este enfoque es llevar a cabo una consolidación mediante el almacenamiento o la migración de datos de acceso frecuente a un subconjunto de los discos. Sesgando la carga hacia menos cantidad de discos, los demás pueden pasar a modo de bajo consumo de energía. 3.2.3 Niveles RAID eficientes Los distintos niveles RAID proporcionan diversas eficiencias de almacenamiento. Cuando hablamos de la protección de datos, algunos niveles RAID, como RAID 6, presentan una cantidad significativa de procesamiento de cargas. Sin embargo, las implementaciones de RAID 6 de alto rendimiento pueden proporcionar el mismo rendimiento que RAID 5 y hasta 48% de reducción en los requisitos de capacidad de disco en comparación con RAID 10. 32 3 Equipos para el almacenamiento de datos WRITE Fig.3.4 Thin provisioning (from Fujitsu ETERNUS solutions) 3.2.4 Almacenamiento horizontal en niveles, virtualización del almacenamiento y thin provisioning Para hacer un uso eficiente de la infraestructura de almacenamiento, es importante diseñar y poner en ejecución las políticas de gestión de datos que utilizan los diferentes niveles de almacenamiento según la frecuencia con la que se accede a los datos, si se vuelven a usar y por cuánto tiempo tienen que mantenerse (por motivos empresariales o reguladores). Los fabricantes de soluciones de almacenamiento de datos han propuesto algunos sistemas de software que permiten la organización en niveles automáticos y homogéneos, trasladando los datos a los niveles adecuados sobre la base de una supervisión continua del rendimiento. Algunos ejemplos de ello son el Full Automated Storage Tiering (FAST) de EMC2, el System Storarage Easy Tier de IBM, el Data Progression de Compellent y el Data Migration facility (DMF) de SGI. Mediante la combinación de la virtualización de servidores con la virtualización de almacenamiento, es posible crear grupos de discos y volúmenes virtuales cuya capacidad puede aumentar la demanda según las necesidades de las aplicaciones. La eficiencia de almacenamiento típica de los sistemas de almacenamiento tradicionales es de entre un 3040%. Según algunos informes [12], la virtualización del almacenamiento puede aumentar la eficiencia hasta un 70% o puede reducir más los requisitos de almacenamiento y aumentar el ahorro de energía. La virtualización de almacenamiento en niveles, también conocida como Gestión de Almacenamiento Jerárquico (HSM), permite que los datos se migren automáticamente entre los diferentes tipos de almacenamiento sin que el usuario sea consciente de ello. Los sistemas de software de la organización en nivel automatizado se utilizan para llevar a cabo tales actividades de migración de datos. Este método puede reducir el coste y el consumo de energía, ya que permite que se guarden sólo los datos a los que se accede con frecuencia en un almacenamiento de alto rendimiento, mientras que los datos a los que se accede con menor frecuencia se pueden colocar en equipos menos costosos y más energéticamente eficientes que utilizan técnicas como el MAID y la deduplicación de datos. El thin provisioning, una tecnología que generalmente complementa a la virtualización del almacenamiento, tiene como objetivo maximizar la utilización del almacenamiento y eliminar la capacidad preasignada, pero sin utilizar. Con el thin provisioning, se suministra un espacio de almacenamiento cuando se escriben datos. La capacidad de reserva no está defina por la capacidad máxima requerida por las aplicaciones sino que, por lo general, se configura en cero. Los volúmenes se expanden en línea y la capacidad se añade en el momento para adaptarse a los cambios sin que se produzca una interrupción (véase la figura 3.4). El thin provisioning puede dar lugar a un ahorro de energía, ya que reduce la necesidad de contar con un abastecimiento adicional almacenamiento de las aplicaciones. 33 3.2.5 La consolidación en las capas de almacenamiento y fabric layers La consolidación del almacenamiento no es un tema reciente, ya que las Redes de Área de Almacenamiento (SAN) han proporcionado cierto nivel de consolidación del almacenamiento y han mejorado la eficiencia durante varios años mediante el intercambio de las matrices de discos a través de varios servidores en una red privada local, evitando así que se produzcan islas de los datos. El movimiento del almacenamiento de conexión directa a sistemas de almacenamiento en red ofrece una serie de beneficios, lo cual puede aumentar la eficiencia energética. La consolidación de los equipos de almacenamiento de datos puede dar lugar a ahorros sustanciales, tanto en los requisitos de espacio como en el consumo de energía. Algunos fabricantes sostienen que, al proporcionar múltiples protocolos de equipos de red, la estructura de red se puede consolidar en menos recursos, reduciendo así el espacio, el consumo de energía y las necesidades de refrigeración. 34 3.2.6 La deduplicación de datos Las infraestructuras de almacenamiento suelen almacenar múltiples copias de los mismos datos. En los centros de almacenamiento se emplean varios niveles de la duplicación de datos, ya que algunos son necesarios para mejorar la fiabilidad y el rendimiento de los datos. Sin embargo, también hay "residuos" que se pueden minimizar, reciclando así la capacidad de almacenamiento. Las actuales soluciones SAN utilizan técnicas de deduplicación de datos (De-duplicar) con el objetivo de reducir los duplicados de los mismos. Estas técnicas funcionan principalmente a nivel de bloque de datos y de archivo. Como las soluciones de deduplicación de datos permiten a las organizaciones reciclar la capacidad de almacenamiento y reducir los requisitos de los medios, también se consideran un método común para reducir el consumo de energía. El ahorro de almacenamiento real alcanzado por las soluciones de deduplicación de datos varía según su granularidad. Las soluciones que realizan hashing y deduplicación en el nivel de archivos tienden a ser menos eficientes. Sin embargo, supondrán una carga más pequeña. Con las técnicas a nivel de bloque, la eficiencia es, por lo general, inversamente proporcional al tamaño del bloque. Además del nivel de la deduplicación de datos, las técnicas de deduplicación también difieren dependiendo del momento en el que se realiza la deduplicación de datos: antes o después de que los datos se almacenen en el disco. Ambas técnicas ofrecen ventajas e inconvenientes. Aunque su objetivo es la reducción de los requisitos de almacenamiento, la deduplicación después de almacenar los datos en el disco necesita un almacenamiento en caché que se utiliza para eliminar los duplicados. Sin embargo, en el caso de las aplicaciones de copia de seguridad, la deduplicación después de haber almacenado los datos por lo general da lugar a unas ventanas de backup más cortas y a menor degradación del rendimiento. Por otra parte, la deduplicación de datos técnicos difiere dependiendo de dónde se lleve a cabo la deduplicación: en el origen (cliente) lado, en el objetivo (servidor), o por medio de un dispositivo de deduplicación conectado a un servidor. Aunque la deduplicación de datos es una tecnología prometedora para reducir los residuos y minimizar el consumo de energía, no todas las aplicaciones pueden beneficiarse de ella. Por ejemplo, la deduplicación de datos antes de que los datos se almacenen en el disco podría conducir a una grave degradación del rendimiento, lo cual sería inaceptable en las aplicaciones de base de datos. Las aplicaciones y los servicios que mantienen grandes volúmenes de datos durante largos períodos de tiempo se benefician más de la deduplicación de datos. Cuantos más datos posea una organización y cuanto más tiempo necesite para mantenerlos, mejores resultados producirán las tecnologías de deduplicación de datos. En general, la deduplicación de datos funciona mejor en las copias de seguridad, en la replicación y en la retención de datos. 3 Equipos para el almacenamiento de datos Lecturas complementarias Referencias McClure T. (2009): Driving Storage Efficiency in SAN Environments, Enterprise Strategy Group– Libro Blanco, noviembre de 2009. Craig B. y McCaffrey T. (2009): Optimizing Nearline Storage in a 2.5-inch Environment Using Seagate Constellation Drives, Dell Power Solutions, junio de 2009. SNIA (2010): Storage Power Efficiency Measurement Specification: Working Draft Version 0.2.10, SNIA Green Storage Initiative, agosto de 2010. Storage Tiering with EMC Celerra FAST, EMC2 [1] IDC (2010): The Digital Universe Decade– Are you ready? IDC, mayo de 2010. [2] McClure T. (2009): Driving Storage Efficiency in SAN Environments, Enterprise Strategy Group–Libro Blanco,noviembre de 2009. [3] Reine D. y Kahn M. (2008): Disk and Tape Square Off Again–Tape Remains King of the Hill with LTO-4.ClipperNotes, febrero de 2008. [4] ORACLE (2010): Consolidate Storage Infrastructure and Create a Greener Data centre. Libro Blanco de Oracle, abril de 2010. [5] Seagate (2011): Power Choice Technology Provides Unprecedented Hard Drive Power Savings and Flexibility-Technology Paper, Seagate, 2011. [6] Seagate (2010): Seagate Savvio 15K.2 Hoja de datos, Seagate, 2010. [7] Bisson T., Brandt S., Long D. (2006): NVCache: Increasing the Effectiveness of Disk th Spin-Down Algorithms with Caching,14 IEE E International Symposiumon Modeling, Analysis, and Simulation, págs. 422-432, 2006. [8] Freeman L. (2009): Reducing Data Centre Power Consumption Through Efficient Storage. Libro Blanco. Net App, julio de 2009. [9] Craig B. y McCaffrey T. (2009): Optimizing Nearline Storage in a 2.5-inch Environment Using Seagate Constellation Drives, Dell Power Solutions, junio de 2009. [10] Pinheiro E. y Bianchini R. (2004): Energy Conservation Techniques for Disk Array- Based th Servers. 18 Annual International Conference on Supercomputing (ICS2004), págs. 68-78. Malo, Francia, 2004. [11] Otoo E.D., Rotem D. y Tsao S.C. (2009): Analysis of Trade-Off between Power Saving and Response Time in Disk Storage Systems, IEE E International Symposium on Parallel Distributed Processing (IPDPS 2009), págs.1-8, mayo de 2009. [12] Blade Network (2009): Storage Consolidation for Data Centre Efficiency, BLADE Network Technologies Libro Blanco, junio de 2009. www.snia.org/sites/default/files/Storage_Power_Efficiency _Measurement_Spec_v0.2.10_DRAFT.pdf Clark T. y Y oder A. (2008): Best Practices for Energy Efficient Storage Operations Version1.0, SNIA Green Storage Initiative, octubre de 2008. Freeman L. (2009): Reducing Data Centre Power Consumption Through Efficient Storage. Libro Blanco. Net App, julio de 2009. 35 4 Equipos de redes Alexander Schlösser, TU Berlín, Lutz Stobbe, Fraunhofer IZM Según la información que se maneja en la actualidad, el consumo de energía destinada a conmutadores, routers y otros equipos de red supone aproximadamente del 8% al 12% del consumo energético total de los centros de datos. Como este porcentaje es bastante bajo respecto a la demanda total de energía, los equipos de redes no han sido objeto de medidas de mejora. Sin embargo, esta percepción y esta situación están cambiando, especialmente en los centros de datos medianos y grandes. Existen algunas razones que explican por qué el consumo de energía de los equipos de redes y los efectos energéticos de la arquitectura de redes que se han implementado se están teniendo seriamente en cuenta en el diseño y en el funcionamiento de los centros de datos. Como consecuencia del aumento de los requisitos que se refieren a la calidad del servicio (QoS), junto a un retraso crítico de las aplicaciones, cada vez es mayor la importancia funcional de los equipos de red y de las redes en los centros de datos. El consumo de energía varía en función de la tecnología seleccionada y de la arquitectura, incluyendo el cableado, la fuente de alimentación y la refrigeración. 4.1 La estructura técnica y operacional 4.1.1 El modelo funcional La Figura 4.1 ofrece un modelo simplificado de las características funcionales relacionadas con la energía que afectan a las redes y a los equipos de redes en los centros de datos. El modelo funcional ayuda a visualizar los detalles solapados de la infraestructura de energía y refrigeración, así como la interrelación de la red con los principales equipos de tecnología informática, como servidores y sistemas de almacenamiento. Este modelo también describe los principales elementos que son necesarios para la mejora a nivel de red. Esto incluye la arquitectura de red seleccionada y la topología actual, la infraestructura física, los componentes de hardware y cable, así como la configuración del software y la capacidad de virtualización. La eficiencia energética de la infraestructura de red y de los equipos de redes también está influida por las aplicaciones, los acuerdos a nivel de servicio, el ancho de banda y los requisitos de latencia del rendimiento que han sido definidos por el operador del centro de datos. Estos aspectos que están relacionados con el rendimiento deben tenerse en cuenta durante el proceso de planificación con el fin de mejorar la eficiencia energética. Server Room/Data Center Architecture &T opology PowerSupply & UPS Virtualization & Configuration Cooling & AirFlow Components & Cabling Monitoring & Control Network Fig.4.1: Data centre networks functional model 36 Equipment Infrastructure 4.1.2 Los atributos de la red La mejora de la eficiencia energética con respecto a la infraestructura de red en los centros de datos requiere un enfoque estructurado. La planificación debe incorporar una perspectiva estratégica o a largo plazo, debido al hecho de que la infraestructura de redes suele tener una duración superior. Se asume que la infraestructura básica de la red se utiliza más de 8 años. Los cambios en la arquitectura básica de la red y en la topología actual, incluyendo equipos, etc., supone una notable inversión y acarrea unos factores de riesgo considerables. Sin embargo, la mejora de la red no sólo aumenta el rendimiento del centro de datos sino que, en muchos casos, también la eficiencia energética. La planificación para lograr una mejora comienza por la realización de un análisis estratégico. El operador del centro de datos tiene que definir los atributos de la red y los requisitos de rendimiento. Esta tarea debe incluir un análisis de mercado. El mundo de la tecnología informática actualmente (2011) está experimentando un enorme cambio hacia una producción centralizada de las aplicaciones, dando lugar a nuevos volúmenes y patrones de tráfico. En otras palabras, las aplicaciones no se producen desde el lado del usuario final, con considerables cálculos de potencia y paquetes de software. Mediante la utilización de Software como Servicio (SaaS) y de computación en nube, las aplicaciones y el tráfico se producen en los centros de datos y en las nubes de centro de datos. Una condición necesaria para que exista esta tendencia es la conectividad de banda ancha y la baja latencia. Esta tendencia general no sólo conduce a un incremento del tráfico de datos entre el cliente y servidor, sino también un aumento en el flujo de datos de servidor a servidor y entre el almacenamiento y el servidor. La compañía Enterasys [1] señala a este respecto que la arquitectura de red y la configuración van a cambiar con el fin de apoyar el aumento de tráfico de servidor a servidor y del almacenamiento con el servidor. Con el fin de aumentar el rendimiento (la productividad de la tecnología informática), la tendencia técnica se dirige hacia la creación de redes agregadas (de abajo hacia arriba) y de redes virtuales (de arriba hacia abajo). La arquitectura de red estará formada por menos niveles mediante la fusión del acceso y la agregación, así como de la red de agregación y del núcleo, hasta cierto punto (Véase también la Figura 4.3). Esta tendencia tiene la posibilidad de reducir el consumo de energía gracias a la unificación de la red. Sin embargo, todo es una cuestión de equilibrio. Hay poca información y pocos datos disponibles, y no existe una única solución visible en el mercado. La virtualización también se generalizará incorporando equipos de red y redes de área local (VLAN). La virtualización ofrece la ventaja de consolidar el equipo físico y, por tanto, también la posibilidad de disfrutar de una mayor eficiencia energética. Según Enterasy [1], los objetivos de diseño común de las redes de centros de datos incluyen: • Seguridad (cada vez más importante e influye en la carga) • Alta disponibilidad y redundancia (calidad del servicio) • Capacidad de gestión y transparencia (este aspecto se apoya en las soluciones de virtualización) • Optimización de los gastos (el objetivo es siempre reducir el gasto de capital y el gasto de funcionamiento) 4.1.3 El equilibrio entre el rendimiento de la red y el consumo de energía El ancho de banda, la alta velocidad, la baja latencia y el tráfico sin pérdidas son criterios importantes en el rendimiento de la red. La satisfacción del cliente o lo que se denomina Calidad de Servicio (QoS) es un requisito de desempeño adicional. La QoS se define en base a los Acuerdos de Nivel de Servicio (SLA), que contiene una serie de características como el rendimiento mínimo, el tiempo de respuesta máxima o el tiempo de latencia. Contar con una arquitectura de red pertinente, convergida e inteligente que sea capaz de gestionar el tráfico de forma dinámica a los SLAs acordados no sólo es un elemento importante para la competitividad futura, sino que también podría sentar la base para establecer una estrategia sistemática de la eficiencia energética. Sin embargo, la implementación de la QoS puede aumentar notablemente el tráfico de red y el consumo total de energía de los respectivos centros de datos. La tecnología de redes individuales y los respectivos equipos, • Ancho de banda y baja latencia (selección de la tecnología de red) • Escalabilidad y agilidad (arquitectura de red) • Flexibilidad para apoyar diversos servicios (esta función se ocupa de la consolidación) RECOMENDACIONES PARA EL DISEÑO DE REDES Debido al hecho de que existe una gran variedad de productos y opciones de red disponibles en el mercado, se recomienda a los operadores del centro de datos o a los administradores de la tecnología informática que elaboren una lista de prioridades relacionadas con los atributos de la red, tales como: • red de servicios, • requisitos de latencia, • calidad del servicio, • soporte y la virtualización • rendimiento de otros aspectos de interoperabilidad. El mejor enfoque es una optimización del sistema. Eso refleja la interacción de la infraestructura y el rendimiento de la red con los demás equipos de tecnología informática y la infraestructura del soporte. 37 ofrecen ventajas y desventajas a este respecto. Como tendencia general, se ha observado que la red Ethernet de 10 Gigabites (10 GbE) se está convirtiendo en la tecnología elegida en los centros de datos. Ethernet no sólo vincula servidores (LAN), sino que cada vez se aplica más en redes de almacenamiento (SAN). Contar con redes de baja latencia y sin pérdidas son, sin embargo, los requisitos básicos para el tráfico de almacenamiento. Según las 10 GbE [2] actuales, los conmutadores producen entre 400 y 700ns de latencia. Para el año 2014, se prevé que los conmutadores de 100 GbE reduzcan la latencia a cerca de 100 ns. Esto demuestra que, con el aumento del ancho de banda, la latencia mejora. Desde el punto de vista del consumo de energía, es necesario equilibrar la mejora de latencia (la tecnología de red) con el posible consumo de energía máximo del ancho de banda (componente). La selección de los componentes y la consolidación del I/O son aspectos que deben abordarse a este respecto. Del mismo modo, es necesario investigar la creación de redes sin pérdidas (disponibilidad) frente al rendimiento del ancho de banda y a la eficiencia energética subsiguiente. Por ejemplo, la creación de redes sin pérdidas por lo general implica unos protocolos más complejos (gastos generales) y una latencia adicional en relación con el poder de procesamiento, así como una menor eficiencia de ancho de banda. Sin embargo, contar con una red sin pérdidas 38 es una condición necesaria para las redes de las áreas de almacenamiento. En el pasado, (con pérdidas) Ethernet fue el obstáculo para su aplicación en la red de área de almacenamiento. El Canal de Fibra (FC) e Infiniband (IB) fueron las tecnologías de red más comunes. Sin embargo, hoy en día existen múltiples opciones de almacenamiento en red basadas en Ethernet, tales como Converged Enhanced Ethernet (CEE), Canal de Fibra a través de Ethernet (FCoE), Interfaz Estándar de Equipos Pequeños de Internet (iSCSI) a través de Ethernet, ATA a través de Ethernet (AoE) y Almacenamiento conectado a red (NAS). Estas opciones ayudan a unificar las redes (y evita la necesidad de emplear adaptadores adicionales), aunque crean una sobrecarga adicional que se traduce en una menor eficiencia de ancho de banda. Actualmente se desconocen las compensaciones de la eficiencia energética (si existen). En conclusión, el operador debe tener en cuenta el impacto en la energía que implica aumentar el rendimiento, la escalabilidad y la adaptabilidad de las nuevas soluciones de red consolidadas. Es probable que las nuevas soluciones den como fruto un equilibrio positivo en cuanto a la energía. Sin embargo, es esencial realizar un dimensionamiento adecuado. Se recomienda que los operadores que compran nuevos equipos o soluciones completas de red exijan una compensación / impacto energético total en una nueva solución. 4.2 La mejora de la eficiencia energética 4.2.1 La fusión de las clases de tráfico (consolidación I/O) Las redes de los centros de datos tienen que transmitir diversos tipos de tráfico dentro de los diferentes tipos de áreas de aplicación. Esto ha dado lugar a la creación de protocolos y arquitecturas de red especializadas. Como resultado de ello, las redes considerablemente complejas a menudo no comparten sus recursos. El objetivo básico es la mejora de la reducción física de los componentes y el reparto de la capacidad de la red a través de las diferentes unidades funcionales. La tendencia general hacia niveles menores y más simples y redes I/O convergentes basadas en Ethernet también está impulsada por las necesidades de una eficiencia energética. El objetivo final es la consolidación de la red, que se ocupa de las redes de servidores y almacenamiento, así como la arquitectura de red de distribución. El Adaptador de Red Convergente (CAN) es la fusión de antiguos interfaces separados: • Adaptador de host (HBA) en soporte de tráfico SAN • Controlador Interfaz de Red (NIC) en soporte de tráfico LAN • Adaptador de canal de host (HCA) en soporte de tráfico IPC La consolidación del I/O es la capacidad que presenta un conmutador o un adaptador de host de utilizar la misma infraestructura física para transportar múltiples tipos de tráfico, donde cada uno suele tener una serie de características y necesidades de manejo específicas. Desde el lado de la red, esto equivale a tener que instalar y operar una única red en lugar de tres, tal y como se muestra en la Figura 4.2. Desde el lado de los host y las matrices de almacenamiento, esto equivale a tener que adquirir menos adaptadores de red convergentes (CNA) en lugar de tarjetas de red Ethernet, FC HBA y HCA IB. Un típico canal de fibra HBA consume alrededor de 12,5 W [3]. En cuanto a la redundancia de la red, es necesario considerar adecuadamente las diversas opciones para el diseño de redes fiables. 4 Equipos de redes InterProcessor Communication (IPC) LocalArea Network (LAN) Storage Network (SAN) ENSwitch FCSwitch Ethernet HCA NIC Processor IPC LAN SAN ENSwitch FibreChannel/ Infiniband 10G/40G/100GEthernet HBA CNA Memory Processor Memory Server Fig.4.2 I/O consolidation and network convergence in data centre networks BENEFICIOS DE LAS REDES CONVERGENTES La consolidación de la I/O permitirá la consolidación de los distintos tipos de redes (LAN, SAN) a un nivel superior, como una medida para la preparación de la virtualización del sistema. Además, reducirá significativamente la cantidad de infraestructura física, incluyendo conmutadores, puertos, conexiones y cables entre diferentes redes. Las redes convergentes darán como resultado: •Una reducción de hasta el 80% de los adaptadores y cables • Una reducción de hasta el 25% en interruptores, adaptadores y espacio de rack • Una reducción de hasta el 42% en costes de energía y refrigeración [4] 39 4.2.2 La consolidación de la red El método principal para optimizar el consumo de energía de la red de centros de datos incluye la aplicación de las nuevas arquitecturas de red y la convergencia de las redes anteriormente separadas (en una tecnología única). Una arquitectura típica consta de un árbol de enrutamiento y conmutación de equipos (niveles / capas múltiples) empleando un equipo más especializado y costoso en la parte superior de la jerarquía de la red. El objetivo debe ser la consolidación de la infraestructura de red mediante la creación de una arquitectura de red plana basada en una estructura de red funcional. Las medidas que se pueden tomar son: • Agregar conmutadores. Múltiples conmutadores físicos que operen en un único dispositivo lógico. • Reducir los niveles (capas). Utilice un conmutador agregado para hacer el trabajo de capas múltiples de conmutadores. Se debe tener en cuenta los servicios de red y la seguridad. Routers Core Aggregation Access Fig.4.3 Network consolidation 40 • Crear una estructura de red unificada. Con esto se combinan los dos enfoques y se permite alcanzar una simplicidad operativa y un rendimiento elevado. Una vez más, es necesario tener en cuenta los servicios de red y la seguridad. La convergencia de las redes del servidor (LAN) y de almacenamiento (SAN) es una tendencia general que tiene muchas posibilidades de ahorro de energía. Mantener dos redes separadas aumentaría los costes de operación y el consumo de energía en general, multiplicando el número de adaptadores, de cables y de puertos de conmutación necesarios para conectar todos los servidores directamente con el soporte de redes LAN y SAN. Para simplificar o reducir la estructura de red del centro de datos, en la actualidad se está aplicando en los centros de datos la convergencia de las tecnologías de red tales como iSCSI, Canal de Fibra sobre Ethernet (FCoE) y Centro de Datos de puente (DCB). 4 Equipos de redes 4.2.3 La virtualización de la red La virtualización es una tecnología perfectamente establecida para consolidar servidores físicos con múltiples máquinas virtuales. La virtualización de la red sigue el mismo principio y describe varias estrategias de hardware y software para administrar los recursos de red como unidades lógicas independientes de la topología física. Esto se traduce en un tráfico de red reducido, en una seguridad simplificada y en un control de red mejorado. Los elementos clave para contar con redes de alta eficiencia son el conocimiento a nivel de red y la visibilidad del ciclo de vida de la máquina virtual (VM). La capacidad de configurar la red y la capacidad a nivel de puerto al nivel de la máquina virtual individual, así como el rastreo dinámico de las máquinas virtuales a medida que se mueven a través del centro de datos, son factores importantes para una gestión eficiente de los entornos virtualizados. La eficiencia energética se logra principalmente mediante la consolidación de los routers, de los adaptadores físicos de los puertos I/O, y del hardware adicional para los servicios de red específicos. Extender la virtualización del sistema a la red incluye: • Un router virtual (software con funcionalidad de enrutamiento, sistemas múltiples en una máquina real) • Los enlaces virtuales (interconexión lógica de los router virtuales) • Las redes virtuales (routers virtuales conectados por medio de enlaces virtuales) El aumento de la virtualización de los servidores dará como resultado una mayor complejidad y una sobrecarga de la red. Los conmutadores de red obsoletos no reconocen a las máquinas virtuales y esto conlleva el riesgo de una interrupción del servicio y de una aparición de brechas de seguridad debido a una configuración de red incorrecta. La conexión en red es un área clave que también tiene que ser virtualizada para alcanzar el mismo nivel de agilidad, de ancho de banda y de rendimiento. La virtualización de la red de servicios es una estrategia que permite simplificar las operaciones de red y consolidar dispositivos múltiples. La virtualización de un módulo firewall o de un IPS, proporcionando una imagen de software a diferentes aplicaciones a través de un hardware de red único, reduciría la necesidad de contar con dispositivos independientes, utilizando el software en el mismo hardware. La reducción del consumo de energía se logra mediante la consolidación de múltiples servicios en una única unidad física sin necesidad de realizar un despliegue de hardware específico para cada caso. Eliminando la necesidad de otros dispositivos físicos se elimina de forma efectiva la exigencia de contar con fuentes de alimentación, refrigeración y espacio de rack adicionales que, de otro modo, hubiera sido necesario. Resumen de los beneficios que ofrece la virtualización de los servicios de red: • Las interfaces de gestión son más flexibles • Reducción de gasto de adquisición por el uso de software • Aumento del rendimiento de las aplicaciones mediante la colocación y la extensión de servicios simplificados • Capacidad de reducción del consumo de energía mediante la consolidación de equipos La correcta aplicación de la virtualización de la red depende de ciertos aspectos, como los gastos de capital, la definición de objetivos concretos o la compatibilidad con el hardware existente. Por tanto, los proyectos de virtualización requieren un análisis equilibrado de los gastos y los beneficios, una gestión integral del proyecto y un consiguiente análisis de los posibles riesgos de seguridad. RECOMENDACIONES A LOS CENTROS DE DATOS PEQUEÑOS Y MEDIANOS En el caso de las pequeñas y medianas empresas, la elección entre el FCoE y el iSCSI depende en gran medida de los requisitos de la aplicación y de la disponibilidad de contar con personal capacitado en el Canal de Fibra. • Cuando la capacidad y el rendimiento de las bases de datos orientadas son las aplicaciones críticas de negocio, el FCoE y el iSCSI son las soluciones adecuadas para mejorar el nivel del servicio y reducir el consumo de energía. • El aprovisionamiento centralizado del almacenamiento y la recuperación de incidencias requiere un común SAN -> se prefiere un iSCSI • Se recomienda la adaptación de los FCoE a las redes de canal de fibra dominantes [5]. 41 4.2.4 La selección de los componentes y de los equipos El consumo de energía de equipos de red en general está influido por la selección de los componentes y la configuración actual del sistema. La principal influencia es el soporte estándar de la tecnología de red compatible (por ejemplo, 10GbE). El chip de diseño de sistemas y la integración a nivel TEM son la principal influencia. Esta tendencia está impulsada por la mejora del rendimiento de la tecnología de semiconductores, que todavía sigue la ley de Moore. Esto también incluye el rendimiento térmico del chip y la tecnología de interconexión. La fiabilidad es un problema importante en ese sentido. Otros factores son la configuración del sistema, que influyen en el tipo y número de puertos desplegados en el equipo. Por último, el consumo de energía de los equipos de red está influido por la eficiencia de la fuente de alimentación y las opciones de gestión de la energía La gestión de la energía La magnitud del consumo de energía del equipo de red está relacionada con el uso activo y los períodos de inactividad. La diferencia en el consumo de energía entre los activos (100% de carga) y la inactividad (con el vínculo establecido) tiene aproximadamente un factor de 1,1 (un diferencia menor del 10%). Si el enlace está desactivado, el consumo eléctrico se reduce a un factor 2 (50% del activo). Sin embargo, se espera que en las instalaciones más pequeñas (por ejemplo, en las sala de servidores, en los centros de datos pequeños) las fases de inactividad se concentren especialmente durante la noche. La gestión de energía avanzada, que incluye una especie de "red en espera", todavía no goza de un uso frecuente. El plazo de espera de red ha sido acuñado por el estudio directivo preparativo marco de la Unión Europea EuP / ErP para el ENER Lot 26. Este estudio, se argumenta que "condensar el tiempo de aplicación" es el criterio clave para la implementación de una red en espera. La gestión de la energía de los equipos de red está estrechamente relacionada con el servidor y con los sistemas de almacenamiento que se conectan. 42 RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS Debe tener en cuenta los criterios de contratación en la selección de un hardware de la red de energía eficiente y, sobre todo, de las fuentes de alimentación. • Elija equipos con funcionalidades de gestión de la energía y comparare el consumo de energía de diversos dispositivos en los estados de inactividad y en espera. • Compare los costes y la eficiencia energética de los sistemas de redes de diferentes proveedores • Solicite información sobre los productos de los proveedores en relación con: • la eficiencia energética total (por ejemplo, ECR, TEER en cuanto esté disponible) • la eficiencia y la modularidad de las fuentes de alimentación • la eficiencia y la escalabilidad de las unidades de ventilación (velocidad variable del ventilador, etc) En el caso de que un grupo de servidores o de dispositivos de almacenamiento se configure en modo de espera (suspensión), sería posible también apagar algunas partes de los conmutadores de acceso. Una vez más, el factor crítico es la latencia y la fiabilidad del sistema de reactivación. Con la introducción de los estándares IEEE 802.3az "Ethernet Energéticamente Eficiente" y ECMA-393 "proxZzzyTM para host inactivo" estándar, se están poniendo en marcha algunas estrategias la gestión de la baja capacidad eléctrica. La unidad de fuente de alimentación La fiabilidad y la eficiencia de conversión de las unidades de fuentes de alimentación (PSU) influyen en el consumo total de energía. La eficiencia de conversión de la PSU más potente (> 500 W de salida) se ha mejorado en los últimos años hasta alcanzar los niveles típicos de más del 85% y con un exceso del 90%. Debido al hecho de que los grandes conmutadores de núcleo y routers consumen unos cuantos kW, el menor aumento de la eficiencia de conversión (aunque sólo el 1%) se traducirá en un ahorro de energía notable. Además, las especificaciones del producto no necesariamente revelan información sobre la eficiencia de conversión de las PSU. 4.2.5 La conmutación a nivel básico Hay dos tipos básicos de distribución del conmutador a nivel básico o de aplicación: al final de la fila y en la parte superior del rack. La conmutación al final de la fila (EOR) es un método de conexión a red convencional, con un solo gran soporte de conmutador basado en el chasis de uno o varios racks. Desde el punto de vista de la eficiencia energética, hay dos cuestiones a tener en cuenta respecto al EoR: • Ventaja: conmutación centralizada con una buena escalabilidad y un notable ahorro de energía en comparación con una solución subóptima TdR • Inconveniente: un considerable esfuerzo de cableado ineficiente en los sistemas densos La conmutación en la parte superior del rack (TdR) define un sistema que tiene un conmutador integrado en cada rack. Este concepto se asegura una latencia corta y una elevada transmisión de datos. Las ventajas y desventajas que ofrece la ToR respecto a la eficiencia energética son: 4 Equipos de redes • Ventaja: conmutación descentralizada en entornos de servidores densos (consolidación de I/O), que reduce la necesidad de un excesivo cableado. Si la distancia del cableado es más corta entre servidor y el conmutador, se mejora la velocidad de transmisión y se reduce el consumo de energía para esta transmisión. • Inconveniente: Si se utiliza un ToR en computaciones menos densas (pocos servidores en un rack), el sistema estará sobredimensionado. La eficiencia energética es baja, debido a la utilización por debajo de su nivel óptimo de los puertos disponibles. Lecturas complementarias Hintemann R. [2008]: Energy Efficiency in the Data centre, A Guide to the Planning, Modernization and Operation of Data centres, BITKOM, Berlin, disponible online: http://www.bitkom.org/de/publikationen/ 38337_53432.aspx EC JRC ISPRA [2011]: Best Practices for the EU Code of Conduct on Data centres Comisión Europea (2011), EC Ensamblaje Research Centre, Ispra, disponible online: http://re.jrc.ec.europa.eu/energyefficiency/html/standby_initiative_data_centres.htm En conclusión, el ToR ofrece eco-ventajas cuando se aplica en los sistemas de dimensiones adecuadas. La Figura 4.4 ilustra el concepto de conmutación ToR y su adecuada utilización. Juniper [2010]: Government Data centre Network Reference Architecture, Using a High-Performance Network Backbone to Meet the Requirements of the Modern Government Data centre Juniper (2010), Juniper Networks, Inc., Sunnyvale, disponible online: http://www.buynetscreen.com/us/en/local/pdf/ Referencias [1] Enterasys (2011): Data centre Networking –Connectivity and Topology Design Guide; Inc Enterasys Networks, Andover. [2] Lippis (2011): Open Industry Network Performance & Power Test Industry Network Performance & Power Test for Private and Public Data centre Clouds Ethernet Fabrics Evaluating 10GbE Switches; Lippis Enterprises, Inc, Santa Clara. [3] Cisco (2008): Converging SAN and LAN Infrastructure with Fibre Channel over Ethernet for Efficient, Cost-Effective Data centres; Intel, Santa Clara. [4] Emulex (2008): Sheraton Case Study.Virtual Fabric for IBM Blade Centre Increases Server Bandwidth, Reduces Footprint and Enables Virtualization for High-performance Casino Applications; Emulex, Costa Mesa 2010. [5] Blade.org (2008): Blade Platforms and Network Convergence; Blade.org, Libro Blanco 2008. reference-architectures/8030004-en.pdf 43 5 Enfriamiento y fuentes de alimentación en centros de datos y salas de servidores Andrea Roscetti, Politécnico de Milán, Thibault Faninger, Shailendra Mugal, Bio Intelligence Service La refrigeración puede ser responsable de hasta un 50% del consumo total de energía en las salas de servidores y los centros de datos. Por tanto, es esencial establecer algunos parámetros para conseguir una refrigeración eficientemente energética, tanto en pequeñas como en grandes instalaciones de tecnología informática. La siguiente sección muestra una serie de opciones generales para reducir el consumo de energía. 5.1 La refrigeración en las salas de servidores Los armarios de servidores o las pequeñas salas de servidores suelen estar equipados con cómodos sistemas de refrigeración (los típicos sistemas para oficinas HVAC1). Los pequeños centros de datos habitualmente están equipados con 1-5 racks de servidores, donde la tecnología informática consume una potencia máxima de 20 kW. 5.1.1 Sistemas divididos y sistemas portátiles Fig.5.1: Split cooling system room unit Los sistemas de refrigeración split se utilizan comúnmente en las salas de servidores pequeñas. El rango de potencia de refrigeración de esta familia de sistemas es de 100-100 kW. Por lo general los sistemas de refrigeración split/DX2 ofrecen varias ventajas: • Los costes de inversión son generalmente bajos. • El diseño y la instalación son muy simples. • El espacio requerido para la instalación es pequeño (las unidades habitualmente se montan en la pared). • La instalación es posible en casi todas las situaciones. • El mantenimiento y la sustitución de los sistemas es muy sencillo y rápido. Por otra parte es necesario tener en cuenta los siguientes inconvenientes: • La eficiencia general es muy baja en sistemas pequeños, antiguos o de gran tamaño. • La refrigeración confortable presenta un control de humedad deficiente. • Las tuberías entre las unidades internas y externas tienen limitaciones en cuanto a la longitud y la altura. external unit (Source: Daikin) Los sistemas portátiles se pueden instalar, por ejemplo, para evitar puntos calientes. Esta tecnología ofrece las siguientes ventajas: • Los costes de inversión son muy bajos. • La instalación es simple. • El espacio necesario para la instalación es pequeño. • El mantenimiento y la sustitución del sistema es simple y rápido. ---------------------------------------------------------------------------------------------------1) HVAC: Calefacción, ventilación y aire acondicionado 2) DX: expansión directa 44 Es necesario tener en cuenta los siguientes inconvenientes: • En general, la eficiencia es muy baja: los sistemas móviles de clase A son menos eficientes que los sistemas split de clase D. • La refrigeración presenta un control deficiente de humedad y temperatura. • La instalación sólo es posible si el aire se puede ventilar hacia el exterior. La etiqueta se implementa durante un período de transición hasta el 1 de enero de 2013. Antes de esa fecha, los fabricantes ya pueden utilizar esa etiqueta, pero no es obligatorio. Durante ese periodo de transición, también puede seguir utilizándose la etiqueta antigua en los aparatos de aire acondicionado (2002/31 / CE). 5.1.2 Medidas para optimizar la eficiencia energética en las salas de servidores Es necesario tener en cuenta los siguientes inconvenientes: • En general, la eficiencia es muy baja: los sistemas móviles de clase A son menos eficientes que los sistemas split de clase D. • La refrigeración presenta un control deficiente de humedad y temperatura. • La instalación sólo es posible si el aire se puede ventilar hacia el exterior. El sobredimensionamiento de la refrigeración es una práctica común en las salas de servidores pequeñas. Para evitar el sobredimensionamiento de la refrigeración en las salas de servidores que gozan de un buen aislamiento, existe una regla de oro donde se sugiere que la potencia de refrigeración no debe superar los 120% de la potencia instalada en la tecnología informática. En la compra de nuevos aparatos de hasta 12 kW de energía de refrigeración, se puede tomar como referencia la Etiqueta Energética de la UE para ayudar a la selección de un equipo energéticamente eficiente. La mejor opción es contar con un elevado EER3 / SEER4 y un nivel de eficiencia de clase A o más. La SEER y los kW / h anuales estimados a partir de la etiqueta son los criterios de comparación más importantes. El cuadro 5.1 muestra la eficiencia de la mejor tecnología disponible actualmente. Fig.5.2: Energy label for cooling only air conditioners (Source: regulation supplementing Directive 2010/30/EU of the European Parliament and of the Council with regard to energy labeling of air conditioners) Tab.5.1: Best available technology efficiency values for small cooling systems<12kW (source: Ecodesign regulation requirements for air conditioners and comfort fans) --------------------------------------------------------------------------------------------------3) Coeficiente de Eficiencia Energética: es la relación entre la potencia de refrigeración y potencia eléctrica en un punto de operación dado (condiciones de temperatura y humedad interior y exterior) 4) EER estacional: representa el rendimiento general que se espera en un lugar determinado (método de prueba) 45 RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS En las salas de servidores existentes • Eliminar la captación solar, la transmisión de calor y las pérdidas por ventilación a otras habitaciones o al espacio exterior. • Controlar y gestionar las condiciones ambientales (puntos de ajuste): la entrada de aire a la tecnología informática (no predeterminada) debe ser 18-27 ° C. Sin embargo se sugiere una temperatura de 24 a 27 ° C. • Verifique los conductos y las tuberías de aislamiento (aire/agua/líquido frío y caliente). • Evaluar la sustitución de los componentes obsoletos o menos eficientes del sistema de refrigeración (comparar la clase eficiente de los sistemas actuales con los más eficientes que existen en el mercado). • Controlar y verificar el diseño del sistema de refrigeración instalado (por ejemplo, la distancia entre los sistemas de refrigeración y la carga) • Apagar las luces y, si es posible, eliminar otras cargas mecánicas / eléctricas y fuentes de calor. Salas de servidores nuevas • Evaluar el uso de sistemas de refrigeración de precisión (con el fin de eliminar el calor sensible de la tecnología informática y evitar el exceso de deshumidificación). • Definir y evaluar las características de la sala y de los equipos informáticos, teniendo en cuenta las restricciones de espacio y la distancia entre la carga y las unidades externas. • Evite el uso de unidades móviles o de unidades de conductos con una EER baja (Nota: los sistemas móviles de clase A son menos eficientes que los sistemas split de clase D). • Compare diversos sistemas: ■ Opte por la etiqueta energética de clase superior (obligatorio para los sistemas pequeños). ■ Maximice la eficiencia de enfriamiento (SEER), véase la tabla BAT. • Plantéese el uso de la ventilación natural. 5.2 La refrigeración en centros de datos medianos y grandes 5.2.1 Aspectos generales El método tradicional para la refrigeración de los centros de datos medianos y grandes se ha basado en la refrigeración por aire. Un centro de datos estándar está diseñado para enfriar un promedio de 7,5 a 10 kW/m2, que se traduce en 1.3 kW / rack. Los centros de datos nuevos están diseñados para refrigerar un promedio de 20 kW/m2, que todavía limita la densidad de potencia por rack a 4-5 kW (recordemos que la capacidad completa del rack en los sistemas de consolidación o en los sistemas de servidores blade puede ser superior a 25 kW / rack). Los equipos de tecnología informática se disponen en una serie de filas cuyas entradas de aire miran hacia el pasillo frío. El aire frío se suministra al pasillo frío, pasa a través de los equipos y, a continuación se descarga en el pasillo caliente. 46 Uno de los elementos importantes que debemos considerar es las características del flujo de aire. Las direcciones del flujo de aire recomendado son de adelante hacia atrás, de adelante hacia la parte superior o de adelante + de arriba hacia atrás (véase la referencia). Si existen diversos equipos con diferentes condiciones de operación o distintas direcciones de flujo de aire instaladas en la misma habitación, es necesario crear un área separada. En caso de que el equipo tenga diferentes necesidades ambientales, es preferible ofrecer controles ambientales por separado a fin de evitar ineficiencias por la existencia de un punto de consigna más bajo o un control deficiente del flujo de aire. Para más detalles, véase la referencia [1]. 5 Refrigeración y fuentes de alimentación en centros de datos y salas de servidores 5.2.2 Ajustes de temperatura y humedad Los centros de datos deben ser diseñados y operados en su máxima eficiencia posible bajo unas condiciones del clima dadas (bulb5 seca). La temperatura recomendada es de 18 a 27 ° C y la humedad relativa debe ser inferior al 60% (entrada de aire a los equipos informáticos). Respectivamente, el punto de rocío debe estar entre los 5,5 y 15 ° C. Los estudios sobre la temperatura del aire de entrada sugieren un rango óptimo de 24-27 ° C. A temperaturas más altas, el consumo de energía de los ventiladores internos en los servidores y otros equipos informáticos prevalecerá sobre la eficiencia mejorada del sistema de refrigeración del centro de datos (véase las referencias). Si se programan unos valores de temperatura más bajos se derrocha energía como consecuencia de una excesiva refrigeración. Además de los ajustes de temperatura, la optimización del flujo de aire (por ejemplo, pasillo caliente / pasillo frío, placas ciegas y sellado de las fugas) es esencial para asegurar una eficiencia elevada. Véase la referencia [2] para la optimización del pasillo caliente- pasillo frío. Los ajustes de temperatura especialmente elevada, requieren un flujo de aire optimizado para evitar que se produzcan puntos calientes. A densidades de energía muy alta (por ejemplo, 25 kW por rack), el enfriamiento tradicional de una sala basado en sistemas CRAC / CRAH ya no es suficiente para evitar los puntos calientes. Para obtener información más detallada, véanse las referencias [3], [4] y [5]. En este caso, puede ser apropiado montar una refrigeración especial basada en hilera y rack. RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS Gestión de los sistemas de refrigeración: • Controlar y manejar las condiciones ambientales (punto de ajuste, programación, posición y número de sensores). • Sustituir los componentes obsoletos o menos eficientes del sistema de refrigeración (compárese con la clase eficiente de los sistemas actuales) por otros más eficientes disponibles en el mercado. • Verificar el aislamiento de los conductos / tuberías ( aire / agua / líquido frío y caliente). • Localizar el CRAC al final del pasillo caliente (las unidades se colocarán perpendicularmente a los pasillos calientes). • Separar los equipos que tengan diferentes requisitos de temperatura y flujo de aire. • Los flujos de aire: ■ Colocar los suministros de aire (baldosas o difusores perforados) solamente en los pasillos fríos, cerca de la actividad del equipo informático. ■ Instalar barreras de flujo de aire a modo de contención del pasillo caliente y/o del pasillo frío para reducir la mezcla de aire caliente con una temperatura ambiental más fría. ■ Instalar paneles de obturación en todas las ubicaciones de rack abiertas y dentro de los racks para evitar la recirculación del aire caliente. • El cableado: ■ Utilice una bandeja de cable aéreo: ■ Controle la colocación y el sellado de las aberturas de cables y las baldosas. Criterios para la selección de nuevos sistemas de refrigeración con eficiencia energética: • Compare la eficiencia de las unidades de refrigeración (véase las referencias de las necesidades de refrigeración). • Compare las diferentes opciones de diseño del flujo de aire (pasillo frío/caliente, los conceptos de piso elevado/plenum de retorno). • Evalúe el uso de: ■ refrigeración basada en el rack (para sistemas de alta densidad) ■ventilación natural (directa/indirecta) ■ enfriamiento natural del agua ■ Instalación de refrigeración líquida (directa/indirecta) ■ recuperación del calor residual • Establezca un sistema de refrigeración modular (relacionado con el concepto de diseño y gestión de la tecnología informática). • Utilice software de simulación de la Dinámica de Fluidos Computacional (CFD) para la optimización del proceso de enfriamiento. --------------------------------------------------------------------------------------------------5) el valor medido por un termómetro expuesto al aire libre pero protegido de la radiación y el nivel de humedad, conocido como temperatura del aire 47 5.2.4 La ventilación natural 5.2.3 La eficiencia de los componentes: refrigeradores, ventiladores, unidades de renovación del aire Los refrigeradores por aire y por agua difieren en 6) cuanto a su EER (Eficiencia Energética Ratio que suele ser alrededor de 3,5 en el caso de los sistemas de agua y alrededor de 2,5 en los sistemas de aire. La "relación nominal de la eficiencia energética" (EERrated) expresa la capacidad declarada de refrigeración [kW] dividido por la potencia nominal de refrigeración [kW] de una unidad cuando proporciona refrigeración en condiciones de calificación estándar. Eurovent proporciona datos que permiten establecer una comparación de la eficiencia particular de varios sistemas y componentes de refrigeración y ventilación (www.eurovent-certification.com). Las unidades de refrigeración por agua son preferibles a los refrigeradores por aire y a los DX, gracias a su mayor eficiencia termodinámica. Se debería evaluar la posibilidad de disminuir la temperatura de condensación o de aumentar la temperatura de evaporación. ---------------------------------------------6) Relación de Eficiencia Energética: es la relación entre la potencia de refrigeración y la potencia eléctrica en un punto de operación dado (condiciones de temperatura y humedad interior y exterior) Una reducción de delta-T entre estas temperaturas supone que se necesita menos trabajo en el ciclo de enfriamiento, mejorando de ese modo la eficiencia. Las temperaturas dependen de la temperatura del aire interna requerida (véase ajustes de temperatura y humedad). La eficiencia de los ventiladores depende principalmente de la eficiencia del motor. El uso de ventiladores de velocidad fija consume una cantidad considerable de energía y dificulta la gestión de los datos de temperatura del piso. Los ventiladores de velocidad variable son especialmente eficaces en caso de un excedente elevado en el sistema de refrigeración o de una carga informática muy variable. Los ventiladores pueden ser controlados por la temperatura del aire de retorno o la presión del aire frío del plenum. El "Free cooling" o la ventilación natural es una técnica que proporciona refrigeración mediante el uso del nivel inferior que presenta la temperatura exterior del aire o del agua en comparación con las condiciones que se precisan en el interior. Cuanto menor sea la temperatura media exterior anual, mayor será la oportunidad de aplicar la ventilación natural, así como su nivel de eficiencia. Los economizadores de energía por circulación de agua y de aire pueden ser una alternativa para disfrutar de una refrigeración suplementaria. Las condiciones climáticas definen la eficiencia económica y la recuperación de las inversiones. Se puede utilizar un modo operativo de ventilación natural completa si la diferencia entre la temperatura de refrigeración de retorno del agua y la temperatura ambiente supera aproximadamente las 11 K. Por tanto, cuanto mayor sea la temperatura de entrada diseñada, mayor será el ahorro de energía. Si se escoge una temperatura superior en la sala de servidores en el diseño de un sistema de refrigeración, se puede utilizar la ventilación natural durante un período de tiempo anual más prolongado. La implementación de la ventilación natural requiere una verificación de viabilidad y una evaluación económica. Para calcular el ahorro también debe ver la herramienta de evaluación de la ventilación manual desarrollada por The Green Grid. En la sección de lecturas adicionales se proporciona una serie de recomendaciones sobre las fuentes que contienen información específica sobre la ventilación natural . Fig.5.3: Electrical infrastructure components and inefficiency in a data centre (ASHRAE: Save Energy Now Presentation Series,2009). 48 5 Refrigeración y fuentes de alimentación en centros de datos y salas de servidores 5.2.5 La refrigeración basada en rack / en filas Si la densidad de potencia de los equipos informáticos modernos es superior a 25 kW por rack, la refrigeración tradicional de la sala basada en sistemas CRAC / CRAH no es suficiente para evitar que se produzcan puntos calientes. Para obtener información más detallada, véase las referencias. 5.3 La fuente de alimentación y el UPS en los centros de datos El sistema de alimentación en un centro de datos principalmente transforma la corriente de alterna (AC) a continua (DC). Las pérdidas que se producen como consecuencia de la transformación varían en función del nivel de carga. Normalmente, la mayor eficiencia se logra entre el 80 y el 90% de la carga total, mientras que en los niveles que se encuentran por debajo del 50%, la eficiencia energética se reduce significativamente. La Figura 5.3 muestra la típica cadena de alimentación de los centros de datos. Las fuentes habituales de ineficiencia están indicadas en todos los componentes. El sistema de alimentación ininterrumpida (UPS) a menudo proporciona un importante potencial de ahorro de energía. El UPS opera continuamente para proporcionar energía de reserva y de acondicionamiento a los equipos informáticos y a los componentes de la infraestructura. Además de su función principal, que es proporcionar energía a corto plazo cuando falla la fuente de alimentación de entrada, el UPS también ofrece diversas funciones para corregir los problemas de corte de electricidad. Se pueden encontrar tres topologías del sistema principales, dependiendo de la aplicación deseada: • La espera pasiva, también llamada Voltaje y Frecuencia Dependiente (VFD), es el único sistema capaz de proteger la carga de las interrupciones del suministro eléctrico (apagones, caídas de tensión, sobretensiones). En una situación de suministro eléctrico normal, el UPS no tiene interacción con la red eléctrica. Cuando el suministro de entrada se encuentra fuera de la tolerancia de carga del diseño del UPS, un inversor conecta el mecanismo de almacenamiento de energía para proporcionar energía a la carga, desviando el suministro eléctrico. Esta topología es más común en las aplicaciones de baja potencia. • La línea interactiva, llamada también de Voltaje Independiente (VI), es capaz de proteger la carga, como un UPS VFD y, además, ofrece una protección de la carga mediante la regulación de la frecuencia dentro de los límites óptimos. En particular, se protege de una tensión insuficiente, o de un sobrevoltaje, que se aplica continuamente a la entrada. Esta topología no se utiliza habitualmente por encima de los 5000 VA [7]. • Doble Conversión, también llamado Voltaje y Frecuencia independientes (VFI), es capaz de proteger la carga contra los efectos adversos de las variaciones en el voltaje (como un VI) o en la frecuencia sin agotar la fuente de energía almacenada, ya que suministra continuamente una carga total de energía mediante la regulación del suministro eléctrico antes de que llegue a la carga. Esta topología no es frecuente en cargas que se encuentran por debajo de 750 VA10. Cada topología tiene sus ventajas e inconvenientes. En el rango de 750 VA-5000 VA, el UPS de línea interactiva suele tener una vida operativa más larga y una mayor fiabilidad con un menor coste total de propiedad, mientras que el UPS online de doble conversión ocupa menos espacio y puede regular la frecuencia de salida 10. El UPS también puede ofrecer diferentes mecanismos de almacenamiento de energía para suministrar electricidad a la carga conectada en caso de que se produzca una interrupción de energía: • Las baterías electroquímicas, que almacenan y descargan energía eléctrica mediante la conversión de energía química; • Rotativo (volante de inercia), proporciona energía de almacenamiento a corto plazo en forma de un disco masivo giratorio. 49 Tab.5.2 : Characteristic efficiencies of UPS topologies UPS Topology Double-conversion Line-interactive Efficiency at 25% load Efficiency at 50% load Efficiency at 75% load Efficiency at 100% load 81–93% 85–94% 86–95% 86–95% n.a. 97–98% 98% 98% Tab.5.3: Minimum average efficiency requirements for AC-Output UPS proposed in Energy Star UPS (P is the Real Power in Watts (W), ln is the natural logarithm) Hay dos opciones disponibles para el suministro de energía a la carga: • UPS estáticos: no hay componentes móviles en el circuito de alimentación (excepto los ventiladores para la refrigeración). Convierte la corriente alterna en corriente continua (rectificador para el almacenamiento en baterías con el fin de asegurar la continuidad en caso de pérdida de red) y luego otra vez en corriente alterna para las unidades de suministro de potencia instaladas en los servidores. • UPS rotativo: convierte la energía a través de un motor / generador y se utiliza para las aplicaciones que requieren cortes de la red de corta duración, cortes de energía del sistema, caídas de tensión, etc. Las pérdidas de energía del UPS se deben a la ineficacia en la conversión de energía eléctrica (en el cargador y en el inversor) y a las pérdidas de carga de la batería o las pérdidas de energía en los sistemas inerciales (volantes de inercia). Las pérdidas eléctricas (y la generación de calor) son más importantes en la UPS de doble conversión (rectificador, inversor, filtro, y pérdidas de interconexión), que en el UPS de línea interactiva y en standby (filtros, transformadores, pérdidas de interconexión). Los UPS con salida de corriente continua (también conocidos como rectificadores) y combinados con los UPS de corriente alterna y continua se pueden utilizar en algunas aplicaciones y pueden evitar pérdidas tanto en el inversor como en el rectificador. RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS Criterios para las nuevas instalaciones • Evalúe correctamente sus necesidades y el tamaño de los sistemas UPS (evalúe el UPS múltiple o modular, las soluciones escalables y ampliables): el tiempo de reserva de la batería, el coste, el tamaño, el número de puntos de venta, etc • Analice la tecnología y la eficiencia del UPS. Debe tener en cuenta la eficiencia de la carga parcial del UPS. • Seleccione la topología correcta de los sistemas de suministro de energía. • Escoja los sistemas UPS que cumplan con el Código de Conducta de los UPS o de Energy Star. Criterios de optimización • Analice la tecnología y la eficiencia del UPS. • Evalúe las opciones y los beneficios que reporta la sustitución de equipos antiguos. • Evalúe los costes y los beneficios de la redundancia. 50 5 Refrigeración y fuentes de alimentación en centros de datos y salas de servidores La mayoría de los fabricantes de UPS citan la eficiencia del UPS al 100% de carga. Sin embargo, la eficacia disminuye significativamente en condiciones de carga parcial (obsérvese que la mayoría de los UPS funcionan a un 80%, y en caso de redundancia, la carga puede caer al 50% y menos. Con cargas del 50% o menos tanto los sistemas de UPS modernos como los existentes funcionan menos eficazmente con caídas significativas que se producen en las cargas que se encuentran por debajo del 20%. Para obtener el mejor rendimiento del UPS las cargas deberán ajustarse lo más posible a las cargas de los equipos informáticos del centro de datos. Se pueden encontrar soluciones de UPS escalables para conseguir un tamaño eficiente de la capacidad del UPS. Lecturas complementarias Referencias ASHRAE (2011): Thermal Guidelines for Data Processing Environments–Expanded Data centre Classes and Usage Guidance – ASHRAE, 2011, disponible online en: http://tc99.ashraetcs. [1] ASHRAE: Save Energy Now Presentation Series, 2009. [2] Niemann, J. y otros (2010). Hot-Aisle vs. Cold-Aisle Containment for Data centres; APC por Schneider Electric, Libro Blanco135, Revisión 1. [3] Rasmussen, N. (2010). An improved architecture for High-efficiency High-density data centres; APC por Schneider Electric, Libro Blanco 126, Revisión 1. [4] Blough, B. (2011). Qualitative analysis of cooling architectures for data centres; The Green Grid, Libro Blanco #30. [5] Bouley, D. y Brey, T. (2009). Fundamen- tals of data centre power and cooling efficiency zones; The Green Grid, Libro Blanco #21. [6] Rasmussen, N. (2011). CalculatingTotal Cooling Requirements for Data centres; APC por Schneider Electric, Libro Blanco 25, Revisión 3. [7] ENERGY STAR Uninterruptible Power Supply Specification Framework (2010). Disponible en: org/documents/ASHRAE%20Whitepaper%20-%20 2011%20Thermal%20Guidelines%20for%20Data%20 Processing%20Environments.pdf Código de conducta de la UE para los centros de datos(2009): Lista completa de opciones para las mejores prácticas identificadas en los operadores del centro de datos, tal como se indica en el Código de Conducta de la UE: http://re.jrc.ec.europa.eu/energyefficiency/pdf/CoC/Best% 20Practices%20v3.0.1.pdf The Green Grid (2011): Herramienta de evaluación de la ventilación natural. http://cooling.thegreengrid.org/europe/WEB_APP/calc_in Los requisitos mínimos de eficiencia del UPS se especifican en el Código de Conducta del UPS (nueva edición 2011) y en los requisitos del programa Energy Star (versión en borrador de 2011). Los nuevos requisitos de eficiencia energética de Energy Star para el UPS de corriente alterna y corriente continua están actualmente en fase de desarrollo (véase el cuadro 5.3). El programa también pretende incluir requisitos el UPS multi-modos. Este tipo de UPS opera con varias series de características de dependencia de entrada (por ejemplo, pueden funcionar tanto en VFI como en VFD). El UPS multi-modo puede funcionar en modos más eficientes y menos protegidos y cambiar a modos menos eficientes y más protegidos cuando sea necesario. Por tanto, es posible lograr un importante ahorro energético. dex_EU.html ENERGY STAR (2011): Eficiencia del UPS http://www.energystar.gov/index.cfm?c=new_specs.u ninterruptible_power_supplies The Green Grid(2011):Herramienta de evaluación de los sistemas de alimentación http://estimator.thegreengrid.org/pcee www.energystar.gov/ia/partners/prod_development/ High Performance Buildings: Data centres Uninterruptible Power Supplies(UPS) http://hightech.lbl.gov/documents/UPS/Final_UPS_ [8]Ton, M. y Fortenbury B. (2008). High Performance Buildings: Data centres - Uninterruptible Power Supplies. Disponible en Report.pdf http://hightech.lbl.gov/documents/UPS/Final_UPS_Report. CÓDIGO DE CONDUCTA DE LA UE(2011):Código de conducta de la UE sobre Eficiencia Energética y Calidad de los Sistemas de Alimentación Ininterrumpida (UPS) de corriente alterna: pdf http://re.jrc.ec.europa.eu/energyefficiency/html/standby_i http://www.apcdistributors.com/white-papers/Power/ nitiative.htm WP-79%20Technical%20Comparison%20of%20On- new_specs/downloads/uninterruptible_power_supplies/U PS_Framework_Document.pdf [9] Samstad, J. y Hoff M.; Technical Comparison of On-line vs. Line-interactive UPS designs; APC, Libro Blanco 79.Disponible en line%20vs.%20Line-interactive%20UPS%20designs.pdf 51 Partners Supportedby Contacto: Austrian Energy Agency|Dr. Bernd Schäppi|Mariahilferstrasse136|A-1150 Viena| Teléfono+4315861524|bernd.schaeppi@energyagency.at