Descargar Aquí.

Anuncio
IT e Infraestructura
energéticamente eficiente
para centros de datos y
salas de servidores
Pie de imprenta
Responsabilidad: consorcio PrimeEnergyIT Project, 2011
Coordinación del proyecto: Dr. Bernd Schäppi, Austrian Energy Agency, Viena
Solamente está permitida la reimpresión por partes y su referencia debe ir detallada. Impreso en
papel blanqueado sin cloro.
Toda la responsabilidad del contenido de esta publicación es de los autores. No refleja
necesariamente la opinión de la Unión Europea. Ni la AECI, ni la Comisión Europea son
responsables del uso que se puede hacer de la información que contiene este documento.
Tecnología energéticamente eficiente y reducción de costes en
los centros de datos y salas de servidores
El consumo de energía en centros de datos y salas de servidores ha aumentado notablemente a lo largo de la
última década. La aparición de equipos más potentes y de servicios de tecnología informática más complejos
ha impulsado la demanda de energía. Puesto que los costes de infraestructura y energía en los centros de
datos se han convertido en un factor esencial en la instalación y gestión de la tecnología informática, se han
desarrollado una serie de tecnologías cuyo fin es aumentar la eficiencia energética. La irrupción de nuevo
hardware y de diversas opciones de gestión energética apoyan estas estrategias de ahorro de energía.
En general, el potencial de ahorro de energía en los centros de datos y las salas de servidores es muy
elevado y en muchos casos puede superar el 50%, dependiendo de la tecnología informática y de las
infraestructuras específicas de cada caso. En el pasado, las medidas de ahorro de energía se concentraron
en hallar soluciones eficientes para el suministro de energía y la refrigeración. Más recientemente, también se
han considerado algunas medidas relativas a la eficiencia del hardware de la tecnología informática. Los
estudios actuales demuestran que la eficiencia de estas medidas ha desembocado en una reducción
1
significativa de la demanda de energía, tomando como referencia el escenario habitual de una empresa
[Koomey 2011]. Sin embargo, el potencial de ahorro de energía restante se mantiene elevado y las nuevas
tecnologías permiten un despliegue más eficaz de las opciones de ahorro.
Esta guía informativa ofrece una breve visión general de las tecnologías actuales que apoyan la eficiencia
energética, tanto para la tecnología informática como para la infraestructura, concentrándose principalmente
en la tecnología informática. Abarca todas las tecnologías informáticas esenciales en el centro de datos,
incluyendo servidores, almacenamiento de datos y equipos de red. Entre los distintos métodos de eficiencia se
incluyen el diseño de un sistema eficaz, la gestión de la energía desde el hardware hasta el nivel del centro de
datos, así como diversos métodos de consolidación y virtualización.
Las recomendaciones para realizar las mejores prácticas hacen hincapié en la necesidad de tener en cuenta
las mejores opciones en la gestión y en el aprovisionamiento. También se incluyen una serie de lecturas
recomendadas. Esta guía informativa proporciona una fuente de información básica para los administradores
de la tecnología informática y de las infraestructuras que les ayudará a alcanzar la eficiencia tanto en la
energía como en los costes.
Esta guía informativa ha sido elaborada como parte del proyecto internacional PrimeEnergyIT (www.efficient-datacenters.eu) que se lleva a cabo en el marco del
programa de la UE, Energía Inteligente para Europa.
1. Koomey, J. (2011): Growth in Data center electricity use 2005 to 2010, Analytics Press, Oakland, CA, August 1, 2011
3
Sumario
1
La supervisión del consumo de energía en salas de servidores y centros de datos
6
1.1
1.2
Conceptos de supervisión
6
9
2
2.1
Equipamiento del servidor
Eficiencia energética y gestión de la energía en el servidor y a nivel del componente
Dispositivos de medición
2.1.1 Eficiencia de la CPU
2.1.2 Eficiencia de la fuente de alimentación
2.2
Gestión de la energía en el rack a nivel del centro de datos
2.2.1 Planificación de la capacidad y gestión de la energía
2.2.2 Limitación de la energía
2.3
Opciones específicas para la gestión de la energía en servidores blade
2.3.1 Chasis en blade y componentes en blade
2.3.2
2.4
Sistema blade: problemas de energía y refrigeración
La virtualización del servidor
2.4.1 Las posibilidades de ahorro de energía de la virtualización
2.4.2 Herramientas y requisitos para la planificación de la virtualización
2.4.3 La gestión de la energía en entornos virtualizados: la migración al servidor virtual
2.4.4 La refrigeración y la infraestructura en los sistemas virtualizados
3
3.1
Equipos para el almacenamiento de datos
Dispositivos de almacenamiento
3.1.1 Sistemas basados en cinta
3.1.2 Unidades de disco duro (HDDs)
3.1.3 Unidades de estado sólido (SSDs)
3.1.4 Unidades de disco duro híbrido (HHDs)
3.2
Elementos de almacenamiento
3.2.1 Unidades de gran capacidad y factores de forma pequeños
3.2.2 Matrices Masivas de Discos Inactivos (MAIDs)
3.2.3 Niveles RAID eficientes
3.2.4
Almacenamiento horizontal en niveles, virtualización del almacenamiento y thin provisioning
3.2.5 La consolidación en las capas de almacenamiento y fabric layers
3.2.6 La deduplicación de datos
4
10
10
12
13
14
14
16
16
17
19
21
22
23
24
25
28
28
28
29
31
31
32
32
32
32
33
34
34
4
4.1
36
36
36
37
37
38
38
40
41
42
42
Equipos de redes
La estructura técnica y operacional
4.1.1 El modelo funcional
4.1.2 Los atributos de la red
4.1.3 El equilibrio entre el rendimiento de la red y el consumo de energía
4.2
La mejora de la eficiencia energética
4.2.1 La fusión de las clases de tráfico (consolidación I/O)
4.2.2 La consolidación de la red
4.2.3 La virtualización de la red
4.2.4 La selección de los componentes y de los equipos
4.2.5 La conmutación a nivel básico
5
5.1
Refrigeración y fuentes de alimentación en centros de datos y salas de servidores
La refrigeración en las salas de servidores
5.1.1 Sistemas split y sistemas portátiles
5.1.2 Medidas para optimizar la eficiencia energética en las salas de servidores
5.2
La refrigeración en centros de datos medianos y grandes
5.2.1 Aspectos generales
5.2.2 Ajustes de temperatura y humedad
5.2.3 La eficiencia de los componentes: refrigeradores, ventiladores, unidades de renovación
del aire
5.2.4 La ventilación natural
48
49
49
5.2.5 La refrigeración basada en rack / en filas
5.3
44
44
44
45
46
46
47
48
La fuente de alimentación y el UPS en los centros de datos
5
1
La supervisión del consumo de
energía en las salas de servidores y
en los centros de datos
Carlos Patrao, Universidad de Coímbra
1.1 Conceptos de
supervisión
La supervisión del consumo de energía en las
salas de servidores y en los centros de datos es
un elemento esencial para detectar las
posibilidades de ahorro de energía y evaluar la
efectividad de las medidas de eficiencia. Los
conceptos de supervisión se deberían diseñar
de manera cuidadosa para asegurar que se
recopilan los datos adecuados, apoyando así
una serie de medidas eficaces.
Es necesario tener en cuenta los siguientes
aspectos[1]:
•Precisión y resolución adecuada de los datos
•Desglose de la recopilación de datos, capacidad
para recopilar datos procedentes de todos los
dispositivos deseados
•Facilidad de uso y de integración de los datos a
través de los diversos dispositivos y tiempos de
ejecución
•Escalabildad para la implementación en masa y
capacidad de multisitios
•Adaptabilidad a las nuevas necesidades de
medición
•Opciones de análisis de datos e integración con
los sistemas de control
Se deben aplicar los siguientes modelos típicos para la supervisión:
Supervisión mínima–La realización periódica
de mediciones sobre el terreno con un equipo
portátil es un método que se lleva a cabo
principalmente
en
instalaciones
muy
pequeñas. Se recogen algunos datos de la
información del fabricante (entrada de
alimentación, etc.). Para la aplicación de este
método no es necesario realizar ninguna
inversión en infraestructuras y en equipos de
medición instalados de manera permanente.
Supervisión avanzada–Los datos se registran
en tiempo real empleando equipos instalados de
manera permanente que no están apoyados
necesariamente por herramientas online. Es
posible que existan modificaciones limitadas a la
infraestructura.
Supervisión de tecnología punta–Los datos se
recopilan en tiempo real mediante el uso de
sistemas
de
registro
automatizados/
permanentes, con la ayuda de un software
online con gran capacidad de análisis. En la
mayoría de los casos, es necesario realizar
modificaciones en la infraestructura y recurrir a
la ayuda de personal técnico especializado.
El sistema de supervisión debe contener el
número adecuado de «nodos de información» (o
puntos de supervisión) para que puedan
proporcionar la información requerida y sea
posible realizar un análisis completo del
consumo de energía. En las instalaciones más
grandes la selección de los «nodos de
información» debería comenzar por los
subsistemas más representativos (por lo que se
refiere al consumo de electricidad). La Figura 1.1
muestra los subsistemas más importantes en los
que hay que supervisar el consumo de energía.
Estos subsistemas también se pueden
considerar «nodos de información» o «puntos de
supervisión».
•Capacidad para detectar problemas y
notificarlos a los operadores de los centros de
datos
Gastos
de inversión y amortización
•
Fig.1.1 Simple schematic with the key datac entre subsystems[Source:ASHRAE[2]].
6
La recopilación, el procesamiento y la evaluación
de datos es un proceso que habitualmente está
soportado por las herramientas de software. Por
ejemplo, el Save Energy Now Program
(Departamento de Energía de los Estados
Unidos) ha desarrollado una suite de
herramientas llamado «DC Pro». Esta suite de
herramientas proporciona un proceso de
evaluación, diversas herramientas para realizar
mediciones comparativas y rastrear el
rendimiento, así como una serie de
recomendaciones. Se puede conseguir de
manera
gratuita.
http://www1.eere.energy.gov/industry/datacenters
/software.html
OTROS EJEMPLOS DE
HERRAMIENTAS DE SOFTWARE
ÚTILES SON:
•Herramienta para el consumo de energía:
http://estimator.thegreengrid.org/puee
•Herramienta de información del PUE
www.thegreengrid.org/en/Global/Content/T
ools/PUEReporting
•Hoja de cálculo sobre estadísticas y
escalabilidad métrica del PUE
http://www.thegreengrid.org/library-and-
RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS
La comprensión adecuada de los objetivos generales para la supervisión de la energía es un
elemento esencial en el diseño de un concepto de supervisión efectivo.
Los objetivos más comunes pueden ser:
•Evaluación del consumo total de energía por parte de la tecnología informática y de la
infraestructura
•Análisis de la tendencia del consumo de energía a lo largo del tiempo
•Conocimiento de la demanda instantánea de energía por parte de los equipos clave de la
instalación
•Facturación
•Cálculo de los índices de eficiencia energética y de los indicadores de eficiencia
energética
El concepto software/hardware en la supervisión de la energía proporcionará las
siguientes capacidades (Fuente ASHRAE):
•Recopilación de datos fiables y almacenamiento de datos con la precisión y los índices
adecuados
•Normalización de los datos procedentes de diversos dispositivos, interfaces y protocolos
•Almacenamiento de datos durante largos periodos de medición
•Análisis y visualización de los datos en forma de tablas y gráficos
•Adaptación de la arquitectura a la expansión del centro de datos
tools.aspx?category=MetricsAndMeasurements&rang
e=Entire%20Archive&type=Tool
&lang=en&paging=All#TB_inline?&inlineId=sign_in
•Medición Eficiente de los Centros de Datos DCiE
Los aspectos más importantes que se deben tener en cuenta cuando se elijan los dispositivos del
sistema de supervisión son, entre otros, el alcance, la resolución y la precisión de los
instrumentos.
y del PUE
http://www.42u.com/measurement/pue-dcie.htm
7
Tab.1.1 Ejemplos de dispositivos de medición de la energía
Nombre
Ejemplo
Medidor portátil
Descripción
Métodos de supervisión
Los medidores portátiles de corriente abarcan una amplia gama de Supervisión mínima y
productos, que van desde los medidores múltiples manuales de una avanzada.
fase hasta los sofisticados analizadores de corriente trifásicos con
capacidad para registrar y activar. La mayoría de ellos incluyen una
pantalla integrada donde el usuario puede acceder a los datos
medidos o registrados.
Fuente:ChauvinArnoux
Medidor de panel
Los medidores de panel normalmente se encuentran
instalados de manera permanente en los sistemas UPS de
medición del conmutador, en los generadores o en otros
dispositivos. Estos medidores contienen una pantalla que
muestra las mediciones instantáneas y las variables
acumulativas, como el consumo total de energía. Se pueden
instalar para medir el consumo de energía general o individual
de los dispositivos.
Estos medidores se
pueden utilizar para la
supervisión más
práctica y de alta
tecnología.
Los medidores de facturación los utilizan habitualmente las
compañías eléctricas, los propietarios y otras personas que facturan
a sus clientes. Casi nunca se utilizan en sistemas de monitorización
de los centros de datos, pero pueden proporcionar datos acerca del
consumo general de energía de la instalación. En algunos casos,
las compañías eléctricas pueden proporcionar acceso al puerto de
comunicación digital, que ofrece la capacidad de adquirirla y
almacenarla en una base de datos, permitiendo así realizar un
análisis futuro (por ejemplo, cada 15 minutos).
Se puede utilizar en todos
los métodos.
FuenteChauvinArnoux
Medidor de
facturación
Fuente:Itron
Unidades
inteligentes de
distribución de
corriente
Fuente:Raritan
Medición de
corriente
integrada en el
servidor
Las unidades de distribución de alimentación (PDUs) inteligentes o
en rack proporcionan una medición activa que permite una
optimización de la energía y una protección del circuito. Las PDU
en rack proporcionan datos de consumo de energía que permiten a
los gestores de los centros de datos tomar decisiones informadas
sobre el equilibrio de la carga y el tamaño adecuado de los
entornos de la tecnología informática con el fin de reducir el gasto
total de la propiedad.
Los PDU pueden estar equipados con sistemas de control remoto
en tiempo real a nivel de unidad y con sistemas individuales de
salida que monitorizan la alimentación de corriente, la tensión, el
factor de potencia de energía y el consumo de energía (kWh) con
un grado de precisión en la facturación de ISO / IEC + / - 1%. Los
usuarios pueden acceder y configurar las PDUs en rack a través de
una página web segura, de SNMP o de interfaces Telnet
Medición de corriente integrada en el servidor
Transductor de
corriente
Se pueden emplear en
todos los métodos.
Supervisión mínima y
avanzada.
Normalmente llamamos transductor de corriente a un equipo sin
Se pueden utilizar en
pantalla que está conectado de forma permanente a un equipo de
todos los métodos.
conmutación, como los medidores de panel. Estos dispositivos a
menudo los utilizan los sistemas de supervisión para conseguir
mediciones de corriente procedentes de varios puntos del centro de
datos.
Fuente:ChauvinArnoux
8
1 La supervisión del consumo de energía en las salas de servidores
y en los centros de datos
1.2 Dispositivos de
medición
Lecturas recomendadas
Se puede encontrar una gran diversidad de tipos de
dispositivos de medición para computar algunas
variables esenciales, como el consumo de energía, la
temperatura, el caudal de salida y la humedad.
ASHRAE (2010): Mediciones de Consumo en
Tiempo Real en Centros de Datos, ASHRAE–
Sociedad americana de Calefacción, Refrigeración
e Ingenieros de Aire acondicionado,2010.
ISBN:978-1-933742-73-1
En la tabla 1.1 se recogen algunos ejemplos de
dispositivos para la medición de energía (en la
página 8, izquierda).Si desea más información,
consulte las fuentes que se indican en la siguiente
sección o acuda al «Informe sobre Evaluación de la
Energía» que podrá encontrar en la página web de
PrimeEnergyIT.
Stanley, J. y Koomey, J.: The Science of Measurement: Improving Data Centre Performance with
Continuous Monitoring and Measurement of Site
Infrastructure, Stanley John and Koomey Jonathan,
octubre de 2009
www.analyticspress.com/scienceofmeasurement.html
Ton, M. y otros (2008): DC Power for Improved
Data Centre Efficiency, Ton, My, Fortenbery, Brian and
Tschudi, William, Ecos Consulting, EPRI, Laboratorio
Nacional Lawrence Berkeley, marzo 2008
http://hightech.lbl.gov/documents/data_centres/dcdemofi
nalreport.pdf
The Green Grid (2008): Green Grid Data Centre
Power Efficiency Metrics. Libro Blanco #6, The Green
Grid, Libro Blanco #6. 30 de diciembre, 2008
http://www.thegreengrid.org/Global/Content/
white-papers/The-Green-Grid-Data-Centre-PowerEfficiency-Metrics-PUE-and-DCiE
Rasmussen N. (2009): Determining Total Cost
Of Ownership for Data Centre and Network Room
Infrastructure, Neil Rasmussen, APC de Schneider
Electric, Libro Blanco #6 – Revisión 4
http://www.apcmedia.com/salestools/
CMRP-5T9PQG_R4_EN.pdf
Rasmussen N. (2010): Avoiding Costs From
Oversizing Data Centre and Network Room
Infrastructure, Neil Rasmussen, APC de Schneider
Electric, 2010. Libro Blanco #37–Revisión 6
http://www.apcmedia.com/salestools/SADE5TNNEP_R6_EN.pdf
Schneider Electric (2011): Página web de
aprendizaje electrónico (EnergyUniversity) que
proporciona la última información y formación sobre
conceptos y mejores prácticas sobre eficiencia
energética.
www.myenergyuniversity.com
Webinar: The Data Centre in Real Time: Moni- toring
Tools Overview & Demon“
http://www.42u.com/webinars/Real-TimeMeasurement-Webinar/playback.htm
Referencias
[1]Stanley, J. y Koomey, J. (2009): The Science
of Measurement: Improving Data Centre
Performance with Continuous Monitoring and
Measurement of Site Infrastructure. Octubre de
2009.
[2]ASHRAE
(2010): Mediciones
de
Consumo en Tiempo Real en Centros de Datos,
ASHRAE– Sociedad americana de Calefacción,
Refrigeración e Ingenieros de Aire acondicionado,
2010.
ISBN:978-1-933742-73-1.
9
2 Equipos servidores
Bernd Schäppi, Thomas Bogner, Hellmut Teschner, Austrian Energy Agency
,
Los equipos servidores consumen aproximadamente el 30–40%
de
la
energía que se utiliza en los centros de datos y en las salas de servidores.
Por tanto, es una de las áreas principales donde se deben aplicar medidas
efectivas de ahorro de energía. Los equipos habituales de un servidor en las
salas de servidores y en los centros de datos más comunes incluyen
servidores en rack, servidores en blade, así como servidores de pedestal y
servidores multinodo.
La capacidad de eficacia energética es alta y, dependiendo del tipo de
2.1 Eficiencia energética y
gestión de la energía en el
servidor y a nivel del
componente
sistema de la tecnología informática y de las medidas que se apliquen, se
puede conseguir un ahorro de energía del 20-60% o incluso más. Los
métodos principales para mejorar la eficiencia energética son realizar una
selección del hardware que sea energéticamente eficiente, una gestión de la
energía a todos los niveles, desde el componente de hardware hasta el
sistema en su totalidad y, por último, aunque no menos importante, una
consolidación y virtualización del hardware.
El siguiente capítulo proporciona información sobre tecnologías que ahorran energía y
ofrece una serie de opciones que abarcan desde el componente y hasta el nivel del
sistema. Los problemas de eficiencia energética y las posibles medidas para mejorarlos
se proporcionan desde el servidor hasta el nivel del rack y del centro de datos. Incluye
dos secciones específicas que tratan sobre la tecnología del servidor en blade y la
virtualización del servidor como posibles estrategias eficientes. En los cuadros se
incluyen algunas recomendaciones específicas sobre las opciones más destacadas.
Tab.2.1 Energy Star Idle Power Criteria
C
a
tegumberof
installed
p
r
o
c
e
s
s
o
r
s
Tab.2.2 Concept of SERT assessment tool
10
ManagedserverBa
seIdleW)
La eficiencia energética de los servidores ha
mejorado notablemente en los últimos años, debido
principalmente al desarrollo de una gestión efectiva
de la energía respecto a los componentes de
hardware. En la actualidad, la eficiencia energética
del servidor se evalúa y se declara en base a los
requisitos de la Energy Star y a los parámetros
energéticos de la SPEC (SPEC: Corporación de
Evaluación y Funcionamiento Estándar).
Los requisitos actuales de la ENERGY STAR en
cuanto a los servidores de las empresas [1]
estipulan cuáles son los criterios de eficiencia
energética para los servidores en rack y de
pedestal que contienen hasta 4 zócalos de
procesadores. Los requisitos definen cuáles son los
niveles máximos de consumo de energía en Modo
Inactivo para servidores socket de 1 y 2 CPU, así
como los criterios para alcanzar la eficiencia en el
suministro eléctrico y las características de la
gestión de la energía (véase Tabla 2.1 y Tabla 2.4).
Los criterios que se establecen en el modo inactivo
son principalmente útiles, ya que son un indicador
eficiente para las condiciones medias de carga baja
próximas a la operación inactiva. Estas cargas
bajas en los servidores (por ejemplo <15%) todavía
son muy comunes, aunque el objetivo general
debería ser la consolidación del hardware para
conseguir niveles de carga más elevados.
La eficiencia energética del servidor en cargas de
trabajo superiores y en los sistemas consolidados
aparece reflejada en la cota energética de referencia
del SPEC, aunque se concentra más en la eficiencia
relacionada con la CPU y con las cargas de trabajo
intensas de la CPU (véase información abajo). En la
actualidad, la SPEC está desarrollando una
Herramienta de Evaluación de la Eficiencia del
Servidor (SERT) que abarca todos los componentes
principales del hardware del servidor [2] y estará
disponible en invierno 2011/2012. La herramienta
SERT podrá evaluar la eficiencia del servidor
basándose en diversas referencias parciales de la
CPU, de la memoria, del almacenamiento y del
sistema (Tabla 2.2). Esta herramienta ayudará a los
gestores de la tecnología informática a la hora de
seleccionar un hardware que sea energéticamente
eficiente para las aplicaciones específicas
La SPECpower_ssj2008 [2] fue la primera
referencia estándar que realizaba una evaluación
de la eficiencia energética de los servidores de
volumen. Esta referencia señala principalmente a
la eficiencia de las CPU y, de ese modo,
proporciona una buena evaluación respecto a las
cargas de trabajo intensivas de las CPU.
Sin embargo, esta referencia solo la publican los
fabricantes de cierto hardware específico. La Figura
2.1 presenta un ejemplo de los resultados de
SPECpower en un servidor de volúmenes. El típico
gráfico SPEC proporciona información sobre el
rendimiento medio por vatio a lo largo de una serie
de cargas, así como diversos valores para los
diferentes niveles de carga. De ese modo, los
servidores se pueden comparar según los distintos
niveles de carga, desde un estado inactivo a un
rendimiento del 100%. Cuando se desee adquirir
uno, se debería solicitar a los proveedores toda la
información completa de SPECpower (que también
contiene
información
detallada
de
su
configuración). Además, se debería tener en cuenta
que los productos muchas veces se examinan en
configuraciones bajas.
Powerconsumptionline
LoadPerform
scale (f
4 Fig.2.1 SPEC power diagram and key information
Recomendaciones para las mejores
prácticas
Criterios de eficiencia energética y referencias para la
selección del hardware
•Si fuera posible, utilice los criterios de referencia de Energy
Star para la adquisición de un servidor. En los casos de los
servidores que operan en cargas bajas, los requisitos de
Energy Star Versión 1 para el modo inactivo pueden servir
como indicadores razonables de la eficiencia. Se pueden
utilizar los requisitos para el suministro de electricidad en
cualquier tipo de equipo.
•Solicite a los fabricantes la referencia SPECpower_ssj2008(y
la SPEC-SERT en cuanto esté disponible). Por lo que se refiere a
SPECpower, debe tener en cuenta los siguientes
puntos:
■ Es una referencia que se concentra en la CPU y, por tanto,
representa principalmente a las cargas de trabajo intensas de
la CPU.
■ Los servidores pueden haber sido examinados en una
configuración muy baja (por tanto, compruebe la
configuración).
■ Para llegar a una interpretación robusta, no solo debe tener
en cuenta la puntuación general (operaciones totales por
vatio), sino también los datos de referencia detallados.
11
2.1.1 La eficiencia de la CPU
Las CPUs son los componentes de los servidores que
consumen más energía. Por tanto, los modelos de
CPU energéticamente eficientes que tengan una
gestión efectiva de la energía pueden ayudar
enormemente a alcanzar dicha eficiencia.
El consumo de energía de la CPU depende del voltaje
específico y de la frecuencia del reloj. La gestión de la
energía en la CPU o al nivel del núcleo se basa, por
tanto, en el Voltaje Dinámico y Escalamiento de la
Frecuencia (DVFS) o en el apagado de los núcleos. El
consumo de energía de las CPUs muchas veces se
compara en base a la Potencia de Diseño Térmico
(TDP) que indica la potencia máxima que necesita
disipar un sistema de refrigeración en un servidor. Sin
embargo, la TDP solo proporciona información
limitada, ya que la eficiencia total también depende en
gran medida de la gestión de la energía. Los
fabricantes ofrecen versiones específicas de CPUs de
baja potencia que en la práctica permiten realizar un
ahorro notable de energía, siempre y cuando se
puedan cumplir los requisitos de rendimiento.
La eficiencia energética de las CPUs depende en
gran medida de la implementación efectiva de la
gestión de la energía. Los sistemas operativos
comunes soportan la gestión de la energía en base a
las especificaciones de la
■«Alto
rendimiento» (adecuado para
servidores que funcionan en un nivel de
utilización muy elevado y necesitan
proporcionar un rendimiento máximo,
independientemente del gasto de energía)
■«Modo ahorro de energía»/«Uso mínimo
de energía»(aplicado a servidores que
funcionan a niveles de utilización bajos y
tienen más capacidad de rendimiento de lo que
realmente necesitan. El uso de este modo
puede proporcionar un incremento en el ahorro
de energía)
■« Potencia y rendimiento equilibrado»
G7(3.07GHz,IntelXeonX5675)
1,000
2,000
3,000
Performance to Power Ratio
4,000
0
250
4,020
4,073
100%
1,214
90%
90%
1,135
80%
4,003
80%
1,049
70%
3,853
70%
951
60%
3,653
60%
854
50%
3,285
50%
738
40%
2,829
40%
620
30%
2,305
30%
484
20%
1,681
20%
335
10%
955
10%
175
Active
Idle
500
750
1,000
1,250
734overallssj_ops/watt
3,197overallssj_ops/watt
100%
Respecto a la configuración del hardware a la
hora de su adquisición, es importante comprobar
los requisitos de rendimiento concretos que
deben cumplir los componentes de hardware.
G5(2.66GHz,IntelXeonL5430)
Performance to Power Ratio
0
La figura 2.2 muestra los efectos positivos de la
gestión de la energía de la CPU moderna en
resultados de referencia (SPECpower) para el
servidor familiar HP Pro- Liant DL 380: la
proporción de potencia inactiva se ha reducido
notablemente de la generación G5 a la G7 de
este modelo de servidor específico. En el caso
del servidor DL 380, la potencia inactiva (sin
carga) fue un 33% (170 vatios) más baja que
cuando funcionaba a plena carga (253 vatios).
En el caso del G7, es aproximadamente un
75% inferior que cuando funciona a máxima
potencia. Esto demuestra que la tecnología del
nuevo servidor es mucho más eficiente desde
el punto de vista energético cuando se
encuentra en carga baja o en operación
inactiva, gracias a la gestión de la energía a
nivel de CPU. Por otra parte, el rendimiento del
ordenador en el modelo de servidor específico
ha aumentado de manera notable.
Interfaz Avanzada de Configuración y Energía
(ACPI) para estados de rendimiento de los
procesadores y consumo de potencia (P-states) y
estados de gestión térmica (C-states). Los nuevos
controles del sistema y de los componentes
permitidos por ACPI Vs 3 proporcionan unos
motores de gestión de la energía de nivel superior
que permiten un ajuste más nítido de la potencia y
del rendimiento basándose en la demanda. En
muchos modelos de servidor recientes se pueden
aplicar perfiles de potencia predefinidos. Por
ejemplo:
Active
Idle
0
25
50 75 100 125 150 175 200 225
Average Active Power(W)
0
50
100
150
200
Average Active Power(W)
250
Fig.2.2 Example of SPEC power-benchmark for different server generations (G5, G7 Server from HP) [SPEC(2010,www.spec.org)]
12
2 Equipos servidores
Los diversos tipos de cargas de trabajo del
servidor definen una serie de requisitos distintos
relacionados con el rendimiento del hardware
que se deben tener en cuenta para lograr una
configuración eficiente del hardware. En la Tabla
2.3 se muestra un indicio aproximado de los
requisitos de rendimiento del hardware en las
diversas cargas de trabajo.
2.1.2 Eficiencia de la fuente de alimentación
El programa Energy Star para servidores [1] ha
establecido una serie de requisitos sobre la
eficiencia de la fuente de alimentación que
define niveles para cargas del 10%, 20%,
50% y 100%. El 80 PLUS Certification Scheme
[80PLUS] también establece una serie de requisitos
de eficiencia energética para la fuente de
alimentación de los servidores, pero excluye el
nivel de carga del 10%.
A efectos prácticos y de contratación, se
recomienda pedir fuentes de alimentación que
alcancen el menos el nivel 80 PLUS Gold, que se
corresponde con el 88% de eficiencia a una carga
del 20% y con un 92% de eficiencia a una carga
del 50%.
Los servidores rack estándar, que normalmente
operaban a cargas bajas, a menudo están
equipados con fuentes de alimentación
redundantesy excesivamente provisionadas. Esto
da lugar a una importante pérdida de energía
debido a la existencia de un punto de operación
muy bajo del equipo. Por tanto, es esencial
contar con una fuente de alimentación de
tamaño adecuado.
Para ello, se puede contar, por ejemplo, con la
ayuda de las herramientas de configuración
online ofrecidas por los fabricantes y con
herramientas para realizar una evaluación de la
limitación de energía.
Algunos fabricantes (por ejemplo, las series de
servidores HP ProLiant G6 y G7) proporcionan
características de hardware específicas que permiten
superar las pérdidas innecesarias en las fuentes de
alimentación redundantes. Este tipo de hardware
ofrece un modo de operación que soporta el uso de
una sola fuente de alimentación hasta que la carga
sobrepase cierto umbral. La segunda fuente de
alimentación permanece inactiva, manteniendo la
redundancia. Este modo proporciona una
redundancia a plena potencia en caso de que se
produzca un fallo en la fuente de alimentación o en
un circuito.
Tab.2.4 Efficiency requirements for power supplies in the Energy Star programme and the 80 PLUS initiative
PowerSupplyTypRatedOutputer
13
2.2 La gestión de la energía
en el rack a nivel del centro de
datos
Yendo más allá de los componentes de hardware
y las unidades de servidores, la administración de
energía a nivel del sistema también es importante
para optimizar la eficiencia energética.
Como ya indicamos anteriormente, la mayoría de
los servidores se utilizan con cargas de trabajo
modestas y, por tanto, existe un enorme
potencial de ahorro de energía que se logra
mediante la consolidación del hardware (véase
el capítulo siguiente) o mediante la gestión de la
energía a nivel del sistema. En cuanto al nivel de
los componentes, la gestión de la energía en los
niveles superiores ajusta el rendimiento y el
consumo de energía a la demanda real y se
apaga o desactiva los recursos si no son
necesarios. La Tabla 2.5 muestra los diversos
métodos de gestión de la energía a diferentes
niveles [WP TGG 33]. Algunas de las opciones
se detallan en las secciones siguientes y en los
últimos capítulos.
2.2.1 Planificación de la capacidad y
gestión de la energía
El software de administración del servidor
proporciona herramientas esenciales para un
funcionamiento seguro del servidor, pero también
para la gestión holística de la energía. Las
herramientas de administración del servidor
pueden ayudar a reducir eficazmente el consumo
de energía, ya que facilitan la implementación de
las políticas de energía a través del sistema de
servidores y proporcionan funciones como
aprovisionamiento, supervisión y administración
de la configuración que pueden servir de gran
ayuda a la eficiencia del sistema. Las principales
características comunes son:
• aprovisionamiento
• supervisión
• despliegue
• administración de la configuración
• actualización de control
• gestión de la energía
• gestión de la carga de
trabajo
Todos los proveedores de hardware más
importantes ofrecen potentes herramientas de
administración del servidor. IBM (Systems Director)
y HP (Systems Insight Manager, incluyendo Insight
Dynamics) ofrecen una amplia serie de soluciones
de gestión capaces de integrar los sistemas de
terceros. Fujitsu (Server ViewSite) ofrece productos
con funcionalidades básicas que se pueden integrar
en las consolas de administración establecidas de
otros proveedores. DELL está utilizando el Altiris
Total Management Suite. Sun y Acer ofrecen
consolas procedentes de sus propios entornos.
Suites de Gestión de la Energía (por ejemplo, IBM
Energy Manager)
Entre muchas otras características, este tipo de
herramienta soporta una supervisión y recopilación
de datos sobre el consumo de energía, una gestión
de energía incluyendo el establecimiento de
opciones de ahorro de energía y limitación de
potencia, así como una automatización de las
tareas relacionadas con la energía. Esta última
incluye la configuración de dispositivos de
medición tales como las PDU y los sensores, el
establecimiento de los umbrales, la creación y el
ajuste de las políticas de energía, el cálculo de los
costos de energía. Para más información sobre
suites de gestión de energía, consulte más abajo.
Tab.2.5. Power management options from component to data centre level
Component Level
System Level
•S-states
•CPU (Package/core C-states,
•Platform-based power management
P-states,T-states,Thermal throttle)
•Other components (D-states,L-states) •Workload schedulers
•Fan speed control
14
Rack Level
Data centre Level
•System or node management
•Application / load balancing
•Chassis management
•Application / load balancing
•Facilities and equipment monitors
•Data de-duplication,etc.
•Multi-rackmanagement,dynamic
consolidation
2 Equipos servidores
Herramientas de planificación de la
capacidad
(por ejemplo, HP Capacity Planner)
Los planificadores de capacidad, entre otras
características, ayudan a los administradores de la
tecnología informática mediante una utilización
cada vez mayor del servidor, lo que reduce el
consumo de energía y mejora el rendimiento de la
aplicación. Permiten la recopilación de datos de
utilización de núcleos de CPU, memoria, red, disco
I/O y potencia. Además, ayuda a llevar a cabo la
planificación de la carga de trabajo o los cambios
en el sistema y a realizar la evaluación del impacto
en la utilización de recursos. También evalúa las
tendencias para predecir las necesidades de
recursos. Para más información sobre las
herramientas de planificación de la capacidad,
véase más abajo.
Basándose en los registros de utilización, la
herramienta de HP, por ejemplo, proporciona una
buena base sobre la que aplicar medidas de
consolidación mediante la evaluación de la demanda
de recursos para aplicaciones combinadas. La Figura
2.3 muestra el ejemplo de una comparación de la
utilización de dos sistemas donde se indica que se ha
alcanzado el pico de rendimiento máximo en
diferentes momentos y la carga media sólo
aumentaría moderadamente en caso de que se
produjera una consolidación del hardware.
3,0
2,5
2,0
Peak utilization of system 2
Peak utilisation of system 1
1,5
1,0
0,5
0,0
21Feb
28Feb
6March
13March
Time
System1
System2
Allocation
Fig.2.3 Comparison of CPU utilization for “system 1” and “system 2”
15
2.2.2 Limitación de la energía
La asignación activa de una capacidad de
alimentación se conoce como limitación de la
energía. Los administradores de la tecnología
informática pueden especificar límites de energía
a los servidores dependiendo de las necesidades
de potencia real. Una limitación dinámica de la
energía reduce la demanda máxima de potencia
del sistema y, por tanto, optimiza el suministro de
energía más allá del nivel normalmente soportado
por los configuradores de energía que ofrecen los
fabricantes.
Los ahorros concretos conseguidos en la práctica
dependen del nivel de limitación. Las limitaciones
se deberían fijar de tal manera que los picos de
potencia se limiten pero el rendimiento de
computación no se vea visiblemente afectado.
Una limitación optimizada precisa de una
evaluación de la carga de trabajo y del patrón de
consumo de potencia. En cuanto a las cargas de
trabajo relativamente uniformes, se pueden
establecer limitaciones en la carga media del
servidor sin que ello afecte significativamente a su
rendimiento. Como regla general, las limitaciones
no deben ser inferiores a un término medio entre
el consumo de energía mínimo y máximo de los
servidores. Algunas herramientas de gestión
también ofrecen la opción de especificar el tiempo
de limitación que define diversas limitaciones
durante distintos períodos del día, dependiendo
del patrón de carga, del gasto de electricidad, etc.
RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS
2.3 Opciones específicas para
la gestión de la energía en los
servidores blade
La tecnología de servidores blade se ha
implementado tanto en los centros de datos como
en las salas de servidores. El mercado de
servidores blade ha sido el segmento de mercado
de más rápido crecimiento en los últimos años y por
ello es importante que la tecnología sea lo más
eficiente posible. Los chasis en blade (véase la
Figura 2.4.) suelen incluir 7, 14 o más módulos de
servidor en blade, uno o más módulos de gestión,
así como interfaces de KVM. Los chasis soportan
módulos de servidor, de almacenamiento y de red y
pueden ser optimizados para tipos de usuarios y
aplicaciones específicas. En comparación con los
servidores en rack estándar, la tecnología blade
permite la reducción de algunos componentes de
hardware, como fuentes de alimentación, redes I/O
y cableados que son compartidos por varios
servidores en el compartimento común.
justifiquen el gasto financiero y ambiental.
Planificación y gestión de la energía continua eficiente
• Utilice las herramientas de administración del servidor para la planificación de la capacidad, para
supervisar la carga de trabajo y la potencia y para la gestión específica de la energía. Las descripciones y
las recomendaciones detalladas sobre el uso de las funciones de la gestión de la energía se suministran
con la documentación técnica que se recoge en las suites de administración del servidor.
• Utilice la función de equilibrio de carga y de la aplicación para optimizar el uso de los recursos de
hardware.
• Use la limitación de potencia para mantener la demanda de energía en los niveles deseados dentro de
todo el sistema.
• Aproveche los niveles óptimos de versatilidad del hardware de tecnología informática. Evalúe el nivel de
versatilidad de hardware justificado teniendo en cuenta las repercusiones que se esperan para la
empresa como consecuencia de las incidencias en el servicio que se puedan producir en cada servicio
desplegado.
• Retire los servicios no utilizados y elimine completamente el hardware. Analice las opciones que existan de
eliminar servicios de valor empresarial bajo mediante la identificación de aquellos servicios que no
Fig.2.4 Blade chassis
16
Las principales ventajas de los sistemas en blade
son:
• Alta densidad de computación y poca demanda de
espacio
• Reducción del tiempo de mantenimiento y
actualización del sistema gracias a la sustitución
con conexión en caliente de los módulos y de las
funciones de gestión integrada
• Una eficiencia energética ligeramente superior en
comparación con los servidores en rack, siempre y
cuando se haya optimizado la gestión de la energía
y de la refrigeración
Fig.2.5 Dual-node blade server
2 Equipos servidores
Sin embargo, si se implementan blades de alta
densidad, eso se traducirá en una fuerte demanda
de infraestructura y refrigeración. Una densidad
de computación elevada aumenta la densidad de
potencia hasta los 10-25 kW/rack. En
consecuencia, el nivel estándar de refrigeración
en los centros de datos y salas de servidores a
menudo no es suficiente y será necesario
establecer unos conceptos específicos de
refrigeración. Por tanto, la eficiencia energética de
una solución en blade también depende en gran
medida del diseño general del sistema.
Los conceptos de nodo doble y multinodo en parte
se basan en una filosofía parecida a la de los
servidores blade. En el concepto de multinodo, se
combina un número fijo de unidades de servidor
(normalmente 2 ó 4) en un chasis montado en
rack. Los servidores, que son parecidos a los
blades, comparten fuentes de alimentación y
ventiladores, aunque existen algunas opciones de
expansión. De ese modo, la tecnología multinodos
es un método que sirve para implementar una
densidad de computación superior a un precio
comparablemente bajo, a menudo diseñado para
pequeñas
y
medianas
empresas.
Sin embargo, también se pueden encontrar
servidores especiales de nodo doble y alto
rendimiento, por ejemplo, en sistemas blade
que combinan dos nodos de servidor en un
blade. Los principales beneficios de los
sistemas estándar de nodo doble y múltiple
son:
• Menor coste y demanda de espacio en
comparación con los servidores estándar en rack
• Un consumo de energía ligeramente inferior
gracias a la posibilidad de compartir fuentes de
alimentación y ventiladores
2.3.1 Chasis en blade y componentes en
blade
Las fuentes de alimentación más grandes suelen
ser más eficientes. Por tanto, la aplicación de un
menor número de fuentes de alimentación más
grandes en los sistemas blade puede aumentar la
eficiencia energética en comparación con los
servidores de rack. Sin embargo, la eficiencia en la
práctica depende también de la demanda de
energía en relación con la capacidad de la fuente de
alimentación. La figura 2.6 muestra la curva de
eficiencia de una fuente de alimentación de platino
[80PLUS 2011] de 2990 W de potencia nominal de
un chasis en blade que indica una eficiencia de
entre el 92% y 95% en toda la gama de carga. Las
fuentes de alimentación eficientes para los blades
deben alcanzar niveles de eficiencia energética
superiores al 90%, entre el 20% y el 100% de carga.
En el caso de los productos de servidores blade
y multi-nodo de nueva generación, algunos
fabricantes ofrecen varios modelos de fuente de
alimentación con una potencia nominal diferente
que permiten el correcto dimensionamiento,
dependiendo de la demanda de potencia. La
selección de la fuente de alimentación es
compatible con los configuradores de potencia.
En principio, la existencia de menos fuentes de
alimentación y más eficientes, de ventiladores
más eficientes y la posibilidad de ampliar las
opciones de gestión de la energía en el chasis
blade ofrecen una mayor eficiencia energética en
comparación con los servidores en rack. Sin
embargo, en la práctica, la eficiencia depende en
gran medida de la configuración del chasis, así
como del uso que se haga de las opciones de
administración.
Efficiency of the Power Supply
100%
90%
80%
70%
60%
50%
40%
30%
RECOMENDACIONES PARA LAS MEJORES
PRÁCTICAS
Selección de tecnología en blade basándose en unos criterios de
decisión claros
0%
25%
50%
75%
100%
125%
Loading (%o fRated Output Power)
Fig.2.6 Blade power supply efficiency
• Definir y evaluar las principales razones para implementar la tecnología blade en el
centro de datos. Por ejemplo, restricciones de espacio.
• Evaluar los beneficios que se esperan en comparación con la tecnología en rack
y comprobar si las expectativas son realistas.
• Comprobar si la virtualización puede ser una solución alternativa, teniendo en cuenta los
objetivos definidos.
• Evaluar el coste total de propiedad (TCO) esperado y la eficiencia energética en
comparación con otras opciones (en base a la información proporcionada por los
proveedores).
17
Dell M610 Blade server
R6101U rack server
Performance to Power Ratio
1,000
0
2,000
Performance to Power Ratio
3,000
4,000
0
3,093 overallssj_ops/watt
1,000
2,000
3,000
4,000
2,938overallssj_ops/watt
100%
3,885
100%
3,739
90%
3,911
90%
3,725
80%
3,873
80%
3,697
70%
3,733
70%
3,572
60%
3,502
60%
3,337
50%
3,158
50%
2,999
40%
2,754
40%
2,623
30%
2,255
30%
2,125
20%
1,653
20%
1,549
10%
940
10%
868
Active
Idle
Active
Idle
0
1,000
2,000
3,000
4,000
Average ActivePower (W)
0255075100125150175200225250
Average ActivePower (W)
Fig.2.7 SPECpower_ssj2008 for a Dell M610 Blade server and R6101U rack server. The blade system includes 16
blades with identical processor configuration as the rack server (2xIntelXeon5670, 2.93GHz).SPEC (2010,www.spec.org)
El chasis que está configurado con sólo unos cuantos
blades será, sin ninguna duda, menos eficiente,
debido a la sobreprestación de la capacidad de
refrigeración, de potencia y de red.
Para realizar una comparación aproximada de la
eficiencia energética de los servidores en blade,
se puede tener en cuenta un sistema
plenamente configurado en blade. En la figura 2.7
aparece esta comparación aproximada basada en
los datos de eficiencia energética publicada por
Dell. En 2010, esta compañía ha publicado datos
SPEC-power (SPECpower_ssj2008) de sistemas
en blade y de servidores en rack comparables
(www.spec.org).
Los resultados SPEC muestran un rendimiento
máximo de 3.885 ops/vat en el sistema de servidor
en rack,
lo cual indica que el rendimiento por vatio o la
eficiencia energética en carga máxima es un 4%
mejor en el sistema en blade que en la solución
en rack. La diferencia aumenta hasta
aproximadamente un 8% en las cargas bajas
(10% de carga) y a un 11% en un estado de
operación inactiva.
Aunque esta sencilla comparación no se debe
interpretar con demasiado optimismo (ya que
SPECpower solo analiza una parte de la
eficiencia del servidor), sugiere que los sistemas
en blade, incluso cuando están configurados
plenamente y optimizados para su análisis, solo
muestran una eficiencia energética ligeramente
mejor que los servidores en rack estándar,
especialmente en cargas elevadas. La
diferencia es todavía más significativa en los
niveles de carga baja que indican una gestión
de la energía total mejorada en el sistema en
blade con baja carga.
Por tanto, las soluciones en blade parece que
ofrecen únicamente una capacidad limitada para
incrementar la eficiencia energética si la
comparamos,
por ejemplo, con la virtualización. Asemejándose
a los servidores en rack, también existe la opción
de combinar el hardware en blade con la
virtualización, lo cual permite alcanzar una notable
mejora en la eficiencia energética.
Las dificultades relacionadas con las densidades de
calor elevado en el rack y a un nivel inferior se
detallan más adelante, en la sección 2.3.2. Los
chasis en blade modernos contienen un
hardware y un software de administración que,
en combinación con los controladores de
acceso remoto en los servidores en blade,
permiten realizar un inventario de la potencia y
una gestión de la potencia de cada uno de los
blades. Las tarjetas de administración
específicas soportan un hardware y un
inventario de la demanda de energía de los
diferentes blades. El controlador de acceso
remoto transmite la información de la potencia
prevista a la tarjeta de gestión del chasis que
confirma la disponibilidad de potencia
procedente del nivel del sistema, basándose
2 Equipos servidores
RECOMENDACIONES
PARA LAS MEJORES
PRÁCTICAS
Considerar los criterios de contratación en la
selección de un hardware en blade
energéticamente eficiente
en un recuento de la potencia total del chasis. El
CMC puede establecer políticas de energía a
nivel del sistema y el consumo real en cada
módulo de servidor se controla asegurando
que el consumo de potencia instantánea no
exceda de la cantidad establecida.
Las funciones básicas de la gestión de energía en
el modo automático normalmente no son visibles
para el administrador del sistema. Sin embargo, las
prioridades de cada módulo del servidor también se
pueden configurar manualmente seleccionando,
por ejemplo, que los blades de menor prioridad
sean los primeros en entrar en cualquier modo de
ahorro de energía.
En el chasis en blade, se puede utilizar la
limitación dinámica de potencia, incluso de forma
más eficaz que en los servidores de rack
estándar, ya que la limitación de potencia
dinámica se puede especificar a través de varios
servidores. Se pueden fijar límites de potencia de
manera dinámica ajustados por el administrador y
por el procesador de servicios. Los blades que
operan con cargas de trabajo más ligeras reciben
menores limitaciones. Como la intensidad de la
carga de trabajo y la dinámica normalmente son
diferentes en los distintos blades, se alcanzan los
picos de potencia en momentos distintos.
En consecuencia, el límite global del chasis
puede ser inferior en comparación con la suma
de los límites individuales de cada blade. HP ha
calculado el ahorro de energía y la reducción de
coste total de propiedad en un centro en blade,
donde el diseño del suministro de energía se basa
en la limitación de la potencia.
El gasto de aprovisionamiento de energía y de
potencia máxima se redujo aproximadamente un
20% en comparación con la estrategia donde no
se aplicaba una limitación de la potencia
[HP2011].
Definetheworkloadsandexpected•Definir
los
niveles
carga de trabajo y de carga •Definir las
cargas de trabajo y los niveles de cargas de
trabajo esperados que se deben ejecutar en
los sistemas blade.
• Comparar los costes y la eficiencia
energética de los sistemas en blade de los
distintos proveedores.
• Solicitar a los proveedores información
respecto a los productos.
■ El Coste Total de Propiedad (TCO).
■ La eficiencia energética global (por
ejemplo, SPECpower_ssj2008,
SPEC-SERT
en
cuanto
estén
disponibles).
■ Los componentes de hardware con
eficiencia energética como, por ejemplo,
eficiencia y tamaño correcto de las
fuentes de alimentación.
■ Las herramientas de gestión que
permitan
especialmente
una
administración de la energía y una
optimización del diseño del sistema.
• Seleccionar equipos de energía que
ofrezcan la mayor eficacia según los
tipos de carga de trabajo y los niveles
que quiera alcanzar y según las
opciones adecuadas de gestión de la
energía.
2.3.2 Sistema en blade: problemas de
energía y enfriamiento
En la práctica, el diseño de sistemas de
servidores en blade eficientes es a menudo un
desafío subestimado, sobre todo si se aplican los
grandes sistemas de alta densidad. Los
principales desafíos son:
• Una capacidad de enfriamiento suficiente y un
diseño de refrigeración adecuado para hacer
frente a las densidades de alta temperatura
• Una capacidad de potencia y una distribución
suficientes (la capacidad de la PDU local, el
cableado de alimentación, etc.)
Los conceptos tradicionales de refrigeración a
menudo sólo permiten 2-3kW/rack, que es 10
veces menor que la potencia de un rack en blade
completamente lleno. Esto significa que los
conceptos estándar de refrigeración de los
centros de datos y las salas de servidores a
menudo no son apropiados para los sistemas en
blade más grandes y tienen que ser modificados.
RECOMENDACIONES PARA LAS
MEJORES PRÁCTICAS
El uso de las herramientas de gestión para optimizar la
eficiencia energética de los sistemas en blade
• Utilice las herramientas de gestión y los dispositivos
de red y de potencia inteligentes para supervisar el
consumo de energía y de la carga en su sistema
en blade.
• Analice todas las opciones para equilibrar y
gestionar las cargas y el consumo de energía
dentro y a través del blade, de los chasis y de los
bastidores.
• Use la limitación de potencia o las funciones de
equilibrio de la energía del chasis en blade.
• Haga una estimación de primer orden de la
demanda de capacidad de alimentación /
refrigeración basándose en las calculadoras de
energía que ofrecen los fabricantes
La Tabla 2.6 muestra las opciones más
habituales para el diseño de las distintas
densidades de blade en función de los
requerimientos de la empresa y de limitaciones
tales como la capacidad de infraestructura y de
refrigeración. Los distintos niveles de densidad de
los blade permiten las siguientes opciones
respecto a los conceptos de refrigeración
[Rasmussen 2010]:
• Dar a conocer la carga de calor del chasis en
blade en los distintos racks: los chasis en blade
individuales están montados en diversos racks
para difundir la carga de calor. Por este concepto,
el porcentaje de chasis en blade respecto a la
totalidad del sistema tiene que ser muy bajo.
• Dedicar la capacidad de enfriamiento: El exceso
de capacidad de refrigeración está dedicado
específicamente a los blades. Además, en este
método, el porcentaje de blades que haya en el
sistema tiene que ser relativamente bajo, ya que
sólo se utiliza la capacidad de refrigeración
existente.
• Instalar un sistema de refrigeración
suplementaria: se proporciona refrigeración
adicional para racks en blade. La densidad de
potencia por rack puede alcanzar los 10 kW. Este
método permite una buena utilización del espacio
y una eficiencia elevada.
• Definición / diseño de un área de alta
densidad: hay un área específica en el centro
de datos que está dedicada a los blades (Línea
o zona de alta densidad). Alta eficiencia y una
elevada utilización de espacio. Densidad de
hasta 25 kW. El área tiene que ser planificada y
rediseñada.
• Diseño del centro de alta densidad: racks en
blade de alta densidad en todo el centro de
datos. Un enfoque extremo y poco común, que
en la mayoría de los casos se traduce en gastos
significativos y notable infrautilización de la
infraestructura.
En los centros de datos existentes, muchas
veces se marcan ciertos límites para el
despliegue de la tecnología en blade que están
definidos por la infraestructura específica. Por
ejemplo, un sistema estándar de piso elevado
no puede permitir una densidad de potencia
superior a los 5 kW por rack. La especificación
adecuada de potencia y densidad de calor es
un requisito importante para realizar el diseño
de un sistema que ahorre energía, espacio y
dinero.
Otro punto esencial que está relacionado con la
eficiencia energética a nivel del sistema es
evitar el exceso de provisión de infraestructura
y de refrigeración. Las especificaciones de la
densidad deberían tener en cuenta tanto la
variabilidad espacial como la temporal como, por
ejemplo, las diferentes densidades locales de
potencia en los centros de datos con respecto a
los racks en blade y a los racks estándar y la
variación a lo largo del tiempo allá donde pueda
aumentar la densidad. Por tanto, la densidad de
potencia debe especificarse en el rack o en el
nivel de línea. En el caso de los sistemas más
grandes, el nivel de línea es más apropiado, ya
que la distribución de la refrigeración y de la
potencia se basa principalmente en las filas. En la
medida de lo posible, se recomienda que las
especificaciones de densidad se definan para un
rack o para una fila. No se deberían realizar
modificaciones
durante
el
tiempo
de
funcionamiento del rack o de la línea específica.
Por tanto, la implementación de una nueva
tecnología con un nivel de densidad diferente se
debe realizar en un rack o en una línea nueva.
Sin embargo, también existen alternativas a este
enfoque que permiten realizar alguna variación de
la densidad de potencia instalada en los racks o
en las líneas:
• Adición de módulos UPS de conexión en
caliente
• Uso de PDUs en rack intercambiables en
caliente
• Adición de capacidad de refrigeración con
dispositivos montados en rack.
Tab.2.6 Configuration of blade systems a track level and related requirements for cooling [after Rasmussen2010]
N
o
C
h
a
s
s
i
s
/
r
a
c
k
Spreadingload
acrossracks
20
Dedicatingcooling
capacity
Additionalcooling
Highdensityarea
Highdensitycentre
2 Equipos servidores
Para la definición de las densidades de las filas,
se recomienda definir una relación máxima con
un pico de potencia media de 2 en los diseños
típicos en línea. Allá donde los racks específicos
superen el doble del promedio de potencia, la
carga de tecnología informática debe ser
redistribuida dentro de la línea o a otras líneas.
En general, obviamente, lo más lógico es
distribuir los racks de más alta densidad en la
línea. Se pueden utilizar sistemas de gestión de
energía y refrigeración para definir las reglas del
despliegue de la capacidad instalada como, por
ejemplo, permitiendo que un rack supere la
potencia media si la demanda de energía de un
rack vecino es significativamente inferior a la
media.
Una cuestión importante es cómo afrontar los
subsiguientes desarrollos en relación con la
necesidad futura de una extensión de la
tecnología informática. Evidentemente, no es
recomendable implementar desde el principio una
infraestructura que cubra su capacidad máxima
futura, ya que esto supondría un exceso de
capacidad y un gasto elevado en un período de
tiempo más largo. En general, se recomienda
instalar todos los conductos y el cableado
teniendo en cuenta la posibilidad de una plena
expansión de la capacidad, pero también debe
instalar la energía y los equipos de refrigeración
en las etapas posteriores sobre la base de la
demanda específica. Este enfoque permite
preparar toda la infraestructura básica del edificio
y, a la vez, poner en práctica el equipo específico
según la demanda de energía y refrigeración de
la tecnología informática cuando sea necesario.
2.4 La virtualización del servidor
La virtualización del servidor ofrece un enorme
potencial de ahorro de energía. La tecnología
permite la consolidación de las cargas de
trabajo en un hardware menos físico, lo que
reduce notablemente la energía y la demanda
de refrigeración. La virtualización en general
ofrece una serie de ventajas para el diseño
efectivo de sistemas de tecnología informática
en las salas de servidores y en los centros de
datos. Algunos ejemplos incluyen:
• La reducción de los requisitos de hardware y
de espacio mediante la implementación de
máquinas virtuales (MV) que se pueden
ejecutar de forma segura en un hardware
compartido, aumentando la utilización del
servidor del 5-15% al 60-80%.
• La optimización de la prueba y el desarrollo:
aprovisionando rápidamente las pruebas y el
desarrollo de los servidores mediante la
reutilización de los sistemas preconfigurados,
mejorando la colaboración y estandarizando los
entornos de desarrollo.
• La reducción del coste y la complejidad de la
continuidad del negocio (alta disponibilidad y
soluciones para la recuperación de incidendias)
mediante la encapsulación de sistemas
completos en archivos únicos que se pueden
replicar y realmacenar en cualquier servidor de
destino.
Algunas
plataformas
de
virtualización
establecidas como VMWare, Microsoft Hyper-V
y Citrix XEN ofrecen muchas características
adicionales,
como
alta
disponibilidad,
recuperación de fallos, programación de los
recursos distribuidos, equilibrio de carga,
funciones automatizadas de copia de seguridad,
gestión de la energía distribuida, VMotion para
servidores, almacenamiento y red, etc.
Las principales opciones tecnológicas para la
virtualización del servidor incluyen:
• Partición física
• Virtualización basada en un sistema operativo
subyacente
• Virtualización de aplicaciones, por ejemplo
Microsoft Terminalserver, Citrix XenApp
• Virtualización basada en el hipervisor:
■ VMware ESX
■ Citrix / código abierto: XenServer 5
■ Microsoft Hyper-V
Teniendo en cuenta que el mercado está
dominado por unos pocos productos, el siguiente
capítulo se centra en los productos basados en un
hipervisor: VMware ESX, Microsoft Hyper-V y
Citrix XEN.
El mercado de las principales plataformas de
virtualización VM-Ware ESX/ESXi/Vsphere4,
HyperV Microsoft y Citrix XEN ofrece soporte a
los sistemas operativos estándar invitados.
También ofrecen consolas de administración a
entornos de servidores más pequeños, así como
administración a nivel de centro de datos.
En 2001, VMware fue el primer producto que salió
al mercado. Su arquitectura es anterior a los
sistemas operativos y a los procesadores de
virtualización como Intel VT y AMD-V. VMware
ESX/VSphere4 ofrece una serie de potentes
herramientas de administración, como VMotion
para máquinas virtuales entre servidores,
almacenamiento VMotion, almacenamiento del
exceso de aprovisionamiento, virtualización del
escritorio y de la red, tecnología de seguridad
virtual, y dispone de una
plataforma de
virtualización de escritorio completa a través del
centro de datos hasta llegar a la computación en
nube.
Microsoft Hyper-V Server contiene el hipervisor de
Windows, el modelo Windows Server y la
virtualización de los componentes. Presenta un
tamaño compacto y un gasto mínimo. Se conecta
a los entornos de tecnología informática
existentes, aprovechando los parches, el
abastecimiento,
la
administración,
las
herramientas de apoyo, y los procesos instalados.
Algunas de las características clave de Microsoft
Hyper-V Server 2008 R2 son la migración en vivo,
el soporte del volumen del clúster compartido y
el procesador de ampliación, así como el soporte
de memoria para los sistemas host. La migración
en vivo se integra con Windows Server 2008 R2 ®
Hyper-V™. La migración en vivo con Hyper-V™
puede mover máquinas virtuales en operación sin
pérdidas de tiempo asociadas.
Dependiendo de las necesidades del usuario,
Citrix XenServer puede ofrecer una solución
económica de implementar la virtualización, ya
que algunos elementos básicos, como el
hipervisor básico, la resistente arquitectura de
gestión distribuida
21
y las herramientas de gestión y conversión
XENServer son gratuitas. Las características
avanzadas de gestión y automatización, como los
servicios virtuales de aprovisionamiento, la
conmutación virtual distribuida, XenMotion, la
migración en vivo, las capturas de memoria y
reversión en directo, los informes de rendimiento
y el equilibrio de carga de trabajo dinámica hacen
que el XenServer se coloque a la altura de los
otros dos productos. Sin embargo, estas
características no son más que una parte de las
ediciones comerciales avanzadas.
BMC Software, Eucalyptus Systems, HP, IBM,
Intel, Red Hat, Inc. y SUSE anunciaron la
formación de una Alianza de Virtualización
Abierta, un consorcio cuyo compromiso es
fomentar la adopción de tecnologías de
virtualización abierta, incluyendo Kernel Virtual
Machine (KVM). El consorcio es un complemento
de las comunidades existentes de código abierto
que gestionan el desarrollo del hipervisor KVM y
la capacidad de gestión asociada, que están
impulsando rápidamente una serie de
innovaciones tecnológicas para las aplicaciones
de virtualización tanto de los clientes de Linux
como de Windows ®. El consorcio tiene la
intención de acelerar la expansión de soluciones
a terceros en torno a KVM y prestará
asesoramiento técnico y ejemplos de las mejores
prácticas.
2.4.1 Las posibilidades de ahorro de
energía de la virtualización
La virtualización es una de las tecnologías
más efectivas para la reducción de la demanda
energética en los centros de datos y en las
salas de servidores. La consolidación del
hardware de los servidores mediante la
concentración de la carga de trabajo en un
menor número de servidores físicos a menudo
permite un ahorro energético del 40% al 80% y
a veces más, dependiendo del caso específico.
La tecnología actual ofrece la posibilidad de
implementar la virtualización con factores de
consolidación de al menos 10-20, dependiendo
de los sistemas y los requisitos específicos.
La Figura 2.8 muestra el ejemplo de
consolidación de un servidor mediante la
virtualización en el Ministerio Alemán de Medio
Ambiente. Las medidas específicas que se
tomaron permitieron un ahorro energético de
alrededor del 68%.
El proyecto pretendía lograr una reducción del
hardware a dos servidores físicos que ejecutan
VMware ESX [4].
Otro ejemplo tomado de IBM [5] para un proyecto
de virtualización de tecnología de servidores en
blade sugiere un ahorro energético de más del
90% si se cumplen todas las medidas pertinentes
a nivel de hardware y de infraestructura.
Estos ejemplos ilustran que la consolidación de la
virtualización es una de las principales opciones
para aumentar de forma notable la eficiencia
energética en los centros de datos. Sin embargo,
tal y como sucedía con los otros métodos
basados en la tecnología informática, el potencial
de ahorro total sólo se puede alcanzar si la
infraestructura, incluyendo la fuente de
alimentación y la refrigeración, se dirige en
paralelo.
Fig.2.8 Reduction of energy demand by virtualization in a case study [4]
22
2 Equipos servidores
2.4.2 Herramientas y requisitos para la
planificación de la virtualización
La virtualización en los centros de datos se debe
basar en una estrategia de virtualización que
incluya una evaluación e identificación de los
candidatos del servidor adecuados.
Para realizar dicha evaluación, es necesario
recopilar datos sobre el rendimiento, la
utilización del sistema, los plazos de fin de
servicio, el área de negocio y la especificación
de la aplicación. Una vez que han sido
identificados los candidatos a la virtualización,
se analizan las especificaciones de aplicación y
la carga de la máquina. Se lleva a cabo una
evaluación del rendimiento para evaluar, entre
otros, los siguientes requisitos que sirvan como
base para la selección de hardware:
• Rendimiento de la CPU
• Memoria requerida
• Intensidad del disco I/O
• Necesidades de red
• Configuración del sistema operativo
Por lo general, se pueden consolidar varias
aplicaciones a un único servidor físico, que es
inmune a fallos del hardware y las
interrupciones de energía, al mismo tiempo
que posee la capacidad de equilibrar la carga.
Para lograr este objetivo, los servidores host
pueden contener dos fuentes de alimentación,
los discos duros reflejados y tarjetas de
interfaz de red asociadas. En el caso de una
solución de almacenamiento centralizado, se
puede utilizar una red de área de
almacenamiento (SAN) con capacidad total de
tolerancia a los fallos. La migración de la
máquina virtual entre servidores físicos puede
soportar el equilibrio de carga adicional.
Dependiendo del tipo de carga de trabajo, se
puede considerar un margen de consolidación
de 10:01-20:01. En cuanto a los requisitos de
memoria, muchos entornos de virtualización
ofrecen la característica de memoria sobre el
aprovisionamiento. Por medio de esta función,
el total de memoria asignada a todas las
máquinas virtuales puede exceder la
capacidad de memoria física disponible en un
factor de 2 a 3.
La virtualización casi nunca se lleva a cabo
con la única intención de ahorrar energía. Así,
aunque normalmente se garantiza un ahorro en
alta energía, los proyectos de virtualización
que gozan de mayor éxito generalmente
requieren una planificación minuciosa, que
también incluye los cálculos de la ROI
(rentabilidad de la inversión) y el TCO.
Una vez identificados los factores de coste más
relevantes, se calcula el gasto total de
propiedad para la implementación del nuevo
servidor virtual. Se puede realizar un cálculo del
ROI a corto plazo y largo plazo para evaluar
los costes relacionados con el tiempo.
La clave para realizar con éxito un cálculo del
ROI está en entender los gastos de la
virtualización. Los gastos más evidentes en los
proyectos de virtualización son el hardware, el
software (incluyendo licencias) y el trabajo. La
virtualización puede suponer la compra de
servidores nuevos y más potentes, de la
actualización del almacenamiento, de redes y
seguridad, etc. Los gastos en preparación y
dirección del personal son un problema
adicional. Todos estos aspectos tienen que ser
facturados en el cálculo del ROI.
En el mercado se pueden encontrar diversas
herramientas de software que soportan la
planificación de la virtualización, así como el
cálculo del ROI y el TCO. Por ejemplo, el kit de
herramientas de Evaluación y Planificación
(MAP) de Microsoft soporta la planificación de la
migración, incluyendo el cálculo del TCO y del
ROI. El kit de herramientas MAP es una
herramienta
que
realiza
inventarios,
evaluaciones e informes capaces de analizar los
entornos de la tecnología informática en las
migraciones y en la virtualización de varias
plataformas sin necesidad de recurrir a agentes
de software. Los informes de la evaluación de
la disposición y del inventario de MAP
Fig.2.9 Example of a ROI/TCO Calculator from VMWare [6]
23
generan una serie de recomendaciones de
actualización específicas para la migración a los
sistemas operativos Windows Vista y Windows
Server 2008, así como para su virtualización.
Ofrece recomendaciones sobre cómo se pueden
consolidar los servidores físicos en un entorno
virtualizado Microsoft Hyper-V. Además, la
herramienta Integrated Virtualization ROI de
Microsoft es compatible con el cálculo del ahorro
potencial en gastos de energía con la tecnología
Hyper-V antes de su despliegue. Esta herramienta
proporciona soporte para examinar la producción y
el desarrollo de los servidores actuales, las
oportunidades de virtualización de las aplicaciones
y del escritorio mediante la cuantificación de los
posibles ahorros, de los beneficios a nivel de
servicio, de las inversiones y del ROI.
La metodología de TCO / ROI que ofrece VMware
(disponible como herramienta en línea) permite
comparar los ahorros en TCO, las inversiones
necesarias y los beneficios empresariales de las
soluciones de virtualización. Se basa en una serie
de técnicas financieras estándar, en los datos de
campo y del cliente de VMware, así como en
métricas del usuario. Basándose en los datos
específicos del usuario, se calculan valores clave
como el ahorro, la inversión, el ROI, los ahorros en
NPV (valor actual neto), las oportunidades de TCO
y los períodos de amortización. Cuando no están
disponibles los datos específicos del usuario, se
proporcionan los datos estadísticos de la industria,
pudiendo ser utilizados para realizar los cálculos.
2.4.3 La gestión de la energía en entornos
virtualizados: la migración al servidor
virtual
Las soluciones actuales de software para la
virtualización de servidores soportan la migración
de máquinas virtuales y una paralización temporal
de los hosts con el fin de reducir la demanda de
energía. Un ejemplo que proporciona estas
funciones es VMwareVsphere4 (Gestión de la
energía distribuida, DPM). DPM supervisa el uso
de los recursos de las máquinas virtuales en
ejecución en el clúster. Si existe un exceso de
capacidad, DPM recomienda mover algunas
máquinas virtuales entre los hosts y poner
algunos hosts en modo reposo con el fin de
ahorrar energía. En caso de que hubiera una
capacidad insuficiente, DPM vuelve a activar a los
hosts que se encuentran en espera.
La gestión de la energía se puede utilizar en
modo manual o automático. En modo automático,
las máquinas virtuales se migran y los hosts
entran o salen automáticamente del modo de
espera. La configuración automática se puede
cambiar en función de cada host y la gestión de la
energía también se puede activar a través de una
tarea programada.
El objetivo de VMware DPM es mantener a la
utilización de hosts ESX en el clúster dentro de un
rango deseado. DPM debe cumplir los siguientes
requisitos para ser una solución eficaz de ahorro de
energía:
• Hacer una evaluación precisa de la demanda de
recursos de la carga de trabajo. La sobreestimación
puede dar lugar a un ahorro de energía por debajo
de los niveles ideales. La subestimación puede
conducir a un rendimiento deficiente y a incurrir en
una serie de violaciones de los recursos DRS a
nivel de SLAs.
• Evitar que los servidores se enciendan y apaguen
con demasiada frecuencia, incluso cuando las
cargas de trabajo en ejecución sean muy variables.
• Tener una rápida capacidad de reacción ante un
aumento repentino en las demandas de la carga de
trabajo para que no baje el rendimiento cuando se
encuentra en modo de ahorro de energía.
• Realizar una selección de los hosts apropiados
que deben encenderse o apagarse. Apagar un host
importante que afecta a numerosas máquinas
virtuales puede violar el rango de utilización de
destino en uno o más hosts pequeños.
• Llevar a cabo de forma inteligente una
redistribución de las máquinas virtuales después de
que los hosts se enciendan y apaguen por medio de
un aprovechamiento sin fisuras del DRS.
RECOMMENDACIONES PARA LAS MEJORES PRÁCTICAS
Evaluación y selección efectiva de las soluciones de virtualización
.
• Desarrollar una estrategia y evaluación de virtualización de los servidores para seleccionar buenos candidatos para la
virtualización.
• Evaluar las necesidades que afectan al rendimiento de la CPU, a la memoria, a la intensidad de disco I/O, a los requisitos de red,
a la configuración del sistema operativo.
• Considerar la proporción de virtualización adecuada y la combinación de cargas de trabajo (01:06-1:20 dependiendo de las
características de la carga de trabajo).
• Revisar los productos de los distintos proveedores por lo que respecta a las características necesarias para sus propósitos
específicos, considerar las políticas de las licencias, las características de administración de energía y el precio. Los diversos
productos principales que hay en el mercado ofrecen diversas ventajas en función de las necesidades de las aplicaciones
específicas.
• Hacer cálculos del TCO y del ROI con el fin de determinar los beneficios de la reducción de gastos para el suministro de energía y
la refrigeración. Los modelos proporcionados por los proveedores serán reajustados según las necesidades de cada
organización específica.
• Examinar las opciones de gestión de la energía que permitan la migración VM y el cierre temporal del hardware del servidor.
• Considerar los requisitos modificados para el suministro de refrigeración y energía (la demanda reducida y el cambio dinámico de
la energía y la refrigeración) y comprobar las opciones de un rediseño para la refrigeración.
24
2 Equipos servidores
La forma básica de usar DPM es encender y apagar
los hosts ESX basándonos en los patrones de
utilización típicos durante un día de trabajo o
durante una semana. Por ejemplo, algunos
servicios como el correo electrónico, el fax,
intranet, y las consultas en la base de datos se
utilizan con mayor intensidad durante las típicas
horas de oficina, de 9 a.m.-5 p.m. En otras
ocasiones, los niveles de utilización pueden bajar
considerablemente, dejando infrautilizadas a la
mayoría de las máquinas. Su trabajo principal
durante estas horas puede ser realizar copias de
seguridad, archivar, atender las solicitudes en el
extranjero, etc. En este caso, la consolidación de
las máquinas virtuales y el cierre de los hosts que
no sean necesarios reducen el consumo de
energía.
Se pueden utilizar los siguientes métodos para
ajustar manualmente la actividad del DPM:
• Aumentar el objetivo de la demanda- capacidadproporción: para ahorrar más energía
aumentando el uso del host (consolidando más
máquinas virtuales en pocos hosts) el valor del
objetivo demanda-capacidad-proporción podría
aumentar respecto a la configuración por defecto
(Por ejemplo del 63% al 70%).
• Uso de VMware DPM para obligar el encendido de
todos los hosts antes de las horas de oficina y luego
apagar selectivamente los hosts después del
período de máxima carga de trabajo. Este sería un
enfoque más proactivo que evitaría cualquier
impacto en el rendimiento al esperar que VMware
DPM encienda los hosts como respuesta a los picos
repentinos que existen en la demanda de carga de
trabajo.
La utilización de los recursos de cada host ESX
se calcula en base a la demanda / capacidad de
cada uno de los recursos (CPU y memoria),
donde la demanda es la suma total de los
recursos que necesitan las máquinas virtuales en
ejecución y la capacidad es la cantidad total de
los recursos actualmente disponibles en el host.
Así, la gestión de la energía de los hosts se
ejecuta en función de la utilización de los recursos
de memoria de la CPU y del host comparado con
el rango de utilización definido. Con cada host
que se ha evaluado y recomendado su apagado,
DPM compara los costes, teniendo en cuenta una
estimación de los riesgos asociados con una
proyección conservadora de los beneficios en
cuanto al ahorro de energía que se pueden
obtener.
BEFORE
Constant loads>Stable cooling
AFTER
2.4.4 La refrigeración y la infraestructura en
los sistemas virtualizados
La
virtualización,
aunque
reduce
significativamente la demanda general de
energía, especialmente en sistemas más
grandes, puede producir un aumento de la
densidad de potencia del rack. Además, la
gestión de la energía mediante la migración de
máquinas virtuales conduce a una dinámica de
cambio espacial de la potencia y de la densidad
de calor, aumentando así la demanda de energía
y de enfriamiento a nivel local. Es necesario
emplear los conceptos adecuados de
alimentación y refrigeración para satisfacer la
demanda de los entornos virtualizados y para
evitar la existencia de puntos calientes.
Si la potencia total y la capacidad de refrigeración
no se adaptan a la demanda de energía, el PUE
se agravará después de la virtualización. La
virtualización puede reducir la carga de
enfriamiento en un centro de datos a niveles muy
bajos, lo cual puede causar efectos negativos.
Por tanto, es crucial contar con el tamaño
adecuado de energía y de enfriamiento para la
explotación de las posibilidades de ahorro de
energía. También es esencial reducir las pérdidas
fijas, teniendo en cuenta las siguientes medidas:
• La reducción de la escala de potencia y
capacidad de refrigeración para que coincida con
la carga
• Las bombas de inversor y los ventiladores VFD
que son controlados por la demanda de
refrigeración
• El uso de equipos con mayor eficiencia
• La arquitectura de enfriamiento que implica vías
de aire más cortas (por ejemplo, en hilera)
• La capacidad del sistema de gestión para
adaptar la capacidad a la demanda
• Los paneles de obturación para la mezcla de
aire en el rack
AFTER
Migrating high-density loads>Unpredictable cooling
Fig.2.10 Heat density before and after virtualization [5]
25
En un entorno convencional basado en una sala tradicional con piso elevado, la refrigeración se puede
configurar de tal modo que enfríe de forma adecuada los puntos calientes, reordenando los azulejos del
piso ventilados. Sin embargo, los cambios en los requisitos debido a la migración dinámica de
servidores virtuales también requieren soluciones dinámicas de refrigeración. Una solución a este
problema sería colocar las unidades de refrigeración dentro de las filas y equiparlas para que detecten
y respondan a los cambios de temperatura. La colocación de las unidades de refrigeración cerca de los
servidores permite que haya vías de aire cortas entre la refrigeración y la carga. La variación de la
potencia dinámica en los entornos virtualizados es una razón importante para decantarse por la
refrigeración en fila o en rack.
RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS
Gestión de la energía eficiente de los sistemas virtualizados:
• Poner en marcha una política estricta para la implementación y administración de los servidores
virtualizados. Evitar la proliferación de servidores sin control.
• Utilizar las herramientas de migración de las máquinas virtuales para cerrar el hardware en los
momentos de carga baja. Usar ajustes de energía automáticos para el arranque y desarrollar su
propia configuración personalizada en una etapa posterior basándose en los patrones normales
de funcionamiento.
• Reducir la refrigeración según la demanda y, si es necesario, implementar equipos para lograr
una refrigeración dinámica local. Atender a la demanda de cambios espaciales dinámicos.
• Adaptar los procesos de la tecnología informática y los flujos de trabajo concernientes al
despliegue de máquinas virtuales, a los procesos de recuperación / copia de seguridad de datos,
a la administración de parches y los problemas de disponibilidad.
26
Resulta esencial disponer de información precisa
sobre la demanda de energía y sobre la capacidad
de refrigeración para responder a los cambios en
los perfiles de carga a través del tiempo. La gestión
de la capacidad proporciona instrumentación para la
supervisión en tiempo real y el análisis de la
capacidad de potencia, enfriamiento y espacio y
permite el uso eficaz y eficiente en todo el centro de
datos. De ese modo, se puede identificar cuáles son
las zonas de capacidad disponible o peligrosamente
baja. Los sistemas de la capacidad deben ser
capaces de afrontar los siguientes problemas:
• Un cambio en la densidad de la carga y en la
ubicación: la virtualización puede crear puntos de
acceso por ejemplo, mediante la migración de VM.
• Cambios dinámicos en el sistema: el mantenimiento
de la estabilidad del sistema puede llegar a ser un
problema si hay muchas partes que están haciendo
cambios sin una coordinación centralizada.
• Interdependencias: la virtualización hace que las
dependencias compartidas y los efectos secundarios
en la relación entre la capacidad de energía, la
refrigeración y el espacio sean más complejos.
• Aprovisionamiento ajustado de energía y
refrigeración: durante la virtualización, la carga de
energía y la refrigeración baja y sube de nuevo
cuando se crean nuevas máquinas virtuales. Esto
puede se puede solucionar con el uso de sistemas
escalables de energía y enfriamiento.
2 Equipos servidores
Lecturas complementarias
HP (2011): HP Power capping y HP Dynamic power
capping para servidores ProLiant. Hewlett Packard
Development company.
SPEC (2011):Server Efficiency Rating Tool (SERT) TM
Design Document. 3er borrador. Standard Performance
Evaluation Cooperation
Rasmussen, N (2010): Strategies for deploying blade
servers in existing data centres. Libro blanco 125. APC
Schneider Electric
80 PLUS (2011): fuentes de alimentación 80 PLUS.
www.plugloadsolutions.com
Schäppi B. y otros (2009) Energy and cost savings by
energy efficient servers. IEE E-Server best practice cases.
Manual 2009
IBM (2011) Server Management suite, Module Active
Energy Manager
www-03.ibm.com/systems/software/director/aem/
HP (2011) Server management suite «Systems Insight
Manager» www.hp.com
VMware DPM: Information Guide: VMware Distributed
Power Management Concepts and Use.
www.vmware.com
VMware TCO:VMware ROI TCO Calculator, Visión general
y análisis.roitco.vmware.com
Referencias
[1] EPA (2010): Energy Star ENERGY STAR ® Requisitos del programa para servidores informáticos (versión1.1)
[2] SPEC (2010): SPEC power and performance.
Benchmark methodology 2.0. Standard Performance
Evaluation Cooperation
[3] 80 PLUS (2011): fuentes de alimentación 80 PLUS.
www.plugloadsolutions.com
[4] Schäppi B. y otros (2009): Energy and cost savings
by energy efficient servers. IEE E-Server best practice cases.
Manual 2009
[5] BITKOM (2010): Bitkom/Beschaffungsamt des
Bundesministeriums des Innern, Leitfaden Produktneutrale
Leistungsbeschreibung x86-Server, 2010
[5] Comtec Power: Overcoming the Challenges of Server
Virtualization. www.comtec.com
[6] VMware TCO: VMware ROI TCO Calculator, Visión
general y análisis.roitco.vmware.com
27
3 Equipos para el almacenamiento de datos
Marcos Dias de Asuncao, Laurent Lefevre, INRIA
La información está en la base de cualquier negocio, pero el almacenamiento
y la disposición de toda la información necesaria para dirigir las empresas de
hoy se ha convertido en un verdadero desafío. Como se espera que las
necesidades de almacenamiento de las organizaciones crezca en una
proporción de 44 entre 2010 y 2020 [1], las estrategias para alcanzar un alto
rendimiento nunca ha sido tan populares. La constante caída en el precio por
MB de almacenamiento han conducido a un escenario donde es más sencillo
y menos costoso añadir capacidad extra que buscar alternativas para evitar
duplicaciones de datos y otras ineficiencias. Sin embargo, como el gasto que
supone suministrar energía y enfriar los recursos de almacenamiento se
3.1 Dispositivos de
almacenamiento
3.1.1 Sistemas basados en cinta
convierte en un problema, la ineficacia es algo que ya no se acepta. Los
estudios demuestran que las grandes corporaciones se enfrentan con la
difícil tarea de proporcionar suficiente capacidad de energía y refrigeración,
mientras que las medianas empresas se enfrentan al desafío de encontrar
espacio suficiente para sus sistemas de almacenamiento [2]. Como el
almacenamiento de datos absorbe una gran parte de la energía consumida
por los centros de datos, es crucial crear sistemas de almacenamiento más
energéticamente eficientes y elegir las soluciones adecuadas cuando se
implementa la infraestructura de almacenamiento.
Este capítulo analiza unas cuantas tecnologías que apoyan la eficiencia energética de
las soluciones de almacenamiento de datos. Además, proporciona recomendaciones
sobre las mejores prácticas que, además de utilizar las soluciones tratadas, pueden
mejorar la eficiencia energética de la infraestructura de almacenamiento en las
empresas y los centros de datos.
Algunas soluciones de almacenamiento, tales como los sistemas de discos, incluyen
unidades que proporcionan capacidad de almacenamiento bruto y componentes
adicionales que pueden interactuar con el almacenamiento bruto y mejorar la fiabilidad
general. Nos referimos a los componentes del medio individuales que forman el
almacenamiento bruto, como los dispositivos (por ejemplo, cargadores de cinta,
unidades de disco duro y unidades de estado sólido). Las soluciones compuestas de
almacenamiento, tales como los productos conectados a la red, se conocen como
elementos de almacenamiento. Cuando hablamos de programas para mejorar la
eficiencia energética de las soluciones de almacenamiento, estos son principalmente los
dos niveles en los que se aplican la mayoría de las técnicas. Por tanto, en primer lugar
presentamos los conceptos de eficiencia energética de los dispositivos individuales y, a
continuación, analizamos cómo se utilizan y se combinan estas técnicas con el fin de
mejorar la eficiencia energética de los elementos.
28
Las cintas muchas veces se califican como uno de
los tipos de medios de almacenamiento de datos
más rentables a largo plazo. Sin embargo, los
análisis [3] [4] indican que:
• En ciertos escenarios de almacenamiento a largo
plazo, tales como los centros de datos de tamaño
medio donde se archivan y se realizan copias de
seguridad de datos, las unidades de disco duro
puede resultar, por término medio, 23 veces más
caras que las soluciones de cinta y suponer un coste
de energía y refrigeración 290 veces mayor que las
cintas.
• La consolidación de datos empleando sistemas
basados en cinta de archivos puede reducir
considerablemente los costes operacionales de los
centros de almacenamiento. Las bibliotecas de
cintas que poseen gran capacidad de
almacenamiento pueden sustituir a las islas de datos
a través de la consolidación de las operaciones de
copia de seguridad, reduciendo así los gastos de
infraestructura y, posiblemente, aumentando su
eficiencia energética.
Las cintas, que tienen un ciclo de vida de archivo de
30 años y gran capacidad de almacenamiento, son
una solución atractiva para los centros de datos que
requieren una copia de seguridad y de archivo a
largo plazo. Por tanto, para un entorno que cuente
con múltiples niveles de almacenamiento, los
sistemas basados en cinta siguen siendo las
soluciones más energéticamente eficientes cuando
necesitamos archivar a largo plazo y tenemos una
tasa reducida de recuperación de los archivos
comprimidos. Existen soluciones de biblioteca de
discos que tratan de minimizar el impacto del
consumo de energía de las unidades de disco
mediante el uso de técnicas tales como la
ralentización de discos. Estas tecnologías las
analizaremos más adelante.
3.1.2 Unidades de disco duro (HDDs)
Las HDDs ha sido el medio preferido para el
almacenamiento de datos no volátil, ya que
ofrece una capacidad de escritura y un tiempo
de recuperación rápidos. Los componentes
móviles, tales como los motores y los brazos del
actuador absorben la mayor parte de la energía
que consumen los discos duros (véase figura
3.1). Para mejorar la capacidad de volumen de
datos de los discos duros, los fabricantes han
aumentado la velocidad a la que giran los platos,
con el consiguiente incremento en el consumo
de energía. Los platos que giran a una velocidad
de 15K rpm son los más comunes en las HDDs
actuales de gran capacidad.
Se emplean diversas técnicas para mejorar la
eficiencia energética de las HDDs, incluyendo el
almacenamiento de datos en ciertas regiones de
los platos para reducir el esfuerzo mecánico al
recuperar los datos, controlando la velocidad de
rotación de los platos, y reduciendo el consumo
de energía durante períodos de inactividad.
Existe una técnica muy común, denominada
ralentización del disco, que consiste en hacer
girar los discos a menor velocidad y colocarlos
en una zona de seguridad después de un
período de inactividad configurado por defecto.
Por otra parte, en vez de detener los discos por
completo, algunas unidades hacen girar los
discos a una velocidad variable en función de
la lectura / escritura de carga.
La tecnología PowerChoice de Seagate [5] es un
ejemplo de ello, donde el número de
componentes desactivados aumenta a medida
que la unidad llega a ciertos umbrales de
inactividad. Los estados de inactividad
intermedios ofrecen tiempos de recuperación
que generalmente son más cortos que la
recuperación de un disco que se encuentra en
estado de ralentización.
La Tabla 3.1 muestra que el consumo en modo
de espera es aproximadamente un 50% menor
que el consumo en estado de inactividad. Estas
estrategias pueden permitir un ahorro sustancial
en los sistemas RAID y en las matrices masivas
de discos inactivos (MAIDs).
Como la ralentización de los discos puede
mermar el rendimiento, los fabricantes exploran
otras
Algunas HDDs implementan múltiples estados
de inactividad y espera. Luego, se llevan a
cabo diversas acciones cuando aumenta el
período de inactividad (por ejemplo se
desactiva inicialmente el servosistema, luego
se aparcan los cabezales y, más tarde, se
ralentizan los discos).
Tab.3.1 Power Choice technology profile for a Constellation 2.5-Inch drive
State
Power(W)
PowerSavings*(%)
RecoveryTime(sec.)
DefaultTimertoEnter
Idle
2.82
0
0
n/a
Idle_A
2.82
0
0
1sec.
Idle_B
2.18
23
0.5
10min.
Idle_C
1.82
35
1
30min.
Standby_Z
1.29
54
8
60min.
*Powersavingsestimatesandrecoverytimesarepreliminary;figuresbasedonSeagateConstellationSAS2.5-inchharddrive.
29
técnicas tales como tamaños de caché más
grandes y comandos de lectura / escritura en
cola. Además, para beneficiarse de técnicas
tales como la ralentización y velocidad de giro
variable, se han propuesto proyectos en el
sistema operativo y a nivel de aplicación para
aumentar la duración de los períodos de
inactividad del disco. Algunos de estos métodos
consisten en reprogramar las solicitudes de
acceso a los datos mediante la modificación del
código de la aplicación o del diseño de los datos.
También existen técnicas menos invasivas que
proporcionan personalización del compilador que
reprograman las solicitudes de acceso a los
datos en la compilación sin necesidad de
modificar el código fuente de la aplicación.
Aunque estas técnicas pueden reducir el
consumo de energía, también se ha
argumentado que los ciclos frecuentes de
encendido-apagado pueden reducir la vida útil
de los discos duros.
Como los motores y los actuadores son los
responsables de la mayor parte de la energía
consumida por las unidades de disco duro, una
manera de conseguir que las unidades sean más
eficientes desde el punto de vista energético es
el uso de Factores de Forma Pequeño (SFFs).
Como los discos duros de 2,5 pulgadas son
aproximadamente un cuarto del tamaño de las
grandes unidades de disco duro (3,5 pulgadas,
ver Fig. 3.2.), se puede rediseñar un chasis
diseñado con un volumen suficiente para 16
unidades de 3,5 pulgadas con el fin de albergar
hasta a 48 unidades de disco duro de 2,5
pulgadas sin aumentar el volumen global. Los
discos duros de alto rendimiento de 2,5 pulgadas
ofrecen una reducción en el consumo de
energía, ya que los motores y los actuadores son
más pequeños y, por tanto, también emiten
menos calor.
Fig.3.2 Picture of a 2.5-inch HDD atop a 3.5-inch HDD (from wikipedia)
Los fabricantes afirman que, en el caso de las
unidades de disco duro Tier-1 de 2,5 pulgadas,
la IOPS / W puede ser hasta 2,5 veces mejor
que si la comparamos con las unidades Tier-1
de 3,5 pulgadas [6].
Además, se necesita menos potencia para la
refrigeración, debido a la menor producción de
calor y la reducción de las necesidades de
espacio.
La Tabla 3.2 muestra la potencia aproximada
consumida por los dos modelos de unidades de
disco duro de alto rendimiento fabricadas por
Seagate. Es evidente que el factor de forma
pequeño consume sustancialmente menos
energía.
Cuando se activa, consume aproximadamente un
46% menos de energía que su homólogo de 3,5
pulgadas, mientras que esta diferencia puede
llegar a 53% cuando el disco está inactivo.
Teniendo en cuenta el gasto en energía anual de
sólo 24 unidades, basándonos en el consumo de
energía activa y a un precio de 0,11 € por kWh, la
diferencia entre unidades de 3,5 pulgadas y discos
duros de 2,5 pulgadas sería de unos 140 € al año.
En los centros de datos que poseen sistemas de
almacenamiento con cientos o miles de discos, el
ahorro puede ascender a miles o decenas de miles
de euros.
Tab 3.2 Power consumption of two of Seagate’s high performance HDDS
Specifications
FormFactor
Cheetah15K.7300GB*Savvio15K.2146GB*
3.5“
2.5“
–
Capacity
300GB
146GB
–
Interface
SAS6Gb/s
SAS6Gb/s
–
SpindleSpeed(RPM)
15K
15K
–
PowerIdle(W)
8.74
4.1
53%less
PowerActive(W)
12.92
6.95
46.2%less
*Dataobtainedfromthespecificationsheetsavailableatthemanufacturer’swebsite.
30
Difference
3 Equipos para el almacenamiento de datos
3.1.3 Las unidades de estado sólido (SSDs)
Las SSD están equipadas, entre otros componentes, con paquetes de memoria flash y un controlador
responsable de realizar diversas tareas. Las SSD se basan en una memoria flash NAND que emplean
uno de los dos tipos de células de memoria en función del número de bits que puede almacenar una
célula. El flash de células de nivel simple (SLC) almacena un bit por célula y las memorias con célula
de nivel múltiple (MLC) a menudo pueden almacenar 2 ó 4 bits por célula. La mayoría de las SSD
asequibles se basan en MLC, mientras que los dispositivos de gama alta suelen estar basados en
SLC.
Tab.3.3 Comparison of Seagate‘s Pulsar enterpriseSSDs and Savvio 15K HDDs
Las SSDs son más eficientes y fiables, debido a la
ausencia de piezas mecánicas, tales como
motores y actuadores. Además, generan menos
calor y pueden ser empaquetadas en pequeños
recintos, lo que disminuye el espacio y las
necesidades de refrigeración. La Tabla 3.3
presenta una comparación simple entre una SSD
Pulsar de la compañía Seagate y un disco duro
SAS 15k rpm de alto rendimiento. La SSD
consume aproximadamente un 87% menos que el
disco duro de 15K RPM en modo activo, y
alrededor de un 82% menos en modo inactivo. En
la práctica, sin embargo, el ahorro de energía
dependerá de cómo las soluciones de
almacenamiento empleen el SSD y los discos
duros y de las características de la carga de
trabajo que se apliquen a los equipos de
almacenamiento.
3.1.4 Unidades de disco duro híbrido (HHDs)
Specificati
ons
Savvio15K.273GB*
PulsarSSD50GB*
Difference
Las HHD están equipadas con grandes buffer
hechos con memorias flash no volátiles que tienen
como objetivo minimizar la escritura o la lectura de
datos en los discos. Se han utilizado varios
algoritmos para el uso de la memoria intermedia
[7]. Al proporcionar un buffer de gran tamaño, los
discos pueden permanecer en reposo durante
períodos más prolongados. Esta memoria flash
adicional puede reducir la energía consumida por
las soluciones de almacenamiento mediante la
reducción de la potencia que consumen los
motores y los brazos mecánicos. Estas unidades
pueden presentar potencialmente requisitos más
bajos de energía en comparación con los discos
duros, pero las ofertas de almacenamiento en la
empresa son limitadas.
RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS
Tenga en cuenta las ventajas que ofrecen las diversas tecnologías de almacenamiento en
la contratación y en diseño del sistema
• Las cintas tienen la mejor eficiencia energética para el almacenamiento a largo plazo.
• Las unidades de disco duro actuales tienen discos que giran a diferentes velocidades,
con el consiguiente ahorro de energía a velocidades más bajas.
• Los estados múltiples inactivos implementados por los discos duros permiten un
considerable ahorro de energía cuando se emplean en soluciones de almacenamiento
compuestos, tales como matrices de discos y matrices masivas de discos inactivos.
• Aunque son más caras, las SSD resultan mucho más eficientes que los discos duros.
• Plantéese usar las SSDs como una capa de almacenamiento de alto rendimiento
31
3.2 Elementos de almacenamiento
Esta sección describe una serie de técnicas a
nivel de dispositivo que se pueden utilizar y
combinar para mejorar la eficiencia energética de
las soluciones de almacenamiento compuestas,
tales como sistemas de disco, almacenamiento de
conexión directa y almacenamiento en red (es
decir, elementos de almacenamiento). También se
analizan algunos conceptos específicos del nivel
de elementos de almacenamiento.
3.2.1 Unidades de gran capacidad y factores
de forma pequeños
En el caso de las aplicaciones que no requieren
almacenamiento de alto rendimiento, por lo
general resulta más eficiente desde el punto de
vista energético utilizar las unidades con mayor
capacidad. Las típicas unidades de disco SATA
consumen hasta un 50% menos energía por
terabyte de almacenamiento que los discos de
Canal de Fibra [8]. Tal y como dijimos
anteriormente, las carcasas SSF pueden ahorrar
espacio en los centros de datos y reducir la
huella energética mediante el uso de HDDs de
2,5 pulgadas más energéticamente eficientes. A
modo de ejemplo, utilizando la referencia
estándar de la industria del Consejo de
Desempeño del Almacenamiento (SPC) de SPC1C, Dell comparó dos sistemas de discos, uno
con discos duros de 3,5 pulgadas y otro con
discos duros de 2,5 pulgadas [9]. Los resultados
mostraron que, además de que ofrece un
rendimiento 93% superior a la matriz con
unidades de 3,5 pulgadas, el sistema que estaba
equipado con unidades de 2,5 pulgadas
consumía un 40% menos energía.
3.2.2 Matrices Masivas de Discos Inactivos
(MAIDs)
MAID es una tecnología que utiliza una
combinación de memoria caché y de discos
inactivos para afrontar las necesidades de
servicio, haciendo girar los discos solo cuando
sea necesario. La detención del giro en las
unidades de disco a las que se accede con
menos frecuencia puede reducir el consumo de
energía (ver Figura 3.3).
Fujitsu, por ejemplo, permite a los clientes
especificar horarios y fijar períodos en los que las
unidades deben ralentizar su giro (o apagarse)
según la política de carga de trabajo o de copia de
seguridad.
La cantidad de energía que pueden ahorrar las
prestaciones del MAID depende de la aplicación
que utilice los discos y de la frecuencia con la que
se accede a los discos. Los criterios que se utilizan
para decidir cuándo las unidades deben ralentizar
su giro (o ponerse en modo de espera) o deben
aumentarlo, tienen un impacto en el ahorro de
energía, así como en el rendimiento. Cuando se
conciben inicialmente, las técnicas de MAID
permiten que las unidades de disco duro se
enciendan o se apaguen, lo que podría incurrir en
considerables reducciones del rendimiento de
aplicación si se requieren datos de una unidad que
ha ralentizado su giro . Sin embargo, las técnicas
de MAID de segunda generación permitirán
realizar una Gestión Inteligente de la Energía
(IPM), con diferentes modos de ahorro de energía
y rendimiento. MAID 2.0, tal y como se llama a
menudo, presenta múltiples modos de ahorro de
energía que alinean el consumo de energía con las
diferentes necesidades de QoS. El usuario puede
configurar el equilibrio entre los tiempos de
respuesta y el ahorro de energía. Los modos
múltiples de ahorro de energía, por ejemplo,
utilizan los diversos estados de disco duro inactivo
descritos anteriormente.
Otras técnicas de conservación de energía para
los sistemas de disco son la Concentración de
Datos Populares (PDC) [10] y otros mecanismos
de asignación de archivos [11]. El fundamento de
este enfoque es llevar a cabo una consolidación
mediante el almacenamiento o la migración de
datos de acceso frecuente a un subconjunto de los
discos. Sesgando la carga hacia menos cantidad
de discos, los demás pueden pasar a modo de
bajo consumo de energía.
3.2.3 Niveles RAID eficientes
Los distintos niveles RAID proporcionan diversas
eficiencias de almacenamiento. Cuando
hablamos de la protección de datos, algunos
niveles RAID, como RAID 6, presentan una
cantidad significativa de procesamiento de
cargas. Sin embargo, las implementaciones de
RAID 6 de alto rendimiento pueden proporcionar
el mismo rendimiento que RAID 5 y hasta 48%
de reducción en los requisitos de capacidad de
disco en comparación con RAID 10.
32
3 Equipos para el
almacenamiento de datos
WRITE
Fig.3.4 Thin provisioning (from Fujitsu ETERNUS solutions)
3.2.4 Almacenamiento horizontal en niveles, virtualización del almacenamiento y thin provisioning
Para hacer un uso eficiente de la infraestructura de
almacenamiento, es importante diseñar y poner en
ejecución las políticas de gestión de datos que
utilizan los diferentes niveles de almacenamiento
según la frecuencia con la que se accede a los
datos, si se vuelven a usar y por cuánto tiempo
tienen que mantenerse (por motivos empresariales
o reguladores). Los fabricantes de soluciones de
almacenamiento de datos han propuesto algunos
sistemas de software que permiten la organización
en niveles automáticos y homogéneos,
trasladando los datos a los niveles adecuados
sobre la base de una supervisión continua del
rendimiento. Algunos ejemplos de ello son el Full
Automated Storage Tiering (FAST) de EMC2, el
System Storarage Easy Tier de IBM, el Data
Progression de Compellent y el Data Migration
facility (DMF) de SGI.
Mediante la combinación de la virtualización de
servidores
con
la
virtualización
de
almacenamiento, es posible crear grupos de
discos y volúmenes virtuales cuya capacidad
puede aumentar la demanda según las
necesidades de las aplicaciones. La eficiencia de
almacenamiento típica de los sistemas de
almacenamiento tradicionales es de entre un 3040%. Según algunos informes [12], la virtualización
del almacenamiento puede aumentar la eficiencia
hasta un 70% o puede reducir más los requisitos
de almacenamiento y aumentar el ahorro de
energía.
La virtualización de almacenamiento en niveles,
también
conocida
como
Gestión
de
Almacenamiento Jerárquico (HSM), permite que
los datos se migren automáticamente entre los
diferentes tipos de almacenamiento sin que el
usuario sea consciente de ello.
Los sistemas de software de la organización en
nivel automatizado se utilizan para llevar a cabo
tales actividades de migración de datos. Este
método puede reducir el coste y el consumo de
energía, ya que permite que se guarden sólo los
datos a los que se accede con frecuencia en un
almacenamiento de alto rendimiento, mientras
que los datos a los que se accede con menor
frecuencia se pueden colocar en equipos menos
costosos y más energéticamente eficientes que
utilizan técnicas como el MAID y la deduplicación
de datos.
El thin provisioning, una tecnología que
generalmente complementa a la virtualización del
almacenamiento, tiene como objetivo maximizar
la utilización del almacenamiento y eliminar la
capacidad preasignada, pero sin utilizar. Con el
thin provisioning, se suministra un espacio de
almacenamiento cuando se escriben datos. La
capacidad de reserva no está defina por la
capacidad máxima requerida por las aplicaciones
sino que, por lo general, se configura en cero. Los
volúmenes se expanden en línea y la capacidad
se añade en el momento para adaptarse a los
cambios sin que se produzca una interrupción
(véase la figura 3.4). El thin provisioning puede
dar lugar a un ahorro de energía, ya que reduce
la necesidad de contar con un abastecimiento
adicional almacenamiento de las aplicaciones.
33
3.2.5 La consolidación en las capas de
almacenamiento y fabric layers
La consolidación del almacenamiento no es un
tema reciente, ya que las Redes de Área de
Almacenamiento (SAN) han proporcionado cierto
nivel de consolidación del almacenamiento y han
mejorado la eficiencia durante varios años
mediante el intercambio de las matrices de discos
a través de varios servidores en una red privada
local, evitando así que se produzcan islas de los
datos. El movimiento del almacenamiento de
conexión directa a sistemas de almacenamiento en
red ofrece una serie de beneficios, lo cual puede
aumentar la eficiencia energética. La consolidación
de los equipos de almacenamiento de datos puede
dar lugar a ahorros sustanciales, tanto en los
requisitos de espacio como en el consumo de
energía. Algunos fabricantes sostienen que, al
proporcionar múltiples protocolos de equipos de
red, la estructura de red se puede consolidar en
menos recursos, reduciendo así el espacio, el
consumo de energía y las necesidades de
refrigeración.
34
3.2.6 La deduplicación de datos
Las infraestructuras de almacenamiento suelen
almacenar múltiples copias de los mismos datos.
En los centros de almacenamiento se emplean
varios niveles de la duplicación de datos, ya que
algunos son necesarios para mejorar la fiabilidad y
el rendimiento de los datos. Sin embargo, también
hay "residuos" que se pueden minimizar, reciclando
así la capacidad de almacenamiento. Las actuales
soluciones SAN utilizan técnicas de deduplicación
de datos (De-duplicar) con el objetivo de reducir los
duplicados de los mismos. Estas técnicas
funcionan principalmente a nivel de bloque de
datos y de archivo.
Como las soluciones de deduplicación de datos
permiten a las organizaciones reciclar la capacidad
de almacenamiento y reducir los requisitos de los
medios, también se consideran un método común
para reducir el consumo de energía. El ahorro de
almacenamiento real alcanzado por las soluciones
de deduplicación de datos varía según su
granularidad. Las soluciones que realizan hashing y
deduplicación en el nivel de archivos tienden a ser
menos eficientes. Sin embargo, supondrán una
carga más pequeña. Con las técnicas a nivel de
bloque, la eficiencia es, por lo general, inversamente
proporcional al tamaño del bloque.
Además del nivel de la deduplicación de datos,
las técnicas de deduplicación también difieren
dependiendo del momento en el que se realiza la
deduplicación de datos: antes o después de que
los datos se almacenen en el disco. Ambas
técnicas ofrecen ventajas e inconvenientes.
Aunque su objetivo es la reducción de los
requisitos de almacenamiento, la deduplicación
después de almacenar los datos en el disco
necesita un almacenamiento en caché que se
utiliza para eliminar los duplicados. Sin embargo,
en el caso de las aplicaciones de copia de
seguridad, la deduplicación después de haber
almacenado los datos por lo general da lugar a
unas ventanas de backup más cortas y a menor
degradación del rendimiento. Por otra parte, la
deduplicación de datos técnicos difiere
dependiendo de dónde se lleve a cabo la
deduplicación: en el origen (cliente) lado, en el
objetivo (servidor), o por medio de un dispositivo de
deduplicación conectado a un servidor.
Aunque la deduplicación de datos es una tecnología
prometedora para reducir los residuos y minimizar el
consumo de energía, no todas las aplicaciones
pueden beneficiarse de ella. Por ejemplo, la
deduplicación de datos antes de que los datos se
almacenen en el disco podría conducir a una grave
degradación del rendimiento, lo cual sería
inaceptable en las aplicaciones de base de datos.
Las aplicaciones y los servicios que mantienen
grandes volúmenes de datos durante largos períodos
de tiempo se benefician más de la deduplicación de
datos. Cuantos más datos posea una organización y
cuanto más tiempo necesite para mantenerlos,
mejores resultados producirán las tecnologías de
deduplicación de datos. En general, la deduplicación
de datos funciona mejor en las copias de seguridad,
en la replicación y en la retención de datos.
3 Equipos para el
almacenamiento de datos
Lecturas complementarias
Referencias
McClure T. (2009): Driving Storage Efficiency in
SAN Environments, Enterprise Strategy Group–
Libro Blanco, noviembre de 2009.
Craig B. y McCaffrey T. (2009): Optimizing
Nearline Storage in a 2.5-inch Environment Using
Seagate Constellation Drives, Dell Power Solutions, junio de 2009.
SNIA (2010): Storage Power Efficiency Measurement Specification: Working Draft Version 0.2.10,
SNIA Green Storage Initiative, agosto de 2010.
Storage Tiering with EMC Celerra FAST, EMC2
[1] IDC (2010): The Digital Universe Decade– Are
you ready? IDC, mayo de 2010.
[2] McClure T. (2009): Driving Storage Efficiency in SAN Environments, Enterprise Strategy
Group–Libro Blanco,noviembre de 2009.
[3] Reine D. y Kahn M. (2008): Disk and Tape
Square Off Again–Tape Remains King of the Hill
with LTO-4.ClipperNotes, febrero de 2008.
[4] ORACLE (2010): Consolidate Storage Infrastructure and Create a Greener Data centre. Libro
Blanco de Oracle, abril de 2010.
[5] Seagate (2011): Power Choice Technology
Provides Unprecedented Hard Drive Power Savings and Flexibility-Technology Paper, Seagate,
2011.
[6] Seagate (2010): Seagate Savvio 15K.2
Hoja de datos, Seagate, 2010.
[7] Bisson T., Brandt S., Long D. (2006):
NVCache: Increasing the Effectiveness of Disk
th
Spin-Down Algorithms with Caching,14 IEE E
International Symposiumon Modeling, Analysis,
and Simulation, págs. 422-432, 2006.
[8] Freeman L. (2009): Reducing Data Centre
Power Consumption Through Efficient Storage.
Libro Blanco. Net App, julio de 2009.
[9] Craig B. y McCaffrey T. (2009): Optimizing Nearline Storage in a 2.5-inch Environment
Using Seagate Constellation Drives, Dell Power
Solutions, junio de 2009.
[10] Pinheiro E. y Bianchini R. (2004): Energy
Conservation Techniques for Disk Array- Based
th
Servers. 18 Annual International Conference on
Supercomputing (ICS2004), págs. 68-78. Malo,
Francia, 2004.
[11] Otoo E.D., Rotem D. y Tsao S.C.
(2009): Analysis of Trade-Off between Power Saving and Response Time in Disk Storage Systems,
IEE E International Symposium on Parallel Distributed Processing (IPDPS 2009), págs.1-8, mayo de
2009.
[12] Blade Network (2009): Storage Consolidation for Data Centre Efficiency, BLADE Network
Technologies Libro Blanco, junio de 2009.
www.snia.org/sites/default/files/Storage_Power_Efficiency
_Measurement_Spec_v0.2.10_DRAFT.pdf
Clark T. y Y oder A. (2008): Best Practices for
Energy Efficient Storage Operations Version1.0,
SNIA Green Storage Initiative, octubre de 2008.
Freeman L. (2009): Reducing
Data Centre
Power Consumption Through Efficient Storage.
Libro Blanco. Net App, julio de 2009.
35
4 Equipos de redes
Alexander Schlösser, TU Berlín, Lutz Stobbe, Fraunhofer IZM
Según la información que se maneja en la actualidad, el consumo de energía
destinada a conmutadores, routers y otros equipos de red supone
aproximadamente del 8% al 12% del consumo energético total de los centros
de datos. Como este porcentaje es bastante bajo respecto a la demanda total
de energía, los equipos de redes no han sido objeto de medidas de mejora.
Sin embargo, esta percepción y esta situación están cambiando,
especialmente en los centros de datos medianos y grandes. Existen algunas
razones que explican por qué el consumo de energía de los equipos de
redes y los efectos energéticos de la arquitectura de redes que se han
implementado se están teniendo seriamente en cuenta en el diseño y en el
funcionamiento de los centros de datos.
Como consecuencia del aumento de los requisitos que se refieren a la
calidad del servicio (QoS), junto a un retraso crítico de las aplicaciones, cada
vez es mayor la importancia funcional de los equipos de red y de las redes
en los centros de datos. El consumo de energía varía en función de la
tecnología seleccionada y de la arquitectura, incluyendo el cableado, la
fuente de alimentación y la refrigeración.
4.1 La estructura técnica y
operacional
4.1.1 El modelo funcional
La Figura 4.1 ofrece un modelo simplificado de las
características funcionales relacionadas con la
energía que afectan a las redes y a los equipos de
redes en los centros de datos. El modelo funcional
ayuda a visualizar los detalles solapados de la
infraestructura de energía y refrigeración, así como
la interrelación de la red con los principales equipos
de tecnología informática, como servidores y
sistemas de almacenamiento. Este modelo también
describe los principales elementos que son
necesarios para la mejora a nivel de red. Esto
incluye la arquitectura de red seleccionada y la
topología actual, la infraestructura física, los
componentes de hardware y cable, así como la
configuración del software y la capacidad de
virtualización.
La eficiencia energética de la infraestructura de red
y de los equipos de redes también está influida por
las aplicaciones, los acuerdos a nivel de servicio, el
ancho de banda y los requisitos de latencia del
rendimiento que han sido definidos por el operador
del centro de datos. Estos aspectos que están
relacionados con el rendimiento deben tenerse en
cuenta durante el proceso de planificación con el fin
de mejorar la eficiencia energética.
Server Room/Data Center
Architecture &T opology
PowerSupply & UPS
Virtualization & Configuration
Cooling & AirFlow
Components & Cabling
Monitoring & Control
Network
Fig.4.1: Data centre networks functional model
36
Equipment
Infrastructure
4.1.2 Los atributos de la red
La mejora de la eficiencia energética con respecto a
la infraestructura de red en los centros de datos
requiere un enfoque estructurado. La planificación
debe incorporar una perspectiva estratégica o a
largo plazo, debido al hecho de que la infraestructura
de redes suele tener una duración superior. Se
asume que la infraestructura básica de la red se
utiliza más de 8 años. Los cambios en la arquitectura
básica de la red y en la topología actual, incluyendo
equipos, etc., supone una notable inversión y
acarrea unos factores de riesgo considerables. Sin
embargo, la mejora de la red no sólo aumenta el
rendimiento del centro de datos sino que, en muchos
casos, también la eficiencia energética. La
planificación para lograr una mejora comienza por la
realización de un análisis estratégico.
El operador del centro de datos tiene que definir los
atributos de la red y los requisitos de rendimiento.
Esta tarea debe incluir un análisis de mercado. El
mundo de la tecnología informática actualmente
(2011) está experimentando un enorme cambio
hacia una producción centralizada de las
aplicaciones, dando lugar a nuevos volúmenes y
patrones de tráfico. En otras palabras, las
aplicaciones no se producen desde el lado del
usuario final, con considerables cálculos de potencia
y paquetes de software. Mediante la utilización de
Software como Servicio (SaaS) y de computación en
nube, las aplicaciones y el tráfico se producen en los
centros de datos y en las nubes de centro de datos.
Una condición necesaria para que exista esta
tendencia es la conectividad de banda ancha y la
baja latencia.
Esta tendencia general no sólo conduce a un
incremento del tráfico de datos entre el cliente y
servidor, sino también un aumento en el flujo de
datos de servidor a servidor y entre el
almacenamiento y el servidor. La compañía
Enterasys [1] señala a este respecto que la
arquitectura de red y la configuración van a
cambiar con el fin de apoyar el aumento de tráfico
de servidor a servidor y del almacenamiento con el
servidor. Con el fin de aumentar el rendimiento (la
productividad de la tecnología informática), la
tendencia técnica se dirige hacia la creación de
redes agregadas (de abajo hacia arriba) y de redes
virtuales (de arriba hacia abajo).
La arquitectura de red estará formada por menos
niveles mediante la fusión del acceso y la
agregación, así como de la red de agregación y del
núcleo, hasta cierto punto
(Véase también la Figura 4.3). Esta tendencia tiene
la posibilidad de reducir el consumo de energía
gracias a la unificación de la red. Sin embargo,
todo es una cuestión de equilibrio. Hay poca
información y pocos datos disponibles, y no existe
una única solución visible en el mercado.
La virtualización también se generalizará
incorporando equipos de red y redes de área local
(VLAN). La virtualización ofrece la ventaja de
consolidar el equipo físico y, por tanto, también la
posibilidad de disfrutar de una mayor eficiencia
energética. Según Enterasy [1], los objetivos de
diseño común de las redes de centros de datos
incluyen:
• Seguridad (cada vez más importante e influye en la
carga)
• Alta disponibilidad y redundancia (calidad del
servicio)
• Capacidad de gestión y transparencia (este
aspecto se apoya en las soluciones de virtualización)
• Optimización de los gastos (el objetivo es siempre
reducir el gasto de capital y el gasto de
funcionamiento)
4.1.3 El equilibrio entre el rendimiento de
la red y el consumo de energía
El ancho de banda, la alta velocidad, la baja latencia
y el tráfico sin pérdidas son criterios importantes en
el rendimiento de la red. La satisfacción del cliente o
lo que se denomina Calidad de Servicio (QoS) es un
requisito de desempeño adicional. La QoS se define
en base a los Acuerdos de Nivel de Servicio (SLA),
que contiene una serie de características como el
rendimiento mínimo, el tiempo de respuesta máxima
o el tiempo de latencia. Contar con una arquitectura
de red pertinente, convergida e inteligente que sea
capaz de gestionar el tráfico de forma dinámica a los
SLAs acordados no sólo es un elemento importante
para la competitividad futura, sino que también
podría sentar la base para establecer una estrategia
sistemática de la eficiencia energética.
Sin embargo, la implementación de la QoS puede
aumentar notablemente el tráfico de red y el
consumo total de energía de los respectivos centros
de datos. La tecnología de redes individuales y los
respectivos equipos,
• Ancho de banda y baja latencia (selección de la
tecnología de red)
• Escalabilidad y agilidad (arquitectura de red)
• Flexibilidad para apoyar diversos servicios (esta
función se ocupa de la consolidación)
RECOMENDACIONES PARA EL DISEÑO DE REDES
Debido al hecho de que existe una gran variedad de productos y opciones de red disponibles en el
mercado, se recomienda a los operadores del centro de datos o a los administradores de la tecnología
informática que elaboren una lista de prioridades relacionadas con los atributos de la red, tales como:
• red de servicios,
• requisitos de latencia,
• calidad del servicio,
• soporte y la virtualización
• rendimiento de otros aspectos de interoperabilidad.
El mejor enfoque es una optimización del sistema. Eso refleja la interacción de la infraestructura y el
rendimiento de la red con los demás equipos de tecnología informática y la infraestructura del soporte.
37
ofrecen ventajas y desventajas a este respecto.
Como tendencia general, se ha observado que la red
Ethernet de 10 Gigabites (10 GbE) se está
convirtiendo en la tecnología elegida en los centros
de datos. Ethernet no sólo vincula servidores (LAN),
sino que cada vez se aplica más en redes de
almacenamiento (SAN).
Contar con redes de baja latencia y sin pérdidas son,
sin embargo, los requisitos básicos para el tráfico de
almacenamiento. Según las 10 GbE [2] actuales,
los conmutadores producen entre 400 y 700ns de
latencia. Para el año 2014, se prevé que los
conmutadores de 100 GbE reduzcan la latencia a
cerca de 100 ns. Esto demuestra que, con el
aumento del ancho de banda, la latencia mejora.
Desde el punto de vista del consumo de energía, es
necesario equilibrar la mejora de latencia (la
tecnología de red) con el posible consumo de
energía máximo del ancho de banda (componente).
La selección de los componentes y la consolidación
del I/O son aspectos que deben abordarse a este
respecto.
Del mismo modo, es necesario investigar la creación
de redes sin pérdidas (disponibilidad) frente al
rendimiento del ancho de banda y a la eficiencia
energética subsiguiente. Por ejemplo, la creación de
redes sin pérdidas por lo general implica unos
protocolos más complejos (gastos generales) y una
latencia adicional en relación con el poder de
procesamiento, así como una menor eficiencia de
ancho de banda.
Sin embargo, contar con una red sin pérdidas
38
es una condición necesaria para las redes de las
áreas de almacenamiento. En el pasado, (con
pérdidas) Ethernet fue el obstáculo para su
aplicación en la red de área de almacenamiento.
El Canal de Fibra (FC) e Infiniband (IB) fueron las
tecnologías de red más comunes. Sin embargo,
hoy en día existen múltiples opciones de
almacenamiento en red basadas en Ethernet, tales
como Converged Enhanced Ethernet (CEE), Canal
de
Fibra
a
través
de
Ethernet
(FCoE), Interfaz Estándar de Equipos Pequeños
de Internet (iSCSI) a través de Ethernet, ATA a
través de Ethernet (AoE) y Almacenamiento
conectado a red (NAS). Estas opciones ayudan a
unificar las redes (y evita la necesidad de emplear
adaptadores adicionales), aunque crean una
sobrecarga adicional que se traduce en una menor
eficiencia de ancho de banda. Actualmente se
desconocen las compensaciones de la eficiencia
energética (si existen).
En conclusión, el operador debe tener en cuenta el
impacto en la energía que implica aumentar el
rendimiento, la escalabilidad y la adaptabilidad de
las nuevas soluciones de red consolidadas. Es
probable que las nuevas soluciones den como fruto
un equilibrio positivo en cuanto a la energía. Sin
embargo, es esencial realizar un dimensionamiento
adecuado. Se recomienda que los operadores que
compran nuevos equipos o soluciones completas
de red exijan una compensación / impacto
energético total en una nueva solución.
4.2 La mejora de la eficiencia
energética
4.2.1 La fusión de las clases de tráfico
(consolidación I/O)
Las redes de los centros de datos tienen que
transmitir diversos tipos de tráfico dentro de los
diferentes tipos de áreas de aplicación. Esto ha dado
lugar a la creación de protocolos y arquitecturas de
red especializadas. Como resultado de ello, las
redes considerablemente complejas a menudo no
comparten sus recursos. El objetivo básico es la
mejora de la reducción física de los componentes y
el reparto de la capacidad de la red a través de las
diferentes unidades funcionales. La tendencia
general hacia niveles menores y más simples y
redes I/O convergentes basadas en Ethernet
también está impulsada por las necesidades de una
eficiencia energética. El objetivo final es la
consolidación de la red, que se ocupa de las redes
de servidores y almacenamiento, así como la
arquitectura de red de distribución. El Adaptador de
Red Convergente (CAN) es la fusión de antiguos
interfaces separados:
• Adaptador de host (HBA) en soporte de tráfico SAN
• Controlador Interfaz de Red (NIC) en soporte de
tráfico LAN
• Adaptador de canal de host (HCA) en soporte de
tráfico IPC
La consolidación del I/O es la capacidad que
presenta un conmutador o un adaptador de host de
utilizar la misma infraestructura física para
transportar múltiples tipos de tráfico, donde cada uno
suele tener una serie de características y
necesidades de manejo específicas. Desde el lado
de la red, esto equivale a tener que instalar y operar
una única red en lugar de tres, tal y como se muestra
en la Figura 4.2.
Desde el lado de los host y las matrices de
almacenamiento, esto equivale a tener que adquirir
menos adaptadores de red convergentes (CNA) en
lugar de tarjetas de red Ethernet, FC HBA y HCA IB.
Un típico canal de fibra HBA consume alrededor de
12,5 W [3]. En cuanto a la redundancia de la red, es
necesario considerar adecuadamente las diversas
opciones para el diseño de redes fiables.
4 Equipos de redes
InterProcessor
Communication
(IPC)
LocalArea
Network
(LAN)
Storage
Network
(SAN)
ENSwitch
FCSwitch
Ethernet
HCA
NIC
Processor
IPC
LAN
SAN
ENSwitch
FibreChannel/
Infiniband
10G/40G/100GEthernet
HBA
CNA
Memory
Processor
Memory
Server
Fig.4.2 I/O consolidation and network convergence in data centre networks
BENEFICIOS DE LAS REDES CONVERGENTES
La consolidación de la I/O permitirá la consolidación de los distintos tipos de redes (LAN, SAN) a
un nivel superior, como una medida para la preparación de la virtualización del sistema. Además,
reducirá significativamente la cantidad de infraestructura física, incluyendo conmutadores, puertos,
conexiones y cables entre diferentes redes. Las redes convergentes darán como resultado:
•Una reducción de hasta el 80% de los adaptadores y cables
• Una reducción de hasta el 25% en interruptores, adaptadores y espacio de rack
• Una reducción de hasta el 42% en costes de energía y refrigeración [4]
39
4.2.2 La consolidación de la red
El método principal para optimizar el consumo de energía de la red de centros de datos incluye la aplicación de
las nuevas arquitecturas de red y la convergencia de las redes anteriormente separadas (en una tecnología
única). Una arquitectura típica consta de un árbol de enrutamiento y conmutación de equipos (niveles / capas
múltiples) empleando un equipo más especializado y costoso en la parte superior de la jerarquía de la red. El
objetivo debe ser la consolidación de la infraestructura de red mediante la creación de una arquitectura de red
plana basada en una estructura de red funcional.
Las medidas que se pueden tomar son:
• Agregar conmutadores. Múltiples conmutadores físicos que operen en un único dispositivo lógico.
• Reducir los niveles (capas). Utilice un conmutador agregado para hacer el trabajo de capas múltiples de
conmutadores. Se debe tener en cuenta los servicios de red y la seguridad.
Routers
Core
Aggregation
Access
Fig.4.3 Network consolidation
40
• Crear una estructura de red unificada. Con esto se
combinan los dos enfoques y se permite alcanzar
una simplicidad operativa y un rendimiento elevado.
Una vez más, es necesario tener en cuenta los
servicios de red y la seguridad.
La convergencia de las redes del servidor (LAN) y de
almacenamiento (SAN) es una tendencia general que
tiene muchas posibilidades de ahorro de energía.
Mantener dos redes separadas aumentaría los
costes de operación y el consumo de energía en
general, multiplicando el número de adaptadores, de
cables y de puertos de conmutación necesarios para
conectar todos los servidores directamente con el
soporte de redes LAN y SAN. Para simplificar o
reducir la estructura de red del centro de datos, en la
actualidad se está aplicando en los centros de datos
la convergencia de las tecnologías de red tales como
iSCSI, Canal de Fibra sobre Ethernet (FCoE) y
Centro de Datos de puente (DCB).
4 Equipos de redes
4.2.3 La virtualización de la red
La virtualización es una tecnología perfectamente
establecida para consolidar servidores físicos con
múltiples máquinas virtuales. La virtualización de la
red sigue el mismo principio y describe varias
estrategias de hardware y software para administrar
los recursos de red como unidades lógicas
independientes de la topología física. Esto se traduce
en un tráfico de red reducido, en una seguridad
simplificada y en un control de red mejorado. Los
elementos clave para contar con redes de alta
eficiencia son el conocimiento a nivel de red y la
visibilidad del ciclo de vida de la máquina virtual
(VM). La capacidad de configurar la red y la
capacidad a nivel de puerto al nivel de la máquina
virtual individual, así como el rastreo dinámico de las
máquinas virtuales a medida que se mueven a través
del centro de datos, son factores importantes para
una gestión eficiente de los entornos virtualizados.
La eficiencia energética se logra principalmente
mediante la consolidación de los routers, de los
adaptadores físicos de los puertos I/O, y del
hardware adicional para los servicios de red
específicos.
Extender la virtualización del sistema a la red incluye:
• Un router virtual (software con funcionalidad de
enrutamiento, sistemas múltiples en una máquina
real)
• Los enlaces virtuales (interconexión lógica de los
router virtuales)
• Las redes virtuales (routers virtuales conectados
por medio de enlaces virtuales)
El aumento de la virtualización de los servidores
dará como resultado una mayor complejidad y una
sobrecarga de la red. Los conmutadores de red
obsoletos no reconocen a las máquinas virtuales y
esto conlleva el riesgo de una interrupción del
servicio y de una aparición de brechas de
seguridad debido a una configuración de red
incorrecta. La conexión en red es un área clave
que también tiene que ser virtualizada para
alcanzar el mismo nivel de agilidad, de ancho de
banda y de rendimiento.
La virtualización de la red de servicios es una
estrategia que permite simplificar las operaciones
de red y consolidar dispositivos múltiples. La
virtualización de un módulo firewall o de un IPS,
proporcionando una imagen de software a
diferentes aplicaciones a través de un hardware de
red único, reduciría la necesidad de contar con
dispositivos independientes, utilizando el software
en el mismo hardware.
La reducción del consumo de energía se logra
mediante la consolidación de múltiples servicios en
una única unidad física sin necesidad de realizar un
despliegue de hardware específico para cada caso.
Eliminando la necesidad de otros dispositivos físicos
se elimina de forma efectiva la exigencia de contar
con fuentes de alimentación, refrigeración y espacio
de rack adicionales que, de otro modo, hubiera sido
necesario.
Resumen de los beneficios que ofrece la
virtualización de los servicios de red:
• Las interfaces de gestión son más flexibles
• Reducción de gasto de adquisición por el uso de
software
• Aumento del rendimiento de las aplicaciones
mediante la colocación y la extensión de servicios
simplificados
• Capacidad de reducción del consumo de energía
mediante la consolidación de equipos
La correcta aplicación de la virtualización de la red
depende de ciertos aspectos, como los gastos de
capital, la definición de objetivos concretos o la
compatibilidad con el hardware existente. Por tanto,
los proyectos de virtualización requieren un análisis
equilibrado de los gastos y los beneficios, una
gestión integral del proyecto y un consiguiente
análisis de los posibles riesgos de seguridad.
RECOMENDACIONES A LOS CENTROS DE DATOS PEQUEÑOS Y MEDIANOS
En el caso de las pequeñas y medianas empresas, la elección entre el FCoE y el iSCSI depende en gran medida de los requisitos de la aplicación y de la disponibilidad de contar
con personal capacitado en el Canal de Fibra.
• Cuando la capacidad y el rendimiento de las bases de datos orientadas son las aplicaciones críticas de negocio, el FCoE
y el iSCSI son las soluciones adecuadas para mejorar el nivel del servicio y reducir el consumo de energía.
• El aprovisionamiento centralizado del almacenamiento y la recuperación de incidencias requiere un común SAN -> se prefiere un iSCSI
• Se recomienda la adaptación de los FCoE a las redes de canal de fibra dominantes [5].
41
4.2.4 La selección de los componentes y de
los equipos
El consumo de energía de equipos de red en general
está influido por la selección de los componentes y la
configuración actual del sistema. La principal
influencia es el soporte estándar de la tecnología de
red compatible (por ejemplo, 10GbE). El chip de
diseño de sistemas y la integración a nivel TEM son
la principal influencia. Esta tendencia está impulsada
por la mejora del rendimiento de la tecnología de
semiconductores, que todavía sigue la ley de Moore.
Esto también incluye el rendimiento térmico del chip
y la tecnología de interconexión. La fiabilidad es un
problema importante en ese sentido. Otros factores
son la configuración del sistema, que influyen en el
tipo y número de puertos desplegados en el equipo.
Por último, el consumo de energía de los equipos de
red está influido por la eficiencia de la fuente de
alimentación y las opciones de gestión de la energía
La gestión de la energía
La magnitud del consumo de energía del equipo de
red está relacionada con el uso activo y los períodos
de inactividad. La diferencia en el consumo de
energía entre los activos (100% de carga) y la
inactividad (con el vínculo establecido) tiene
aproximadamente un factor de 1,1 (un diferencia
menor del 10%). Si el enlace está desactivado, el
consumo eléctrico se reduce a un factor 2 (50% del
activo).
Sin embargo, se espera que en las instalaciones
más pequeñas (por ejemplo, en las sala de
servidores, en los centros de datos pequeños) las
fases de inactividad se concentren especialmente
durante la noche. La gestión de energía avanzada,
que incluye una especie de "red en espera", todavía
no goza de un uso frecuente. El plazo de espera de
red ha sido acuñado por el estudio directivo
preparativo marco de la Unión Europea EuP / ErP
para el ENER Lot 26. Este estudio, se argumenta
que "condensar el tiempo de aplicación" es el criterio
clave para la implementación de una red en espera.
La gestión de la energía de los equipos de red está
estrechamente relacionada con el servidor y con los
sistemas de almacenamiento que se conectan.
42
RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS
Debe tener en cuenta los criterios de contratación en la selección de un
hardware de la red de energía eficiente y, sobre todo, de las fuentes de
alimentación.
• Elija equipos con funcionalidades de gestión de la energía y comparare el consumo de
energía de diversos dispositivos en los estados de inactividad y en espera.
• Compare los costes y la eficiencia energética de los sistemas de redes de diferentes
proveedores
• Solicite información sobre los productos de los proveedores en relación con:
•
la eficiencia energética total (por ejemplo, ECR, TEER en cuanto esté
disponible)
•
la eficiencia y la modularidad de las fuentes de alimentación
•
la eficiencia y la escalabilidad de las unidades de ventilación (velocidad
variable del ventilador, etc)
En el caso de que un grupo de servidores o de
dispositivos de almacenamiento se configure en
modo de espera (suspensión), sería posible
también apagar algunas partes de los
conmutadores de acceso. Una vez más, el factor
crítico es la latencia y la fiabilidad del sistema de
reactivación. Con la introducción de los
estándares
IEEE
802.3az
"Ethernet
Energéticamente Eficiente" y ECMA-393
"proxZzzyTM para host inactivo" estándar, se
están poniendo en marcha algunas estrategias la
gestión de la baja capacidad eléctrica.
La unidad de fuente de alimentación
La fiabilidad y la eficiencia de conversión de las
unidades de fuentes de alimentación (PSU)
influyen en el consumo total de energía. La
eficiencia de conversión de la PSU más potente
(> 500 W de salida) se ha mejorado en los
últimos años hasta alcanzar los niveles típicos de
más del 85% y con un exceso del 90%. Debido al
hecho de que los grandes conmutadores de
núcleo y routers consumen unos cuantos kW, el
menor aumento de la eficiencia de conversión
(aunque sólo el 1%) se traducirá en un ahorro de
energía notable. Además, las especificaciones
del producto no necesariamente revelan
información sobre la eficiencia de conversión de
las PSU.
4.2.5 La conmutación a nivel básico
Hay dos tipos básicos de distribución del conmutador
a nivel básico o de aplicación: al final de la fila y en la
parte superior del rack. La conmutación al final de la
fila (EOR) es un método de conexión a red
convencional, con un solo gran soporte de
conmutador basado en el chasis de uno o varios
racks. Desde el punto de vista de la eficiencia
energética, hay dos cuestiones a tener en cuenta
respecto al EoR:
• Ventaja: conmutación centralizada con una buena
escalabilidad y un notable ahorro de energía en
comparación con una solución subóptima TdR
• Inconveniente: un considerable esfuerzo de
cableado ineficiente en los sistemas densos
La conmutación en la parte superior del rack (TdR)
define un sistema que tiene un conmutador integrado
en cada rack. Este concepto se asegura una latencia
corta y una elevada transmisión de datos. Las
ventajas y desventajas que ofrece la ToR respecto a
la eficiencia energética son:
4 Equipos de redes
• Ventaja: conmutación descentralizada en
entornos de servidores densos (consolidación de
I/O), que reduce la necesidad de un excesivo
cableado. Si la distancia del cableado es más corta
entre servidor y el conmutador, se mejora la
velocidad de transmisión y se reduce el consumo de
energía para esta transmisión.
• Inconveniente: Si se utiliza un ToR en
computaciones menos densas (pocos servidores en
un rack), el sistema estará sobredimensionado. La
eficiencia energética es baja, debido a la utilización
por debajo de su nivel óptimo de los puertos
disponibles.
Lecturas complementarias
Hintemann R. [2008]: Energy Efficiency in the
Data centre, A Guide to the Planning, Modernization and Operation of Data centres, BITKOM, Berlin, disponible online:
http://www.bitkom.org/de/publikationen/
38337_53432.aspx
EC JRC ISPRA [2011]: Best Practices for the EU
Code of Conduct on Data centres
Comisión Europea (2011), EC Ensamblaje Research Centre, Ispra, disponible online:
http://re.jrc.ec.europa.eu/energyefficiency/html/standby_initiative_data_centres.htm
En conclusión, el ToR ofrece eco-ventajas cuando se
aplica en los sistemas de dimensiones adecuadas.
La Figura 4.4 ilustra el concepto de conmutación ToR
y su adecuada utilización.
Juniper [2010]: Government Data centre Network Reference Architecture, Using a High-Performance Network Backbone to Meet the Requirements of the Modern Government Data centre
Juniper (2010), Juniper Networks, Inc., Sunnyvale, disponible online:
http://www.buynetscreen.com/us/en/local/pdf/
Referencias
[1] Enterasys (2011): Data centre Networking
–Connectivity and Topology Design Guide; Inc Enterasys Networks, Andover.
[2] Lippis (2011): Open Industry Network Performance & Power Test Industry Network Performance & Power Test for Private and Public Data
centre Clouds Ethernet Fabrics Evaluating 10GbE
Switches; Lippis Enterprises, Inc, Santa Clara.
[3] Cisco (2008): Converging SAN and LAN Infrastructure with Fibre Channel over Ethernet for
Efficient, Cost-Effective Data centres; Intel, Santa
Clara.
[4] Emulex (2008): Sheraton Case Study.Virtual
Fabric for IBM Blade Centre Increases Server Bandwidth, Reduces Footprint and Enables Virtualization for High-performance Casino Applications;
Emulex, Costa Mesa 2010.
[5] Blade.org (2008): Blade Platforms and Network Convergence; Blade.org, Libro Blanco 2008.
reference-architectures/8030004-en.pdf
43
5 Enfriamiento y fuentes de alimentación en
centros de datos y salas de servidores
Andrea Roscetti, Politécnico de Milán, Thibault Faninger, Shailendra Mugal, Bio Intelligence Service
La refrigeración puede ser responsable de hasta un 50% del consumo total de
energía en las salas de servidores y los centros de datos. Por tanto, es esencial
establecer algunos parámetros para conseguir una refrigeración eficientemente
energética, tanto en pequeñas como en grandes instalaciones de tecnología
informática.
La siguiente sección muestra una serie de opciones generales para reducir el
consumo de energía.
5.1 La refrigeración en las salas
de servidores
Los armarios de servidores o las pequeñas salas de
servidores suelen estar equipados con cómodos
sistemas de refrigeración (los típicos sistemas para
oficinas HVAC1). Los pequeños centros de datos
habitualmente están equipados con 1-5 racks de
servidores, donde la tecnología informática consume
una potencia máxima de 20 kW.
5.1.1 Sistemas divididos y sistemas
portátiles
Fig.5.1: Split cooling system room unit
Los sistemas de refrigeración split se utilizan
comúnmente en las salas de servidores pequeñas. El
rango de potencia de refrigeración de esta familia de
sistemas es de 100-100 kW. Por lo general los
sistemas de refrigeración split/DX2 ofrecen varias
ventajas:
• Los costes de inversión son generalmente bajos.
• El diseño y la instalación son muy simples.
• El espacio requerido para la instalación es pequeño
(las unidades habitualmente se montan en la pared).
• La instalación es posible en casi todas las
situaciones.
• El mantenimiento y la sustitución de los sistemas es
muy sencillo y rápido.
Por otra parte es necesario tener en cuenta los
siguientes inconvenientes:
• La eficiencia general es muy baja en sistemas
pequeños, antiguos o de gran tamaño.
• La refrigeración confortable presenta un control de
humedad deficiente.
• Las tuberías entre las unidades internas y externas
tienen limitaciones en cuanto a la longitud y la altura.
external unit (Source: Daikin)
Los sistemas portátiles se pueden instalar, por
ejemplo, para evitar puntos calientes. Esta tecnología
ofrece las siguientes ventajas:
• Los costes de inversión son muy bajos.
• La instalación es simple.
• El espacio necesario para la instalación es
pequeño.
• El mantenimiento y la sustitución del sistema es
simple y rápido.
---------------------------------------------------------------------------------------------------1) HVAC: Calefacción, ventilación y aire acondicionado
2) DX: expansión directa
44
Es necesario tener en cuenta los siguientes
inconvenientes:
• En general, la eficiencia es muy baja: los sistemas
móviles de clase A son menos eficientes que los
sistemas split de clase D.
• La refrigeración presenta un control deficiente de
humedad y temperatura.
• La instalación sólo es posible si el aire se puede
ventilar hacia el exterior.
La etiqueta se implementa durante un período de transición hasta el 1 de enero de 2013.
Antes de esa fecha, los fabricantes ya pueden utilizar esa etiqueta, pero no es obligatorio.
Durante ese periodo de transición, también puede seguir utilizándose la etiqueta antigua en
los aparatos de aire acondicionado (2002/31 / CE).
5.1.2 Medidas para optimizar la
eficiencia energética en las salas de
servidores
Es necesario tener en cuenta los siguientes
inconvenientes:
• En general, la eficiencia es muy baja: los sistemas
móviles de clase A son menos eficientes que los
sistemas split de clase D.
• La refrigeración presenta un control deficiente de
humedad y temperatura.
• La instalación sólo es posible si el aire se puede
ventilar hacia el exterior.
El sobredimensionamiento de la refrigeración es una
práctica común en las salas de servidores pequeñas.
Para evitar el sobredimensionamiento de la
refrigeración en las salas de servidores que gozan de
un buen aislamiento, existe una regla de oro donde
se sugiere que la potencia de refrigeración no debe
superar los 120% de la potencia instalada en la
tecnología informática.
En la compra de nuevos aparatos de hasta 12 kW de
energía de refrigeración, se puede tomar como
referencia la Etiqueta Energética de la UE para
ayudar a la selección de un equipo energéticamente
eficiente. La mejor opción es contar con un elevado
EER3 / SEER4 y un nivel de eficiencia de clase A o
más. La SEER y los kW / h anuales estimados a
partir de la etiqueta son los criterios de comparación
más importantes. El cuadro 5.1 muestra la eficiencia
de la mejor tecnología disponible actualmente.
Fig.5.2: Energy label for cooling only air conditioners (Source: regulation supplementing
Directive 2010/30/EU of the European Parliament and of the Council with regard to energy
labeling of air conditioners)
Tab.5.1: Best available technology efficiency values for small cooling systems<12kW
(source: Ecodesign regulation requirements for air conditioners and comfort fans)
--------------------------------------------------------------------------------------------------3) Coeficiente de Eficiencia Energética: es la relación entre la potencia de refrigeración y potencia eléctrica en un punto de operación dado (condiciones de temperatura y humedad
interior y exterior)
4) EER estacional: representa el rendimiento general que se espera en un lugar determinado (método de prueba)
45
RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS
En las salas de servidores existentes
• Eliminar la captación solar, la transmisión de calor y las pérdidas por ventilación a otras habitaciones o al espacio exterior.
• Controlar y gestionar las condiciones ambientales (puntos de ajuste): la entrada de aire a la tecnología informática (no predeterminada) debe ser 18-27 °
C. Sin embargo se sugiere una temperatura de 24 a 27 ° C.
• Verifique los conductos y las tuberías de aislamiento (aire/agua/líquido frío y caliente).
• Evaluar la sustitución de los componentes obsoletos o menos eficientes del sistema de refrigeración (comparar la clase eficiente de los sistemas actuales
con los más eficientes que existen en el mercado).
• Controlar y verificar el diseño del sistema de refrigeración instalado (por ejemplo, la distancia entre los sistemas de refrigeración y la carga)
• Apagar las luces y, si es posible, eliminar otras cargas mecánicas / eléctricas y fuentes de calor.
Salas de servidores nuevas
• Evaluar el uso de sistemas de refrigeración de precisión (con el fin de eliminar el calor sensible de la tecnología informática y evitar el exceso de
deshumidificación).
• Definir y evaluar las características de la sala y de los equipos informáticos, teniendo en cuenta las restricciones de espacio y la distancia entre la carga y
las unidades externas.
• Evite el uso de unidades móviles o de unidades de conductos con una EER baja (Nota: los sistemas móviles de clase A son menos eficientes que los
sistemas split de clase D).
• Compare diversos sistemas:
■ Opte por la etiqueta energética de clase superior (obligatorio para los sistemas pequeños).
■ Maximice la eficiencia de enfriamiento (SEER), véase la tabla BAT.
• Plantéese el uso de la ventilación natural.
5.2 La refrigeración en centros de datos medianos y grandes
5.2.1 Aspectos generales
El método tradicional para la refrigeración de los centros de datos medianos y grandes se ha basado en
la refrigeración por aire. Un centro de datos estándar está diseñado para enfriar un promedio de 7,5 a 10
kW/m2, que se traduce en 1.3 kW / rack. Los centros de datos nuevos están diseñados para refrigerar un
promedio de 20 kW/m2, que todavía limita la densidad de potencia por rack a 4-5 kW (recordemos que la
capacidad completa del rack en los sistemas de consolidación o en los sistemas de servidores blade
puede ser superior a 25 kW / rack).
Los equipos de tecnología informática se disponen en una serie de filas cuyas entradas de aire miran
hacia el pasillo frío. El aire frío se suministra al pasillo frío, pasa a través de los equipos y, a continuación
se descarga en el pasillo caliente.
46
Uno de los elementos importantes que debemos
considerar es las características del flujo de aire. Las
direcciones del flujo de aire recomendado son de
adelante hacia atrás, de adelante hacia la parte
superior o de adelante + de arriba hacia atrás (véase
la referencia). Si existen diversos equipos con
diferentes condiciones de operación o distintas
direcciones de flujo de aire instaladas en la misma
habitación, es necesario crear un área separada. En
caso de que el equipo tenga diferentes necesidades
ambientales, es preferible ofrecer controles
ambientales por separado a fin de evitar ineficiencias
por la existencia de un punto de consigna más bajo o
un control deficiente del flujo de aire. Para más
detalles, véase la referencia [1].
5 Refrigeración y fuentes de alimentación en centros de datos
y salas de servidores
5.2.2 Ajustes de temperatura y humedad
Los centros de datos deben ser diseñados y
operados en su máxima eficiencia posible bajo unas
condiciones del clima dadas (bulb5 seca). La
temperatura recomendada es de 18 a 27 ° C y la
humedad relativa debe ser inferior al 60% (entrada
de aire a los equipos informáticos). Respectivamente,
el punto de rocío debe estar entre los 5,5 y 15 ° C.
Los estudios sobre la temperatura del aire de entrada
sugieren un rango óptimo de 24-27 ° C. A
temperaturas más altas, el consumo de energía de
los ventiladores internos en los servidores y otros
equipos informáticos prevalecerá sobre la eficiencia
mejorada del sistema de refrigeración del centro de
datos (véase las referencias). Si se programan unos
valores de temperatura más bajos se derrocha
energía como consecuencia de una excesiva
refrigeración.
Además de los ajustes de temperatura, la
optimización del flujo de aire (por ejemplo, pasillo
caliente / pasillo frío, placas ciegas y sellado de las
fugas) es esencial para asegurar una eficiencia
elevada. Véase la referencia [2] para la optimización
del pasillo caliente- pasillo frío. Los ajustes de
temperatura especialmente elevada, requieren un
flujo de aire optimizado para evitar que se produzcan
puntos calientes. A densidades de energía muy alta
(por ejemplo, 25 kW por rack), el enfriamiento
tradicional de una sala basado en sistemas CRAC /
CRAH ya no es suficiente para evitar los puntos
calientes. Para obtener información más detallada,
véanse las referencias [3], [4] y [5]. En este caso,
puede ser apropiado montar una refrigeración
especial basada en hilera y rack.
RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS
Gestión de los sistemas de refrigeración:
• Controlar y manejar las condiciones ambientales (punto de ajuste, programación, posición y número de
sensores).
• Sustituir los componentes obsoletos o menos eficientes del sistema de refrigeración (compárese con la
clase eficiente de los sistemas actuales) por otros más eficientes disponibles en el mercado.
• Verificar el aislamiento de los conductos / tuberías ( aire / agua / líquido frío y caliente).
• Localizar el CRAC al final del pasillo caliente (las unidades se colocarán perpendicularmente a los pasillos
calientes).
• Separar los equipos que tengan diferentes requisitos de temperatura y flujo de aire.
• Los flujos de aire:
■ Colocar los suministros de aire (baldosas o difusores perforados) solamente en los pasillos fríos,
cerca de la actividad del equipo informático.
■ Instalar barreras de flujo de aire a modo de contención del pasillo caliente y/o del pasillo frío para
reducir la mezcla de aire caliente con una temperatura ambiental más fría.
■ Instalar paneles de obturación en todas las ubicaciones de rack abiertas y dentro de los racks para
evitar la recirculación del aire caliente.
• El cableado:
■ Utilice una bandeja de cable aéreo:
■ Controle la colocación y el sellado de las aberturas de cables y las baldosas.
Criterios para la selección de nuevos sistemas de refrigeración con eficiencia energética:
• Compare la eficiencia de las unidades de refrigeración (véase las referencias de las necesidades de
refrigeración).
• Compare las diferentes opciones de diseño del flujo de aire (pasillo frío/caliente, los conceptos de piso
elevado/plenum de retorno).
• Evalúe el uso de:
■ refrigeración basada en el rack (para sistemas de alta densidad)
■ventilación natural (directa/indirecta)
■ enfriamiento natural del agua
■ Instalación de refrigeración líquida (directa/indirecta)
■ recuperación del calor residual
• Establezca un sistema de refrigeración modular (relacionado con el concepto de diseño y gestión de la
tecnología informática).
• Utilice software de simulación de la Dinámica de Fluidos Computacional (CFD) para la optimización del
proceso de enfriamiento.
--------------------------------------------------------------------------------------------------5) el valor medido por un termómetro expuesto al aire libre pero protegido de la radiación
y el nivel de humedad, conocido como temperatura del aire
47
5.2.4 La ventilación natural
5.2.3 La eficiencia de los componentes:
refrigeradores, ventiladores, unidades de
renovación del aire
Los refrigeradores por aire y por agua difieren en
6)
cuanto a su EER (Eficiencia Energética Ratio que
suele ser alrededor de 3,5 en el caso de los sistemas
de agua y alrededor de 2,5 en los sistemas de aire.
La "relación nominal de la eficiencia energética"
(EERrated) expresa la capacidad declarada de
refrigeración [kW] dividido por la potencia nominal de
refrigeración [kW] de una unidad cuando proporciona
refrigeración en condiciones de calificación estándar.
Eurovent proporciona datos que permiten establecer
una comparación de la eficiencia particular de varios
sistemas
y componentes de refrigeración y
ventilación (www.eurovent-certification.com). Las
unidades de refrigeración por agua son preferibles a
los refrigeradores por aire y a los DX, gracias a su
mayor eficiencia termodinámica. Se debería evaluar
la posibilidad de disminuir la temperatura de
condensación o de aumentar la temperatura de
evaporación.
---------------------------------------------6) Relación de Eficiencia Energética: es la relación entre la
potencia de refrigeración y la potencia eléctrica en un punto
de operación dado (condiciones de temperatura y humedad
interior y exterior)
Una reducción de delta-T entre estas temperaturas
supone que se necesita menos trabajo en el ciclo
de enfriamiento, mejorando de ese modo la
eficiencia. Las temperaturas dependen de la
temperatura del aire interna requerida (véase
ajustes de temperatura y humedad).
La eficiencia de los ventiladores depende
principalmente de la eficiencia del motor. El uso de
ventiladores de velocidad fija consume una
cantidad considerable de energía y dificulta la
gestión de los datos de temperatura del piso. Los
ventiladores de velocidad variable son
especialmente eficaces en caso de un excedente
elevado en el sistema de refrigeración o de una
carga informática muy variable. Los ventiladores
pueden ser controlados por la temperatura del aire
de retorno o la presión del aire frío del plenum.
El "Free cooling" o la ventilación natural es una
técnica que proporciona refrigeración mediante el uso
del nivel inferior que presenta la temperatura exterior
del aire o del agua en comparación con las
condiciones que se precisan en el interior. Cuanto
menor sea la temperatura media exterior anual,
mayor será la oportunidad de aplicar la ventilación
natural, así como su nivel de eficiencia. Los
economizadores de energía por circulación de agua y
de aire pueden ser una alternativa para disfrutar de
una refrigeración suplementaria. Las condiciones
climáticas definen la eficiencia económica y la
recuperación de las inversiones. Se puede utilizar un
modo operativo de ventilación natural completa si la
diferencia entre la temperatura de refrigeración de
retorno del agua y la temperatura ambiente supera
aproximadamente las 11 K. Por tanto, cuanto mayor
sea la temperatura de entrada diseñada, mayor será
el ahorro de energía. Si se escoge una temperatura
superior en la sala de servidores en el diseño de un
sistema de refrigeración, se puede utilizar la
ventilación natural durante un período de tiempo
anual más prolongado. La implementación de la
ventilación natural requiere una verificación de
viabilidad y una evaluación económica. Para calcular
el ahorro también debe ver la herramienta de
evaluación de la ventilación manual desarrollada por
The Green Grid. En la sección de lecturas
adicionales se proporciona una serie de
recomendaciones sobre las fuentes que contienen
información específica sobre la ventilación natural
.
Fig.5.3: Electrical infrastructure components and inefficiency in a data centre (ASHRAE: Save Energy Now Presentation Series,2009).
48
5 Refrigeración y fuentes de alimentación en centros de datos
y salas de servidores
5.2.5 La refrigeración basada en rack / en
filas
Si la densidad de potencia de los equipos
informáticos modernos es superior a 25 kW por
rack, la refrigeración tradicional de la sala basada en
sistemas CRAC / CRAH no es suficiente para evitar
que se produzcan puntos calientes. Para obtener
información más detallada, véase las referencias.
5.3 La fuente de alimentación
y el UPS en los centros de
datos
El sistema de alimentación en un centro de datos
principalmente transforma la corriente de alterna
(AC) a continua (DC). Las pérdidas que se
producen como consecuencia de la transformación
varían en función del nivel de carga. Normalmente,
la mayor eficiencia se logra entre el 80 y el 90% de
la carga total, mientras que en los niveles que se
encuentran por debajo del 50%, la eficiencia
energética se reduce significativamente.
La Figura 5.3 muestra la típica cadena de
alimentación de los centros de datos. Las fuentes
habituales de ineficiencia están indicadas en todos
los componentes.
El sistema de alimentación ininterrumpida (UPS) a
menudo proporciona un importante potencial de
ahorro de energía. El UPS opera continuamente
para proporcionar energía de reserva y de
acondicionamiento a los equipos informáticos y a
los componentes de la infraestructura.
Además de su función principal, que es
proporcionar energía a corto plazo cuando falla la
fuente de alimentación de entrada, el UPS también
ofrece diversas funciones para corregir los
problemas de corte de electricidad. Se pueden
encontrar tres topologías del sistema principales,
dependiendo de la aplicación deseada:
• La espera pasiva, también llamada Voltaje y
Frecuencia Dependiente (VFD), es el único
sistema capaz de proteger la carga de las
interrupciones del suministro eléctrico (apagones,
caídas de tensión, sobretensiones). En una
situación de suministro eléctrico normal, el UPS no
tiene interacción con la red eléctrica. Cuando el
suministro de entrada se encuentra fuera de la
tolerancia de carga del diseño del UPS, un
inversor
conecta
el
mecanismo
de
almacenamiento de energía para proporcionar
energía a la carga, desviando el suministro
eléctrico. Esta topología es más común en las
aplicaciones de baja potencia.
• La línea interactiva, llamada también de Voltaje
Independiente (VI), es capaz de proteger la carga,
como un UPS VFD y, además, ofrece una protección
de la carga mediante la regulación de la frecuencia
dentro de los límites óptimos. En particular, se
protege de una tensión insuficiente, o de un
sobrevoltaje, que se aplica continuamente a la
entrada. Esta topología no se utiliza habitualmente
por encima de los 5000 VA
[7].
• Doble Conversión, también llamado Voltaje y
Frecuencia independientes (VFI), es capaz de
proteger la carga contra los efectos adversos de las
variaciones en el voltaje (como un VI) o en la
frecuencia sin agotar la fuente de energía
almacenada, ya que suministra continuamente una
carga total de energía mediante la regulación del
suministro eléctrico antes de que llegue a la carga.
Esta topología no es frecuente en cargas que se
encuentran por debajo de 750 VA10.
Cada topología tiene sus ventajas e inconvenientes.
En el rango de 750 VA-5000 VA, el UPS de línea
interactiva suele tener una vida operativa más larga y
una mayor fiabilidad con un menor coste total de
propiedad, mientras que el UPS online de doble
conversión ocupa menos espacio y puede regular la
frecuencia de salida 10. El UPS también puede
ofrecer diferentes mecanismos de almacenamiento
de energía para suministrar electricidad a la carga
conectada en caso de que se produzca una
interrupción de energía:
• Las baterías electroquímicas, que almacenan y
descargan energía eléctrica mediante la conversión
de energía química;
• Rotativo (volante de inercia), proporciona energía
de almacenamiento a corto plazo en forma de un
disco masivo giratorio.
49
Tab.5.2 : Characteristic efficiencies of UPS topologies
UPS Topology
Double-conversion
Line-interactive
Efficiency at
25% load
Efficiency at
50% load
Efficiency at
75% load
Efficiency at
100% load
81–93%
85–94%
86–95%
86–95%
n.a.
97–98%
98%
98%
Tab.5.3: Minimum average efficiency requirements for AC-Output UPS proposed in
Energy Star UPS (P is the Real Power in Watts (W), ln is the natural logarithm)
Hay dos opciones disponibles para el suministro de
energía a la carga:
• UPS estáticos: no hay componentes móviles en el
circuito de alimentación
(excepto los ventiladores para la refrigeración).
Convierte la corriente alterna en corriente continua
(rectificador para el almacenamiento en baterías con
el fin de asegurar la continuidad en caso de pérdida
de red) y luego otra vez en corriente alterna para las
unidades de suministro de potencia instaladas en los
servidores.
• UPS rotativo: convierte la energía a través de un
motor / generador y se utiliza para las aplicaciones
que requieren cortes de la red de corta duración,
cortes de energía del sistema, caídas de tensión, etc.
Las pérdidas de energía del UPS se deben a la
ineficacia en la conversión de energía eléctrica (en el
cargador y en el inversor) y a las pérdidas de carga
de la batería o las pérdidas de energía en los
sistemas inerciales (volantes de inercia). Las
pérdidas eléctricas (y la generación de calor) son
más importantes en la UPS de doble conversión
(rectificador, inversor, filtro, y pérdidas de
interconexión), que en el UPS de línea interactiva y
en standby (filtros, transformadores, pérdidas de
interconexión). Los UPS con salida de corriente
continua (también conocidos como rectificadores) y
combinados con los UPS de corriente alterna y
continua se pueden utilizar en algunas aplicaciones y
pueden evitar pérdidas tanto en el inversor como en
el rectificador.
RECOMENDACIONES PARA LAS MEJORES PRÁCTICAS
Criterios para las nuevas instalaciones
• Evalúe correctamente sus necesidades y el tamaño de los sistemas UPS (evalúe el UPS múltiple o modular,
las soluciones escalables y ampliables): el tiempo de reserva de la batería, el coste, el tamaño, el número
de puntos de venta, etc
• Analice la tecnología y la eficiencia del UPS. Debe tener en cuenta la eficiencia de la carga parcial del UPS.
• Seleccione la topología correcta de los sistemas de suministro de energía.
• Escoja los sistemas UPS que cumplan con el Código de Conducta de los UPS o de Energy Star.
Criterios de optimización
• Analice la tecnología y la eficiencia del UPS.
• Evalúe las opciones y los beneficios que reporta la sustitución de equipos antiguos.
• Evalúe los costes y los beneficios de la redundancia.
50
5 Refrigeración y fuentes de alimentación en centros de datos
y salas de servidores
La mayoría de los fabricantes de UPS citan la
eficiencia del UPS al 100% de carga. Sin
embargo,
la
eficacia
disminuye
significativamente en condiciones de carga
parcial (obsérvese que la mayoría de los UPS
funcionan a un 80%, y en caso de redundancia,
la carga puede caer al 50% y menos. Con
cargas del 50% o menos tanto los sistemas de
UPS modernos como los existentes funcionan
menos eficazmente con caídas significativas
que se producen en las cargas que se
encuentran por debajo del 20%. Para obtener el
mejor rendimiento del UPS las cargas deberán
ajustarse lo más posible a las cargas de los
equipos informáticos del centro de datos. Se
pueden encontrar soluciones de UPS escalables
para conseguir un tamaño eficiente de la
capacidad del UPS.
Lecturas complementarias
Referencias
ASHRAE (2011): Thermal Guidelines for Data
Processing Environments–Expanded Data centre
Classes and Usage Guidance – ASHRAE, 2011,
disponible online en: http://tc99.ashraetcs.
[1] ASHRAE: Save Energy Now Presentation
Series, 2009.
[2] Niemann, J. y otros (2010). Hot-Aisle vs.
Cold-Aisle Containment for Data centres; APC por
Schneider Electric, Libro Blanco135, Revisión 1.
[3] Rasmussen, N. (2010). An improved architecture for High-efficiency High-density data centres; APC por Schneider Electric, Libro Blanco 126,
Revisión 1.
[4] Blough, B. (2011). Qualitative analysis of
cooling architectures for data centres; The Green
Grid, Libro Blanco #30.
[5] Bouley, D. y Brey, T. (2009). Fundamen- tals
of data centre power and cooling efficiency zones;
The Green Grid, Libro Blanco #21.
[6] Rasmussen, N. (2011). CalculatingTotal
Cooling Requirements for Data centres; APC por
Schneider Electric, Libro Blanco 25, Revisión 3.
[7] ENERGY STAR Uninterruptible Power
Supply Specification Framework (2010).
Disponible en:
org/documents/ASHRAE%20Whitepaper%20-%20
2011%20Thermal%20Guidelines%20for%20Data%20
Processing%20Environments.pdf
Código de conducta de la UE para los centros
de datos(2009): Lista completa de opciones para
las mejores prácticas identificadas en los operadores
del centro de datos, tal como se indica en el Código
de Conducta de la UE:
http://re.jrc.ec.europa.eu/energyefficiency/pdf/CoC/Best%
20Practices%20v3.0.1.pdf
The Green Grid (2011): Herramienta de evaluación
de la ventilación natural.
http://cooling.thegreengrid.org/europe/WEB_APP/calc_in
Los requisitos mínimos de eficiencia del UPS se
especifican en el Código de Conducta del UPS
(nueva edición 2011) y en los requisitos del
programa Energy Star (versión en borrador de
2011). Los nuevos requisitos de eficiencia
energética de Energy Star para el UPS de
corriente alterna y corriente continua están
actualmente en fase de desarrollo (véase el
cuadro 5.3).
El programa también pretende incluir requisitos
el UPS multi-modos. Este tipo de UPS opera
con varias series de características de
dependencia de entrada (por ejemplo, pueden
funcionar tanto en VFI como en VFD). El UPS
multi-modo puede funcionar en modos más
eficientes y menos protegidos y cambiar a
modos menos eficientes y más protegidos
cuando sea necesario. Por tanto, es posible
lograr un importante ahorro energético.
dex_EU.html
ENERGY STAR (2011): Eficiencia del UPS
http://www.energystar.gov/index.cfm?c=new_specs.u
ninterruptible_power_supplies
The Green Grid(2011):Herramienta de evaluación
de los sistemas de alimentación
http://estimator.thegreengrid.org/pcee
www.energystar.gov/ia/partners/prod_development/
High Performance Buildings: Data centres
Uninterruptible Power Supplies(UPS)
http://hightech.lbl.gov/documents/UPS/Final_UPS_
[8]Ton, M. y Fortenbury B. (2008). High
Performance Buildings: Data centres - Uninterruptible Power Supplies. Disponible en
Report.pdf
http://hightech.lbl.gov/documents/UPS/Final_UPS_Report.
CÓDIGO DE CONDUCTA DE LA UE(2011):Código
de conducta de la UE sobre Eficiencia Energética y
Calidad de los Sistemas de Alimentación Ininterrumpida
(UPS) de corriente alterna:
pdf
http://re.jrc.ec.europa.eu/energyefficiency/html/standby_i
http://www.apcdistributors.com/white-papers/Power/
nitiative.htm
WP-79%20Technical%20Comparison%20of%20On-
new_specs/downloads/uninterruptible_power_supplies/U
PS_Framework_Document.pdf
[9] Samstad, J. y Hoff M.; Technical Comparison of On-line vs. Line-interactive UPS designs;
APC, Libro Blanco 79.Disponible en
line%20vs.%20Line-interactive%20UPS%20designs.pdf
51
Partners
Supportedby
Contacto: Austrian Energy Agency|Dr. Bernd Schäppi|Mariahilferstrasse136|A-1150 Viena|
Teléfono+4315861524|bernd.schaeppi@energyagency.at
Descargar