¿Cuándo podemos decir que ■ Olof Sandstrom Director de Operaciones arsys número 06■2013 L 152 OS Centros de Proceso de Datos (CPD) cuentan con una tecnología cada vez más encaminada hacia la eficiencia, con motivo de una reducción de costes, pero también para orientarlos hacia un modelo “Green”. No obstante, debemos ser conscientes de que son instalaciones complejas con un consumo de electricidad muy elevado, que se reparte principalmente entre la alimentación de los servidores que prestan el servicio (50%) y la alimentación destinada a los sistemas de climatización necesarios para disipar el calor que generan los servidores (35%). El 15% restante de la potencia se destina a la distribución eléctrica, la iluminación y otros elementos técnicos. se utilizase estuviera destinado al equipamiento TI. Con esto, lograríamos ser más eficientes y que no tuviéramos pérdidas en el sistema eléctrico ni que climatizáramos la sala. Pero obviaríamos una realidad: el equipamiento TI genera calor, por lo que es necesario controlar la temperatura y las condiciones ambientales de la sala. Cada vez es más común que las empresas comprometidas con el medio ambiente cuiden especialmente la eficiencia energética de estos distintos elementos que soportan las operaciones TIC de sus CPD, que se suelen denominar con conceptos como Green TIC, Green Hosting o Green Data Center. Principalmente, centran sus esfuerzos en dos líneas principales de trabajo: optimizar el porcentaje de electricidad destinado a TI y mejorar el rendimiento de la plataforma TI. Actualmente, los Centros de Datos que se están esforzando en ser “Green” trabajan con valores PUE entre 1,3 y 1,7, aunque hay algunos casos de éxito con valores de 1,2 en entornos muy controlados. En el caso de arsys, con un entorno real muy exigente en cuanto a la computación (1,5 millones de servicios de todo tipo y en todo tipo de plataformas: Cloud, Dedicadas, compartidas, de correo, críticas, etc.), esperamos cerrar 2012 con un PUE medio anual de 1,38, un 15% por debajo de la cifra alcanzada en 2011. Y hay trimestres en los que el PUE es mucho más bajo, ya que aprovechamos al máximo las condiciones externas para la climatización de las má- En el primer escenario sobre el aumento del porcentaje de electricidad destinado al equipamiento TI, lo ideal en un CPD sería que cada kilowatio (kW) que El PUE (Power Utilization Effectiveness), la relación entre la electricidad total que consume un Centro de Datos y la electricidad que consume su equipamiento TI, es el indicador más extendido para medir esta eficiencia e idealmente debería tener un valor de 1, aunque generalmente sea de 2. Es decir, por cada kW que se destina a TI hace falta otro para mantenerlo en óptimas condiciones. quinas. Gracias a estos datos, calculamos que hemos ahorrado al medio ambiente, como mínimo, la generación de 275.000 kW/h, que hubieran supuesto unas 420 toneladas de CO2. Dentro del CPD, las mejoras en la distribución eléctrica son un punto crítico. Si los servidores dejaran de funcionar en un Data Center un solo segundo, todos los sistemas se caerían. Levantarlo de nuevo podría llevar varias horas de trabajo, pues todos los servidores y sistemas dejarían de funcionar. perspectivaempresarial un Centro de Datos es Green? Al estar hablando de entornos que tienen que estar disponibles a cualquier hora y cualquier día del año, debemos plantear un escenario en el que el suministro sea constante y que no dé pie ni a un segundo de cortes, pues supondría un perjuicio económico considerable para cualquier empresa. El diseño de la instalación eléctrica de un CPD debe ser sumamente meticuloso y todos los elementos tienen que estar duplicados. Los sistemas se alimentan a través de una acometida eléctrica de compañía, pero, por si acaso hay interrupciones de suministro, se tiene que instalar un grupo electrógeno que suministre electricidad. número 06■2013 Y, como el grupo electrógeno tarda unos segundos en arrancar y empezar a proporcionar corriente eléctrica, hace falta un sistema basado en baterías que alimente la instalación durante ese periodo de tiempo, un Sistema de Alimentación Ininterrumpida (SAI). Por si fuera poco, todos estos elementos deben estar duplicados, por si se diera el caso de que cuando entraran en funcionamiento alguno de ellos presentara alguna anomalía. 153 Al final, y todo para evitar cualquier corte de suministro, se necesitan dos acometidas, dos grupos y dos SAI. con el medio ambiente y los niveles de rendimiento de las máquinas que debemos facilitar a los clientes. La optimización de la electricidad también tiene que ver con algunos aspectos que es necesario cuidar, como por ejemplo, el aprovechamiento de la temperatura ambiente, la separación de aire frío / caliente o la calibración de las temperaturas. Durante años, lo importante para un Centro de Datos ha sido tenerlo lleno de servidores. Sin embargo, las tecnologías de virtualización han permitido dar un paso más y hacer que lo importante no sea tenerlo lleno de servidores, sino que cada kW que se consuma se destine a algo productivo para lograr que sea eficiente y optimizable. Para que los equipos TI funcionen adecuadamente se trabaja habitualmente con una temperatura del aire alrededor de 20 grados centígrados. En muchos emplazamientos, la temperatura ambiental se sitúa durante bastantes horas al año por debajo. Por tanto, al diseñar el sistema de climatización se debe prever la posibilidad de utilizar el frío del exterior para controlar la temperatura de la sala. De hecho, hay tecnologías que permiten inyectar directamente aire del exterior cuando su temperatura es inferior a 20 grados, de forma que la inversión en climatización se reduce. Por contrapartida, estos sistemas requieren de la instalación de unos filtros de aire de grandes dimensiones y con un coste de mantenimiento elevado. Otra forma de hacerlo es que los sistemas de climatización incorporen un módulo que utilice el frío exterior para enfriar el agua en lugar de los compresores cuando la temperatura exterior lo permita. número 06■2013 Otro tipo de sistemas también válidos, como son las torres de evaporación que enfrían el agua antes de que llegue a los compresores. Estas torres aumentan el rendimiento cuando la temperatura exterior es baja y hacen que el agua llegue a los compresores a una temperatura lo suficientemente baja como para que no tengan que enfriarla más. 154 Por otro lado, es fundamental hacer llegar de la forma más directa posible el frío que hemos generado a los equipos TI. Los equipos TI toman aire frío por delan- te y sueltan el aire caliente por detrás, por lo que si no se aísla adecuadamente el aire frío del caliente, estos se mezclan y, al final, llega a los equipos más caliente de lo que sería deseable. Consecuentemente, si el aire tiene que llegar a los equipos en torno a los 20 grados pero se mezcla con aire caliente, será necesario que su temperatura esté por debajo, hasta 17 ó 18 grados. Para hacer esto, se suele cerrar completamente el pasillo por donde circula el aire frío, de forma que no haya posibilidad de que se mezcle el aire caliente. También es fundamental aislar los huecos de los racks que no tienen servidores instalados, de forma que el aire caliente no vuelva al pasillo frío por esos espacios. Los equipos de climatización tienen unas temperaturas de consigna para trabajar, de forma que cuanto más bajas sean estas temperaturas de consigna, más frío habrá que introducir en la sala. La tendencia de muchos técnicos es bajar estas consignas de forma que las máquinas trabajen con una temperatura más fría, creyendo que los equipos trabajan mejor a menos temperatura. Esto no es estrictamente así: hay unos márgenes de temperatura de trabajo. De hecho, en arsys estamos trabajando con distintos proyectos de innovación, el más importante en colaboración con Intel, que parten de la premisa de que es posible elevar la temperatura de las salas técnicas, garantizando en todo momento el correcto funcionamiento de los servidores. Debido esta revolución en la Nube que vivimos, fabricantes de hardware y proveedores de servicio estamos tratando de encontrar el punto de inflexión que compatibilice la responsabilidad La virtualización reduce drásticamente del consumo eléctrico del CPD y, por lo tanto, se consigue un uso más responsable de los recursos energéticos. Al ser muy normal que un servidor tenga la carga de CPU por debajo del 15%, en principio es posible que una única máquina física haga el trabajo que hasta ese momento hacían seis y se puede prescindir de cinco servidores y de los recursos necesarios para su funcionamiento. Todo ello sin afectar a la calidad del servicio. En este sentido, resulta imperativo consolidar máquinas dentro del Centro de Datos mediante el uso del Cloud Computing y las tecnologías de virtualización, que permiten reducir el número total de servidores necesarios para prestar el servicio. Si un CPD consigue pasar de tener 2.000 servidores en producción a tener 400 (unas cifras que, teniendo en cuenta las tecnologías actuales de virtualización, no resultan disparatadas) habrá pasado de consumir unos 500 kW en su equipamiento TI a consumir unos 120 kW, un 76% menos. En definitiva, en una estrategia para conseguir que nuestro CPD pase a ser “Green”, hay involucradas muchas tácticas que optimizan la eficiencia del Centro de Datos y que pase a ser “Green”, no una sola y única fórmula. Es necesario trabajar a lo largo de toda la complejidad del Centro de Datos y entonces sí podremos decir que gestionamos un entorno “Green”.